دولى

ممارسات السلامة في شركات الذكاء الاصطناعي لا تفي بالمعايير العالمية

الشركات لا تملك استراتيجية واضحة للسيطرة على المخاطر

حذر معهد “مستقبل الحياة” في إصدار جديد من مؤشر السلامة في الذكاء الاصطناعي أن الشركات الكبرى العاملة في هذا المجال ما زالت بعيدة عن المعايير العالمية التي يُفترض أن تضبط تطوير النماذج المتقدمة.

فمع أن سباق تطوير الأنظمة فائقة الذكاء يشتد يومًا بعد يوم، فإن أياً من هذه الشركات بما فيها أنثروبيك وأوبن إيه.آي وإكس إيه.آي وميتا لا تملك استراتيجية واضحة تضمن السيطرة الكاملة على القدرات المتنامية لتلك النماذج.

ويأتي هذا التقييم في وقت تتسع فيه المخاوف العامة من التأثيرات الاجتماعية التي قد تسببها أنظمة قادرة على التفكير المنطقي واتخاذ قرارات معقدة تفوق قدرات البشر.

وقد تردد خلال الفترة الماضية ربط بعض حالات الانتحار وإيذاء النفس بتفاعلات مباشرة مع روبوتات محادثة ذكية، ما أثار موجة قلق حول حجم المخاطر التي يمكن أن ترافق التعامل غير المنضبط مع هذه التقنيات.

لا إجراءات من الشركات

ويقوم المتخصصون ان الضجة الدائرة حول القرصنة بالذكاء الاصطناعي ومخاطر دفع الأنظمة للمستخدمين نحو اضطرابات نفسية أو إيذاء أنفسهم، لم تُقابل بعد بإجراءات كافية من الشركات المصنعة، مضيفين أن تنظيم هذه الشركات لا يزال “أقل من تنظيم المطاعم” رغم ضآلة المخاطر في القطاع الأخير مقارنة بالذكاء الاصطناعي.

ورغم هذا الجدل، فإن سباق التطوير لا يبدو أنه سيهدأ؛ فالشركات التقنية العملاقة تضخ مئات المليارات في تطوير تقنيات التعلم الآلي وتوسيع قدراتها، بينما يستمر النقاش حول الحاجة العاجلة إلى ضوابط أمان أكثر صرامة.

أما بالنسبة لردود الشركات، فقد اكتفت إكس.إيه.آي بتصريح آلي مقتضب اعتبر أن “وسائل الإعلام القديمة تكذب”، بينما التزمت شركات أخرى مثل أوبن إيه.آي وأنثروبيك وجوجل ديب مايند وميتا وديب سيك وزد.إيه.آي وعلي بابا كلاود الصمت تجاه ما ورد في التقرير.

ويُذكر أن معهد مستقبل الحياة، الذي تأسس عام 2014، يعد من أبرز الجهات التي تدق ناقوس الخطر بشأن المخاطر الوجودية المحتملة للذكاء الاصطناعي، وكان إيلون ماسك واحدًا من أوائل الداعمين له.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى