فوتت شركة الذكاء الاصطناعي xAI، التابعة لإيلون ماسك، موعدًا نهائيًا فرضته على نفسها لنشر إطار عمل نهائي لسلامة الذكاء الاصطناعي، وفقًا لمجموعة المراقبة "مشروع ميداس".
لا تُعرف "xAI" بالتزامها الراسخ بسلامة الذكاء الاصطناعي كما هو شائع.
فقد كشف تقرير حديث أن روبوت الدردشة الذكي التابع للشركة، "غروك"، كان يخلع ملابس النساء في الصور عند طلبها، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
كما أن "غروك" أكثر فظاظة من روبوتات الدردشة مثل جيميني وشات جي بي تي حيث يشتم دون أي تردد يُذكر.
مع ذلك، في فبراير، خلال قمة سيول للذكاء الاصطناعي، وهي تجمع عالمي لقادة الذكاء الاصطناعي وأصحاب المصلحة، نشرت شركة xAI مسودة إطار عمل تُحدد نهج الشركة تجاه سلامة الذكاء الاصطناعي.
حددت الوثيقة، المكونة من ثماني صفحات، أولويات وفلسفة "xAI" المتعلقة بالسلامة، بما في ذلك بروتوكولات قياس الأداء الخاصة بالشركة واعتبارات نشر نماذج الذكاء الاصطناعي.
وكما أشار مشروع ميداس في منشور المدونة يوم الثلاثاء، فإن المسودة تنطبق فقط على نماذج ذكاء اصطناعي مستقبلية غير محددة.
علاوة على ذلك، لم توضح المسودة كيفية قيام "xAI" بتحديد وتنفيذ إجراءات تخفيف المخاطر، وهو عنصر أساسي في وثيقة وقّعتها الشركة في قمة سيول للذكاء الاصطناعي.
في المسودة، ذكرت شركة xAI أنها تخطط لإصدار نسخة منقحة من سياسة السلامة الخاصة بها خلال ثلاثة أشهر، في اشارة الى يوم 10 مايو.
وقد مرّ الموعد النهائي دون أي إعلان على القنوات الرسمية للشركة.
على الرغم من تحذيرات ماسك المتكررة من مخاطر الذكاء الاصطناعي غير المُعالجة، إلا أن سجل "xAI" في مجال السلامة ضعيف.
وقد وجدت دراسة حديثة أجرتها منظمة SaferAI، وهي منظمة غير ربحية تهدف إلى تحسين مساءلة مختبرات الذكاء الاصطناعي، أن "xAI" تحتل مرتبة متدنية بين نظيراتها، نظرًا لممارساتها الضعيفة للغاية في إدارة المخاطر.
هذا لا يعني أن أداء مختبرات الذكاء الاصطناعي الأخرى أفضل بكثير.
ففي الأشهر الأخيرة، سارعت شركات منافسة في مجال الذكاء الاصطناعي، مثل "غوغل" و"OpenAI"، إلى إجراء اختبارات السلامة، وكانت بطيئة في نشر تقارير سلامة النماذج (أو تخطت نشر التقارير تمامًا).
وقد أعرب بعض الخبراء عن قلقهم من أن هذا التراجع الواضح في أولوية جهود السلامة يأتي في وقت أصبح فيه الذكاء الاصطناعي أكثر قدرة - وبالتالي أكثر خطورة - من أي وقت مضى.