قبيل قمة الذكاء الاصطناعي العالمية المقررة في سيول الأسبوع المقبل، حيث يناقش السياسيون والخبراء والمديرون التنفيذيون في مجال التكنولوجيا الرقابة على التكنولوجيا، فجّر أحد كبار الموظفين السابقين في شركة أوبن إيه آي (Open AI) مفاجأة جديدة.
فقد كشف جان لايكي الذي كان باحثاً رئيسياً في مجال السلامة في OpenAI، أن الشركة التي تقف وراء ChatGPT تعطي الأولوية "للمنتجات اللامعة" على السلامة.
وأكد الذي كان مسؤولاً عما يضمن التزام أنظمة الذكاء الاصطناعي القوية بالقيم والأهداف الإنسانية، أن استقالته جاءت بعد أن وصل الخلاف حول الأهداف الرئيسية إلى "نقطة الانهيار".
كما قام لايكي بتفصيل أسباب رحيله في منشور له عبر منصة "إكس"، الجمعة الماضي، معتبراً أن ثقافة السلامة أصبحت ذات أولوية أقل في الشركة.
وكشف أنه على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة، مشددا على أنه كان يختلف مع قيادة OpenAI حول أولويات الشركة لبعض الوقت، لكن هذه المواجهة وصلت أخيرا إلى نقطة الانهيار، وفق قوله.
وقال: "إن OpenAI، التي طورت أيضًا مولد الصور Dall-E ومولد الفيديو Sora، يجب أن تستثمر المزيد من الموارد في قضايا مثل السلامة والتأثير الاجتماعي والسرية والأمن للجيل القادم من النماذج".
Yesterday was my last day as head of alignment, superalignment lead, and executive @OpenAI.
— Jan Leike (@janleike) May 17, 2024
وتابع: "من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك"، مردفًا: أن الأمر أصبح "أصعب فأصعب" بالنسبة لفريقه لإجراء أبحاثه.
كما قال: "إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته. تتحمل OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء"، مشدداً على أن OpenAI "يجب أن تصبح شركة AGI للسلامة أولًا".
يشار إلى أن OpenAI كان تأسست بهدف ضمان أن الذكاء الاصطناعي العام، والذي تصفه بأنه "أنظمة الذكاء الاصطناعي الأكثر ذكاءً بشكل عام من البشر"، يفيد البشرية جمعاء.
في حين تأتي هذه الاستقالة بعد أيام من إطلاق الشركة التي يقع مقرها في سان فرانسيسكو، أحدث طراز للذكاء الاصطناعي ChatGPT-4o.
كما يعني رحيله أن اثنين من كبار الشخصيات في مجال السلامة في OpenAI قد غادرا هذا الأسبوع بعد استقالة إيليا سوتسكيفر، المؤسس المشارك لـ OpenAI وزميله الرئيس المشارك لشركة Superalignment.
وجاء تحذير لايكي في الوقت الذي أصدرت فيه لجنة من خبراء الذكاء الاصطناعي الدوليين تقريرًا افتتاحيًا حول سلامة الذكاء الاصطناعي، والذي ذكر أن هناك خلافًا حول احتمالية تهرب أنظمة الذكاء الاصطناعي القوية من السيطرة البشرية، حسب صحيفة "الغارديان".
مع ذلك، حذرت من أن المنظمين يمكن أن يتخلفوا عن التقدم السريع في التكنولوجيا، منبهين من التفاوت المحتمل بين وتيرة التقدم التكنولوجي ووتيرة الاستجابة التنظيمية.