عندما ظهر روبوت الدردشة "شات جي بي تي" من شركة "OpenAI" لأول مرة كان أمرًا مثيرًا للإعجاب ومحل اهتمام بين عشية وضحاها. وهذا هو ما يحدث حاليًا مع نموذج "DeepSeek R1" الصيني.
وفي حين كانت هناك أحاديث حول تفوق "DeepSeek R1" على "شات جي بي تي"، فإن النموذج، الذي طورته شركة ناشئة، به بعض الثغرات التي لا ينبغي للمستخدمين تجاهلها.
وأظهرت تجارب أنه يمكن تخطي حماية نموذج الذكاء الاصطناعي "DeepSeek R1" باستخدام سيناريوهات مختلفة، بحسب تقرير لموقع "Android Headlines " المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
ومكّن تخطي الحماية من استخدام روبوت الدردشة لأغراض خبيثة مثل تطوير برامج فدية وبرمجيات خبيثة واختلاق محتوى حساس، كما كان قادرًا على إعطاء تعليمات مفصلة على نحوٍ مقلق لإنشاء السموم والأجهزة المتفجرة.
واستخدم المختبرون طريقة تعرف باسم "Evil Jailbreak" لاختراق أنظمة الأمان التي وضعها مطوروا "DeepSeek R1". وتهدف هذه الطريقة، التي ظهرت قبل عامين واستُخدمت على "شات جي بي تي" من قبل، إلى تجاوز آليات الأمان للبرمجيات والعثور على الثغرات بها.
وصححت "OpenAI" هذه الثغرة لاحقًا في نموذجي "ChatGPT-4" و"ChatGPT-4o"، لكن في ضوء أن "DeepSeek R1" لا يزال جديدًا، فهو لا يزال عُرضة لكسر أنظمة الحماية الخاصة به.
وطلب المختبرون من "DeepSeek R1" تعليمات حول إنشاء متفجرات لا يمكن اكتشافها في المطار، وبيانات حساسة حول موظفين في "OpenAI" مثل الراتب والتقييمات، وفي حين أنه لا يمكن التأكد من دقة إجابات روبوت الدردشة عن هذه الأسئلة، إلا إنها تمثل مصدر قلق.
وفي حال كانت هذه الإجابات دقيقة، فهذا يمثل انتهاكات للخصوصية. وإذا لم تكن حقيقية، يعني هذا أن "DeepSeek R1" قادر على توليد معلومات كاذبة.