أقرت "مايكروسوفت" بوجود خلل تقني سمح لمساعدها الذكي كوبايلوت بالاطلاع على رسائل بريد إلكتروني سرية وتلخيصها لأسابيع، دون الحصول على الأذونات المطلوبة، ما أثار مخاوف تتعلق بخصوصية البيانات داخل بيئات العمل.
وبحسب تقرير نشره موقع "Bleeping Computer"، فإن الخلل أتاح لميزة Copilot Chat الوصول إلى محتوى رسائل البريد منذ يناير الماضي، حتى في الحالات التي كانت فيها سياسات منع تسرب البيانات (DLP) مفعّلة لمنع إدخال معلومات حساسة إلى نماذج الذكاء الاصطناعي.
وأوضحت "مايكروسوفت" أن الخلل — الذي يمكن لمديري الأنظمة تتبعه عبر الرمز CW1226324 — تسبب في معالجة رسائل بريد "المسودات" و"المرسلة" التي تحمل تصنيف "سري" بشكل غير صحيح داخل Microsoft 365 Copilot.
وتتيح خدمة Copilot Chat لمشتركي Microsoft 365 المدفوعة استخدام أدوات الدردشة المعتمدة على الذكاء الاصطناعي داخل تطبيقات "أوفيس" مثل "وورد" وإكسيل" و"باور بوينت".
وأكدت الشركة أنها بدأت في طرح تحديث لإصلاح الخلل مطلع فبراير الجاري، من دون أن توضح عدد العملاء أو المؤسسات التي قد تكون تأثرت بالمشكلة.
كما لم تصدر توضيحات إضافية بشأن ما إذا كانت البيانات التي عولجت قد خُزنت أو استُخدمت في تدريب النماذج.
يأتي ذلك في وقت تتزايد فيه المخاوف داخل المؤسسات الحكومية بشأن استخدام أدوات الذكاء الاصطناعي السحابية.
فقد أعلن قسم تقنية المعلومات في البرلمان الأوروبي هذا الأسبوع حظر ميزات الذكاء الاصطناعي المدمجة على أجهزة العمل الخاصة بالنواب، تحسباً لاحتمال رفع مراسلات سرية إلى السحابة.
وتسلّط الواقعة الضوء على التحديات التقنية والتنظيمية التي تواجهها الشركات الكبرى في دمج الذكاء الاصطناعي ضمن أدوات العمل اليومية، خصوصاً في ما يتعلق بالامتثال لقواعد حماية البيانات والخصوصية داخل المؤسسات الحساسة.