هل ChatGPT "منحاز جنسياً".. تجربة تفجر مفاجأة!


دبي - العربية.نت 27/04/2024 05:06 AM

من جديد يعود برنامج الذكاء الاصطناعي ChatGPT إلى الواجهة مجدداً بعد اتهامات وجهت له بالانحياز جنسياً إلى الرجال أكثر من النساء، بعد أن طلب منه إنشاء صور لأشخاص يعملون في وظائف عالية المستوى.

وفي تجربة طلب فيها من البرنامج إنشاء صور لأشخاص يعملون في وظائف عالية المستوى صمم البرنامج 99 صورة لرجال من أصل 100 اختبار.

في المقابل، عندما طلب منه ذلك لسكرتيرة، اختار امرأة مرة واحدة فقط، بحسب تقرير نشرته صحيفة "ديلي ميل" البريطانية.

ووجدت الدراسة التي أجراها موقع التمويل الشخصي Finder أنه اختار أيضاً شخصاً أبيض في كل مرة، على الرغم من عدم تحديد العرق.

فيما النتائج لا تعكس الواقع لا سيما أن واحدة من كل ثلاث شركات على مستوى العالم مملوكة من قبل النساء.

في حين أن 42% من أعضاء مجلس إدارة مؤشر فاينانشيال تايمز 100 في المملكة المتحدة كانوا من النساء.

"مليئة بالتحيز"

وحذر قادة الأعمال من أن نماذج الذكاء الاصطناعي "مليئة بالتحيز" ودعوا إلى وضع حواجز حماية أكثر صرامة لضمان أنها لا تعكس تحيزات المجتمع.

إلى ذلك أشارت التقديرات الآن إلى أن 70% من الشركات تستخدم أنظمة تتبع المتقدمين الآلية للعثور على المواهب وتوظيفها.

وأثيرت مخاوف من أنه إذا تم تدريب هذه الأنظمة بطرق مماثلة لـ ChatGPT، فقد تعاني النساء والأقليات في سوق العمل.

يشار إلى أن شركة OpenAI، المالكة لـ ChatGPT، ليست أول شركة تكنولوجية عملاقة تتعرض لانتقادات بسبب النتائج التي يبدو أنها تديم الصور النمطية القديمة.

المرأة ظهرت مرة واحدة فقط

فقد طلبت أحدث الأبحاث من 10 من أشهر مولدات الصور المجانية على ChatGPT أن يرسموا صورة لشخص نموذجي في مجموعة من الوظائف رفيعة المستوى.

واستخدمت جميع مولدات الصور التي سجلت ملايين المحادثات، برنامج OpenAI الأساسي Dall-E، ولكن تم إعطاؤها تعليمات ومعرفة فريدة من نوعها.

في أكثر من 100 اختبار، أظهر كل منها صورة رجل في كل مناسبة تقريباً فيما لم تظهر امرأة إلا مرة واحدة. وكان هذا عندما طُلب إظهار "شخص يعمل في مجال التمويل".

وعندما طُلب من كل منشئي الصور إظهار سكرتيرة، أظهرت تسع مرات من أصل 10 امرأة، ومرة واحدة فقط أظهرت رجلاً.


المصدر : alarabiya.net تاريخ النشر : 27/04/2024 05:06 AM

Min-Alakher.com ©2024®