نشرت منظمة اليونسكو دراسة حذرت فيها من التحيزات على أساس الجنس في أدوات الذكاء الاصطناعي التوليدي، إذ أكدت أن نموذجي «جي بي تي 2» و «جي بي تي 3،5» من «أوبن إيه آي» وبرنامج «لاما 2» من «ميتا»، تُظهر «بشكل قاطع تحيزاً ضد المرأة».
وأظهرت الدراسة التي أجريت بين أغسطس 2023 ومارس 2024، أن النماذج اللغوية لشركتي «ميتا» و«أوبن إيه آي» أكثر ميلاً إلى ربط الأسماء المؤنثة بكلمات مثل «منزل» و«عائلة» و«أطفال»، في حين أن الأسماء المذكرة أكثر ارتباطاً بكلمات «تجارة» و«راتب» و«وظيفة».
وطلب الباحثون من هذه الأدوات كتابة قصص عن أشخاص من أصول وأجناس مختلفة.
وأظهرت النتائج أن القصص المتعلقة بـ«الأشخاص المتحدرين من الأقليات أو النساء كانت في معظم الأحيان أكثر تكراراً وتستند إلى صور نمطية».
ولمكافحة هذه التحيزات، أوصت اليونسكو الشركات العاملة في هذا القطاع بأن تعتمد التنويع أكثر ضمن فرقها من المهندسين، وزيادة عدد النساء تحديداً.
وفي هذا الإطار، قالت المديرة العامة لليونسكو «أودري أزولاي»: مع الاستخدام المتزايد لتطبيقات الذكاء الاصطناعي هذه من عامة الناس والشركات، يصبح لديها القدرة على تشكيل تصور لملايين الأشخاص، إن وجود أدنى قدر من التحيز الجنسي في محتواها يمكن أن يزيد بشكل كبير من عدم المساواة في العالم الحقيقي.