تحيزات على أساس الجنس تقتحم الذكاء الاصطناعي
حذّرت منظمة اليونسكو خلال دراسة نشرتها، مؤخرا،في إطار اليوم العالمي للمرأة، من أن النماذج اللغوية الكبيرة لشركتي “ميتا” و”أوبن ايه آي” والتي تشكل أساساً لأدوات الذكاء الاصطناعي التوليدي الخاصة بهما، تعمل على نقل تحيزات على أساس الجنس.
وأشارت المنظمة الأممية إلى أنّ نموذجي “جي بي تي 2” و “جي بي تي 3,5” من “أوبن ايه آي” وبرنامج “لاما 2” من “ميتا”، تبدي “بشكل قاطع تحيّزاً ضد المرأة”.
واستخلصت الدراسة التي أنجزت بين غشت 2023 ومارس 2024، أن هذه النماذج اللغوية أكثر ميلا إلى ربط الأسماء المؤنثة بكلمات مثل “منزل” و”عائلة” و”أطفال”، في حين أن الأسماء المذكرة أكثر ارتباطا بكلمات “تجارة” و”راتب” و”وظيفة”.
وطلب الباحثون من هذه الأدوات كتابة قصص عن أشخاص من أصول وأجناس مختلفة، لتُظهر النتائج أن القصص المتعلقة بـ”الأشخاص المتحدرين من الأقليات أو النساء كانت في معظم الأحيان أكثر تكرارا وتستند إلى صور نمطية”.
وقُدِّمت المرأة الإنجليزية في ما لا يقل عن 30 في المئةمن النصوص على أنها بائعة هوى أو عارضة أزياء أو نادلة، فيما عُرِض الرجل الإنجليزي كمدرّس أو سائق أو موظف مصرف.
وفي هذا الصدد، أشار مساعد المدير العام لليونسكو لشؤون الاتصالات والمعلومات، توفيق الجلاصي، إلى أن “التمييز في العالم الحقيقي لا ينعكس في المجال الرقمي فحسب، بل يتصاعد فيه أيضا”.
من جهتها، أكدت المتخصصة في السياسات الرقمية والتحول الرقمي في اليونسكو، ليونا فيرداديرو، أن هذه الشركات “تفشل في تمثيل كل مستخدميها”.
أما المديرة العامة لليونسكو، أودري أزولاي، فأبرزت، في بيان، أنه مع الاستخدام المتزايد لتطبيقات الذكاء الاصطناعي من عامة الناس والشركات، يصبح لديها “القدرة على تشكيل تصوّر لملايين الأشخاص”، مضيفة أن وجود أدنى قدر من التحيز الجنسي في محتواها (التطبيقات) يمكن أن يزيد بشكل كبير من عدم المساواة في العالم الحقيقي”.
ولمكافحة هذه التحيزات، أوصت اليونسكو الشركات العاملة في هذا القطاع بأن تعتمد التنويع أكثر ضمن فرقها من المهندسين، وزيادة عدد النساء تحديداً.
وأشارت إلى أنّ النساء يمثلن فقط 22 في المئة من أعضاء الفرق العاملة في مجال الذكاء الاصطناعي على مستوى العالم، بحسب المنتدى الاقتصادي العالمي.
ودعت المنظمة الأممية الحكومات إلى إقرار مزيد من القوانين لاعتماد “ذكاء اصطناعي يستند إلى معايير أخلاقية”.