الإثنين 11 أغسطس 2025 أبوظبي الإمارات
مواقيت الصلاة
اقتصاد

قطاع التكنولوجيا يستوعب ببطء «التمييز العنصري» للذكاء الصناعي

قطاع التكنولوجيا يستوعب ببطء «التمييز العنصري» للذكاء الصناعي
1 سبتمبر 2019 00:11

باريس (أ ف ب)

هل الذكاء الصناعي مبرمج بطريقة عنصرية أو تمييزية ضد النساء؟ هذا السؤال مرده إلى النتائج المتحيزة التي تعطيها الأجهزة العاملة بهذه التقنية من خلال نسخ ميول بشرية، غير أن الشركات العاملة في هذه التكنولوجيا الحديثة بدأت تدرك هذا المنحى السلبي مع محاولات لتصحيح الوضع.
وتقول سلوى توكو رئيسة المجلس الوطني للتقنيات الرقمية في فرنسا إن «الخوارزميات ليست سوى تتابع أرقام لذا من غير الممكن تحميلها أي مسؤولية، المشكلة مصدرها بشري وإذا لم نتحلّ باليقظة، يمكن أن نطوّر خوارزميات تنطوي على تمييز».
وتشير إلى أن في هذا الأمر «تحديا متصلا بالمجتمع وبدولة القانون». وتطرقت منظمة التنمية والتعاون في الميدان الاقتصادي في تقرير أصدرته في يونيو الماضي إلى «مخاطر إسقاط اتجاهات من العالم التماثلي إلى العالم الرقمي»، مشجعة على استحداث بيئة سليمة للنفاذ إلى البيانات.
ويستند الذكاء الصناعي إلى تقنيات تلقين آلي قائمة على بيانات يُدخلها المطوّر لتقوم الآلة بتحليلها. وإذا ما كانت هذه المادة الأولية تنطوي على انحياز، فستكون النتيجة مغلوطة حتما.
ويقول جيروم بيرانجيه مؤسس مجموعة «أديل» المكونة من خبراء من مجالات متعددة مهمتها تقويم الخوارزميات من الناحية الأخلاقية «جزء من الذكاء الصناعي لا يزال غبيا وشريرا من دون ضمير اصطناعي».
تكرار الأخطاء
من تطوير الخوارزميات وإقامة قاعدة بيانات وصولا إلى القرارات النهائية للآلة، تؤثر الصور النمطية والاتجاهات البشرية على النتيجة التي يُنظر إليها في كثير من الأحيان خطأً على أنها من الحلول المعلوماتية الثابتة. وتوضح آن لور تيولان المتخصصة في الذكاء الصناعي لدى مجموعة «كابجيميني» الفرنسية للخدمات المعلوماتية «عدد الرجال أكبر من النساء بين العاملين على تطوير التقنيات الجديدة، هذا واقع إحصائي. إذا ما أوجدنا خوارزميات انطلاقا من هذه البيانات من دون أي تصحيح، سنحصل على برنامج متحيز».
في القطاع المصرفي على سبيل المثال، يمكن للخوارزميات أن تدرس ملفات وتقترح مبالغ لقروض. لكن في حال كانت قاعدة البيانات المستخدمة في إعداد هذه المنظومات الحسابية تلحظ أن النساء يستلفن أموالا بدرجة أقل من الرجال، ستعيد الخوارزميات تظهير هذا الوضع كما هو.
وفي الولايات المتحدة، درس موقع «بروبابليكا» المتخصص في وسائل الإعلام «التقييمات المرتبطة بمخاطر تكرار الجرائم» المعدّة قبل بضع سنوات لمنحرفين عن القانون من جانب خوارزمية في ولاية فلوريدا، مع البحث عمّن أدينوا مجددا في وقت لاحق بغية التحقق من دقة التوقعات. وكانت أخطاء التقدير لناحية خطر معاودة ارتكاب الجرائم أكبر مرتين حيال الأميركيين السود مقارنة مع باقي الفئات.

حلول ممكنة
وتقول تيولان «في كل مرة نريد استخدام الذكاء الصناعي لحل مسألة، يجب النظر في ما إذا كان هناك انحياز بشري في القضية من شأنه أن يظهر في البيانات».
ويوضح ريجيس شاتولييه المكلف الدراسات في قسم الابتكار في هيئة حماية البيانات الفرنسية «جرى الاكتفاء في السنتين الماضيتين بتشخيص الوضع. الآن بلغنا مرحلة بات من المثير للاهتمام فيها بأن نرى ما بدأ الأطراف المعنيون فعله» لمعالجة الوضع.
وتحاول مبادرات عدة الحد من مواضع التحيز هذه، بما يشمل على سبيل المثال مجموعات مراقبة الخوارزميات وقواعد البيانات كـ«أديل»، أو أدوات لتصحيح قواعد البيانات بهدف إعادة التوازن لتمثيل الأقليات.
وفي فرنسا، دعا تقرير لعالم الرياضيات والنائب سيدريك فياني العام الماضي إلى استحداث «هيئة خبراء عامين محلفين». كما أن هيئة حماية البيانات الفرنسية أعلنت عزمها إقامة «منصة وطنية للتدقيق بالخوارزميات».
وتتناول العلاجات الأساسية لتفادي تكرار هذه الأخطاء خصوصا مسألة التنوع بما يشمل إدماج عدد أكبر من النساء وإعادة التوازن في التنوع الإثني في قطاع التكنولوجيا وتشكيل فرق من مجالات مختلفة في داخل الشركات بدل إيكال مهمة تطوير الذكاء الصناعي حصرا إلى مهندسين.
ومن الأفضل استباق مواضع التحيز المحتملة قبل حصول إخفاقات خصوصا في القرارات التي تؤثر على يوميات المستخدمين. وهذه الحاجة تبدو أكبر برأي جيروم بيرانجيه نظرا إلى أن الذكاء الصناعي في المستقبل سيكون بلا تدخل بشري.

جميع الحقوق محفوظة لمركز الاتحاد للأخبار 2025©