متاهة الذكاء الاصطناعي: كيف تتعلم الآلة العنصرية والتحيُّز من البشر؟
موقع للعلم
2022-05-08 06:41
بقلم دعاء الفولي
حين كانت جوي بولامويني لا تزال طالبة دراسات عُليا في مختبر معهد ماساتشوستس للتكنولوجيا، اكتشفت بالصدفة أن برنامج التعرف على الوجوه لا يقرأ ملامحها، ظنت وقتها أن الأمر مجرد خطأ آلي، أعادت الكرَّة فلم يتغير شيء، جرّب زملاؤها في المعمل الأمر ذاته، والعجيب أن البرنامج قرأ وجوههم بسهولة، أحضرت الشابة قناعًا أبيض اللون ووضعته على وجهها فتعرّفت عليها الآلة على الفور.
وعلى الرغم من بساطة التجربة، إلا أنها غيرت كل شيء بالنسبة لعالِمة الكمبيوتر الأمريكية ذات الأصول الغانية؛ إذ بات هدفها بحث مدى تحيُّز الذكاء الاصطناعي حول العالم تجاه الأعراق المختلفة، وركزت على منصات وبرامج التعرُّف على الوجه، وأنشأت "رابطة العدالة الخوارزمية" التي تسعى منذ 2017 إلى دمج أكبر قدر من الوجوه المختلفة في قواعد البيانات وضمان عمل تلك البرامج بصورة دقيقة لا تختلط فيها صورة امرأة برجل لمجرد أنها سوداء البشرة.
عالِمة الكمبيوتر الأمريكية ذات الأصول الغانية جوي بولامويني تكشف تحيُّز الذكاء الاصطناعي حول العالم تجاه الأعراق المختلفة، تلخص العبارات البسيطة التي تتصدر الصفحة الرئيسية للموقع تلك الحالة الجدلية التي يثيرها الذكاء الاصطناعي قائلةً: تُستخدم أنظمة الذكاء الاصطناعي في أمور كثيرة من أوجه حياتنا اليومية، وفي حين أن تلك الاستخدامات تبشر بالخير، إلا أنها يمكن أن تضر الأشخاص المستضعفين والمهمشين، وتهدد الحقوق المدنية، ويمكن لأنظمة الذكاء الاصطناعي غير الخاضعة للرقابة، وغير المنظمة، وفي بعض الأحيان غير المرغوب فيها أن تضخم العنصرية والتمييز على أساس الجنس وأشكال أخرى من التمييز.
لقد باتت تقنيات الذكاء الاصطناعي تتحكم في أغلب معاملات البشر، غير أنه كلما اتسعت رقعة استخدامها، تزايدت المخاوف تجاهها؛ ما جعل بعض الباحثين والمطورين يركزون على الوجه الآخر لتلك الخوارزميات، وكيف باتت تتحيز تجاه البعض وسط تحذيرات من ألا يتوقف الأمر فقط عند التعرف على الوجه بشكل خطأ عبر منصةٍ ما؛ إذ إن قواعد البيانات متصلة بعضها ببعض، وربما يؤدي هذا إلى اتهام شخص بجريمةٍ لم يرتكبها لأنه يُشبه شخصًا آخر.
ثلاثة أنواع من الذكاء الاصطناعي
يقول إبراهيم المسلًّم -مستشار البحث والابتكار في الشركة السعودية لتقنية المعلومات- في تصريحات لـ"للعلم": يجب في البداية أن نفرق بين ثلاثة أنواع من الذكاء الاصطناعي: أولًا الذكاء الاصطناعي المحدود أو الضعيف وهو الموجود حاليًّا، والذي يُحاكي وظائف محدودة في المخ، كأن يتم تطوير نظام لقيادة السيارات ذاتيًّا، ولكن له مهمات محددة جدًّا، فمثلًا لا يمكنه قيادة دبابات، ثم تأتي المرحلة الأعلى وهي الذكاء الاصطناعي العام الذي يحاول محاكاة جميع وظائف المخ، وهو ما زال مثار أبحاث علمية عديدة تتطلع لمعرفة أين يمكنه الوصول، وأخيرًا هناك الذكاء الاصطناعي الخارق، الذي يتفوق على قدرات البشر، وهو اليوم يعتبر مجالًا فلسفيًّا تنحصر استخداماته في الخيال العلمي.
ولكن حتى الذكاء الاصطناعي المُحدد تطور مع الوقت، فبعدما كان قائمًا على إدخال البيانات وقواعد العمل ليتولى استنتاج الأجوبة، أصبح المطورون الآن يمدونه بالأجوبة والبيانات وهو يتعلم القواعد بطرقه الخاصة ويطورها ويفرضها على المستخدمين، كما يحدث مثلًا في برامج التعرف على الوجوه، ما أدى إلى وجود حملات عالمية ضد التقنية بحد ذاتها.
ففي يناير 2021، أطلقت منظمة العفو الدولية حملةً لوقف تقنية التعرُّف على الوجوه بدايةً من الولايات المتحدة الأمريكية، إذ اعتبرتها المنظمة "شكلًا من أشكال المراقبة الجماعية التي تنتهك حق الإنسان في الخصوصية"، كما تسمح للشرطة الأمريكية بإساءة استخدام التقنية تجاه المواطنين من أعراق مختلفة في البلاد، خاصةً السود، ومعاملتهم دائمًا كمشتبه بهم.
يضرب المُسلًّم -الذي عمل باحثًا زائرًا بجامعة ستانفورد- المثَلَ بفكرة بسيطة قائلًا: المشكلة الحقيقية في البيانات، فهي المنحازة وليست التقنية، ويبدو الأمر كأن البشر يعلِّمون التقنية أن تكون عنصرية، فإذا كان ثمة قسم علمي بإحدى الكليات يتم ملؤه ببيانات للرجال فقط أو تجري فلترة المتقدمين وفق الجنس، ويتم رفض النساء معظم الوقت، فهو يستنتج من البيانات السابقة أن النساء لا يعملن بذلك القسم، ولذا إذا تقدمت إحداهن فبنسبة كبيرة سيتم رفضها أيضًا، وكذلك الحال مع مؤشر البحث جوجل، فإذا كتبنا كلمة لاعب –على سبيل المثال- فإن أغلب الصور ستكون للاعبي كرة القدم من الرجال فقط، دون ظهور أي صور تتعلق بالألعاب الأخرى أو النساء.
الصندوق الأسود
في عام 2019، نشر "المُسلَّم" تقريرًا بحثيًّا تابعًا لمعهد بحوث الاتصالات وتقنية المعلومات بالمملكة العربية السعودية بمدينة الملك عبد العزيز للعلوم والتقنية، ناقش فيه مخاطر الذكاء الاصطناعي الضعيف أو المُحدد في المستقبل القريب، وما هي الحلول التشريعية للتعامل معها، وركز التقرير على عدة محاور خاصة بالتقنية، بدايةً من بناء برمجيات الذكاء الاصطناعي وحتى تطبيقه، وطرح التقرير عدة مشكلات منها "الصندوق الأسود" الخاص بالذكاء الاصطناعي، فرغم أن المصممين يستطيعون معرفة البيانات والمُعطيات التي يُمَد التطبيق بها، "لكنهم لا يعرفون ما يحدث بين العمليتين تحديدًا.. فربما يكون النظام قد تعلم نمطًا لا علاقة له بالمشكلة الأساسية فاعتمد على معطيات فارقة، لكنها غير دقيقة في استنتاج التوصيات والنتائج"، وفق "المُسلَّم".
ويضرب التقرير مثلًا بنظام التعرُّف على احتمالية الإصابة بالسرطان من صور الأشعة، فرغم أنه يؤول إلى دقة مرتفعة غالبًا، لكنه قد يعتمد على عوامل ليست لها علاقة بموضوع الفحص والتحليل، كعامل الوقت في إدخال الصور، كأن يتم إدخال صور المرضى عادةً في الرابعة مساءً، بينما تدخل صور الأصحاء في الثامنة مساءً مثلًا، فقد تأخذ التقنية ذلك العامل كمؤثر رئيسي في التصنيف، في حين أن الأمر ليس كذلك.
تحيز عرقي
في دراسة أخرى، أجراها فريق بحثي بجامعة أوتونوما الإسبانية في مدريد، عمل الفريق على تحليل بيانات 3 قواعد معلوماتية عامة للتعرف على الوجوه، تحوي تقريبًا 64 ألف هوية ومليون ونصف مليون صورة لمواطنين من أعراق مختلفة، وجدت الدراسة أن هناك نسبة تحيُّز كبيرة تجاه بعض الأعراق والأجناس، وهذا يعني أن النتائج الإيجابية الخطأ تزداد احتمالية حدوثها بنسبة 200٪ لبعض المجموعات الديموغرافية أكثر من غيرها عند استخدام نماذج الوجوه الشائعة التي تم تقييمها في تلك الدراسة.
يوضح "إيجناسيو سيرنا" -باحث الدكتوراة في كلية الهندسة ومؤلف الدراسة- أن الاهتمام بخوارزميات تقنية التعرف على الوجوه كان مع بداية الألفية، مضيفًا: وقتها كان العلماء يدركون أن هناك متغيرات أخرى قد تؤدي إلى عدم دقة التقنية، مثل دقة الصورة وتعبيرات الوجه والعمر وغيرها، ولكن ما يثير القلق الآن أن تلك الخوارزميات تطورت كثيرًا وباتت تعمل بصورة قائمة على التعلُّم.
يقول "سيرنا" في تصريحات لـ"للعلم": هناك طرق عديدة لقياس مدى خطأ الخوارزميات، أشهرها معدل المطابقة الخطأ الموجود في تقنيات التعرف على الوجوه، ويقيس مدى وجود الدقة أو عدمها، ما قد يؤدي إلى نتائج متحيزة تجاه بعض الأعراق.
ويضرب الباحث مثلًا بتقنية التعرف على الوجوه في المطارات قائلًا: يُفترض أن هذه التقنية تُساوي بين الجميع، لكننا نجد مثلًا أن السود هم الأقرب إلى حدوث الخلط بينهم وبين أشخاص آخرين أو مجرمين بسبب عدم دقة المطابقة، وهنا تظهر خطورة التحيُّز، والأمر الآخر الذي يجعل التقنية متحيزةً هو عدم إلمام قواعد البيانات بجميع الأعراق التي قد يصل عددها حول العالم إلى 5000 عرق، والأهم أن بعض تلك الأعراق ليس موجودًا عبر الإنترنت ومهمش في الحياة الواقعية، ما يجعل تمثيله أصعب كثيرًا، لكن الأمر لا يتعلق فقط بالأعراق المهمشة، فبالرغم من كون الآسيويين يمثلون 35% من مجموع سكان العالم، لكن نسبتهم لا تتعدى 9% في قواعد بيانات الوجوه هذه.
وخلال تحليل آلاف البيانات، لم يتوصل "سيرنا" إلى سبب واضح لذلك الانحياز، مضيفًا: لقد فاجأني ذلك الأمر.. فمن البدهي أن هناك سلسلةً من العناصر التي تؤدي إلى تلك النتائج، مثل النقص في التمثيل في قواعد البيانات، واختلاف خصائص الوجوه البشرية، والعوامل الأخرى كالضوء وخصائص الكاميرا ومكانها وغير ذلك، ولكننا لم نستطع تحديد السبب بدقة.
استعمارية الذكاء الاصطناعي
مد الخطوط على استقامتها ربما يقودنا إلى ما هو أبعد من "التحيز"؛ ففي مطلع يناير الماضي نُشر كتاب بعنوان "الذكاء الاصطناعي والاستياء تجاهه" عبر دورية سبرينجر، شاركت الباحثة لورا شيلينز فيه بفصل يطرح وجهات نظر السيدات السوداوات حول هذه التكنولوجيا، وكيف تُصدر القمع وكيف يحاولن مقاومتها.
كما ناقشت الباحثة بالمركز الدولي لأخلاقيات العلوم بجامعة "إبرهارد كارل" الألمانية عدة أوجه لذلك التمييز تجاه النساء الملونات في الذكاء الاصطناعي، بدايةً من الشق الاقتصادي المتعلق باختيارهن في الوظائف ومرورًا بالجانب السياسي والثقافي.
من جانبها، تشير "شيلينز" في تصريحات لـ"للعلم" إلى أنها استشهدت في الشق الاقتصادي بدراسات عديدة تُحلل تعامل الذكاء الاصطناعي وقواعد البيانات مع السيدات السوداوات في التوظيف، مثل المنصات التي تعمل على ترشيح عُمال من مجالات مختلفة لطالبي الخدمات، أبرزها موقع "تاسك رابت"، الذي تناول دراسة نُشرت عام 2017 تفيد أن خوارزمياته تضع العاملات ذوات البشرة الداكنة في مرتبة أدنى من ترشيحات المجموعات الأخرى، فيعتبر المستخدمون أنهن أقل خبرةً أو مهارة، ويتم إعطاؤهن تقييمات أقل.
أما في الجانب السياسي، فتطرح "شيلينز" إحدى الدراسات المنشورة عام 2018، والتي تناولت تقنية التعرف على الوجه التي تستخدمها جهات إنفاذ القانون لتحديد المشتبه بهم؛ إذ وجدت أن الوجوه ذات البشرة الأقل دُكنةً ووجوه الذكور يتم التعرف عليها أو تصنيفها بشكل أفضل من الوجوه الداكنة والأنثوية، وكان أداء الخوارزميات التي فحصت في الدراسة أسوأ على النساء السوداوات وبُنيات البشرة، وغالبًا ما يتم تصنيفهن خطأً على أنهن ذكور.
تقول "شيلينز": إذا نظرنا إلى الجانب الذي يتعلق بالعمل الشرطي، فقد يؤدي التحيز الخوارزمي إلى اعتقال النساء السوداوات بشكل خطأ وإدانتهن في كثير من الأحيان، تُضيف "شيلينز": خلال عملي على الدكتوراة، فوجئت بممارسات تمييزية تجاه النساء السوداوات لم أتوقع وجودها، فقد تحدثت عالِمة الاجتماع وينيفريد بوستر، التي تُركز على قضايا المرأة والعُمال، في أحد كتبها عن الاقتصاد الرقمي وكيف يتم توظيف عُمال مقابل أجور منخفضة داخل مراكز الاتصال في بعض مناطق أمريكا اللاتينية وآسيا وإفريقيا ولكنهم يخدمون العملاء الأمريكيين، ويُطلب من العمال اختيار اسم مزيف يبدو باللون الأبيض وتزييف لهجة إنجليزية تبدو بيضاء لإرضاء العملاء الأمريكيين وإخفاء حقيقة وجودهم خارج الولايات المتحدة، "وهذا ليس عنصريًّا فحسب، بل هو شكل من أشكال الاستعمار من قِبل صناعة التكنولوجيا".
مشكلات متشعبة
ولا تتوقف مشكلات تحيُّز الذكاء الاصطناعي عند تلك العتبات وحدها، بل تتشعب إلى ما هو أبعد من ذلك، يقول "المُسلم": تُعد مشكلة تسميم البيانات إحدى أكثر المشكلات الخاصة بالذكاء الاصطناعي خطرًا، فإذا كان هناك نظام اصطناعي يعتمد على تحليل آراء مستخدمي وسائل التواصل الاجتماعي عبر وسم في مرشح معين، فيمكن أن يتم تجنيد لجان تخترق ذلك الوسم وتأخذ التحليل في الجهة التي يريدها المرشح أو العكس.
مثال آخر يستخدمه تقرير المُسلم المنشور عام 2019، كدليل على الانحياز، تحت مُسمى "التحيز في اختيار العينة"، فحتى إن كانت البيانات صحيحة ولا يوجد تحيُّز في إدخالها، فربما تكون هناك مشكلات في تجميعها، فهناك تطبيق على الهواتف الذكية يجمع البيانات من سائقي السيارات للمساهمة في صيانة الطرق، فخلال مرور السائق فوق حفرة يرسل التطبيق بياناتها إلى الجهات المعنية لإصلاحها، لكن إذا اعتمدت البيانات على المواطنين الذين يملكون هواتف ذكية، فيعني ذلك تهميش المناطق التي يملك سكانها عددًا أقل من الأجهزة الذكية، كالأحياء الفقيرة أو التي يقطنها مسنون بصورة أكبر.
محاولات واعدة
التحيز داخل خوازرميات الذكاء الاصطناعي تجاه أصحاب الإعاقات المختلفة ليس مقصودًا، لكن ذلك لا ينفي إهمالهم، ذلك ما يحاول ثاقب شيخ -المهندس بشركة مايكروسوفت- فعله؛ ففي عام 2017 طوّر "شيخ" برنامجًا ذكيًّا لذوي الإعاقة البصرية باسم Seeing AI يهدف إلى مساعدة المكفوفين على إدراك العالم من حولهم، وتحديد أماكن الأشياء وكيف تعمل.
يقول "شيخ" في تصريحات لـ"للعلم": يُشبه الأمر وجود صديق للمكفوفين يساعدهم في شؤونهم اليومية، لقد عانيت من كفّ البصر، ومنذ طفولتي تمنّيت لو كان معي شيء يصف العالم من حولي، لذا حينما واتتني الفرصة للعمل على التطبيق، لم أفوِّتها، تقوم التقنية على تدريب الخوارزميات للتعرف على الأشياء المحيطة بالشخص من خلال الكاميرا والصوت، ورغم الطموح الكبير الذي وضعه "شيخ" وشركاؤه المطورون، ثمة نقص كبير في البيانات المتعلقة بذوي الإعاقة البصرية، فقبل إطلاق البرنامج، ظلوا يعملون عامًا ونصف لاقتراح طرق لجعل أنظمة الذكاء الاصطناعي أكثر شمولًا للأشخاص ذوي الإعاقة، ويرجع الأمر لتدريب تلك الأنظمة على مساعدة ذوي الإعاقة، فمثلًا إذا لم يتم تعريض خوارزميات اكتشاف المشاة في سيارة ذاتية القيادة لأمثلة أشخاص يستخدمون الكراسي المتحركة أو يختلف وضعهم أو مشيتهم بسبب تقدم العمر، فقد لا يتم تحديدهم بشكل صحيح باعتبارهم أشخاصًا ينبغي التوقف أمامهم، وقد لا تتمكن الخوارزميات التي تقرأ الكتابة اليدوية من التعامل مع أمثلة من أشخاص مصابين بمرض باركنسون، وقد يتم الخلط بين أنظمة التعرف على الإيماءات من قِبل الأشخاص الذين بُترت أطرافهم أو بأشكال مختلفة من الجسم.
ورغم أن الطريق ما زال طويلًا، يفخر مُهندس مايكروسوفت بالذين وصل إليهم البرنامج وساعدهم على تخطِّي عقبات متفاوتة، مضيفًا: نحاول إدارة حوار دائم مع المكفوفين في المجتمعات المختلفة، وأن نعرف متطلباتهم وما يحتاجون إليه في حياتهم اليومية، وفي المقابل نحاول تدريب أنظمة الذكاء وملأَها ببيانات أكبر قد تساعد أصحاب الإعاقات البصرية.
مسؤولية جماعية
ثمة مسئولية مشتركة بين الجميع، ففي الوقت الذي تسعى فيه منظمة مثل "رابطة العدالة الخورازمية" ومؤسسات أخرى لكشف أوجه الانحياز، يسرد الباحثون مقترحات قد تُسهم في تقليل فجوة التمييز، كما فعل "سيرنا" في دراسته التي طرحت فكرة استخدام تقنية sensitive loss التي تعمل على تدريب الخوارزميات الحديثة لتحسين أدائها وتقليل نسبة التمييز دون الحاجة إلى إعادة هيكلة الخوارزميات من جديد، وفق قوله.
يضيف "سيرنا": طبق الفريق تلك التقنية على قواعد البيانات الثلاث التي اعتمدت عليها الدراسة، مما أظهر تحسنًا في كلٍّ من عوامل الدقة والإنصاف بشكل عام، وتُظهر نتائجنا كيفية دمج قواعد التعلم المدرك للتمييز لتقليل التحيُّز في نماذج التعلُّم العميق بشكل كبير.
كما أفرد تقرير "المُسلم" عدة توصيات، "منها زيادة وعي المطورين والباحثين وزيادة وعي المستخدم، وأيضًا أن يكون حق التفسير مكفولًا حينما يتم السؤال عن نتائج التقنية مهما بلغت دقتها، وأخيرًا دعم الأبحاث التي تمكِّننا من فهم خوارزميات الذكاء الاصطناعي".
ورغم المشكلات التي تناولها " المُسلم" في تقريره، غير أن "ثمة اعترافًا في السنوات الأخيرة بوجود انحياز وعنصرية في بعض تقنيات الذكاء الاصطناعي، وهذا أمرٌ حميدٌ في حد ذاته"، إذ يسمح ذلك بوجود محاولات لتعديل الأزمات؛ "فعلى سبيل المثال تضمَّن الدليل القياسي البريطاني للتصميم الأخلاقي وتطبيق الروبوتات والأنظمة الآلية توصيةً بوجوب تصميم الروبوتات والأنظمة الآلية بطريقة تمنع التحكم غير المناسب في اختيار الإنسان، بحيث تبقى السلطة النهائية مع البشر".
أما على صعيد المؤسسات الأممية، فقد أصدرت منظمة اليونسكو في عام 2019 وثيقةً تقنينية ضمت دراسة أولية عن أخلاقيات الذكاء الاصطناعي، أجراها فريق عمل تابع للجنة العالمية لأخلاقيات المعارف العلمية والتكنولوجية.
شملت الوثيقة توصيات مختلفة، منها ضرورة التوزيع العادل لتقنيات الذكاء الاصطناعي بين الشعوب؛ لضمان تمثيل الجميع، وتحدثت الوثيقة أيضًا عن ضرورة دمج المهندسين والتقنيين في مسألة الأخلاقيات من خلال تدريس المادة بصورة أوسع في الكليات والمعاهد والتركيز على مصطلح "التصميم المحايد أخلاقيًّا"، الذي يشير إلى عمليات تصميم تضع في اعتبارها القيم الإنسانية بشكل صريح.
كما أوصت الوثيقة بـ"أن يكون الذكاء الاصطناعي قابلًا للتوضيح، وشرح طريقة عمله بشفافية"، ولم تغفل الوثيقة الحديث عن دور الحكومات التي عليها إصدار تقارير دورية بشأن عمل الذكاء الاصطناعي في بلدانها، خاصةً في أعمال الشرطة والمخابرات والأمن.