من الذي يجب أن يقرر كيف تقرر الخوارزميات؟

بروجيكت سنديكيت

2019-04-21 07:04

مارك إسبوزيتو/تيرينس تسي/جوشوا إنتسمنجر/أوريلي جان

كمبريدج ـ في السنوات القليلة الماضية، خلصت دراسة "الجهاز الأخلاقي" التي يستضيفها "معهد ماساتشوستس للتكنولوجيا" إلى التفضيلات العامة حول الطريقة التي ينبغي أن تتصرف بها تطبيقات الذكاء الاصطناعي في بيئات مختلفة. وقد أظهرت إحدى البيانات أنه عندما تصادف سيارة ذاتية القيادة (AV) سيناريو حياة أو موت، يعتمد رأي المرء حول استجابتها على مكان الشخص، وما يعرفه عن المشاة أو الركاب المعنيين.

على سبيل المثال، في نسخة السيارات الذاتية القيادة المستوحاة من "مشاكل العربات" الكلاسيكية، قد يفضل البعض أن تصطدم السيارة بقاتل مُدان بدلا من إلحاق الأذى بالآخرين، أو أن تصطدم بمواطن بالغ بدلا من طفل. لا يزال البعض الآخر يجادل بأن السيارة الذاتية القيادة يجب أن تجازف لتجنب التمييز القائم على البيانات.

بشكل عام، يتم رفع هذه المعضلات إلى المحاكم أو إلى التحقيقات التي تجريها الشرطة بعد وقوعها. ولكن في حالة السيارات ذاتية القيادة، سيتم اتخاذ الخيارات في غضون ثواني، وهو وقت غير كاف للتوصل إلى قرار صائب. ما يهم ليس ما نعرفه، ولكن ما تعرفه السيارة. والسؤال المطروح الآن هو: ما هي المعلومات التي ينبغي أن تعرفها السيارة الذاتية القيادة حول الأشخاص من حولها. وهل يجب السماح للشركات بتقديم أنظمة أخلاقية مختلفة سعياً وراء ميزة تنافسية؟

لننظر إلى السيناريو التالي: تتمتع سيارة من الصين بمعايير صنع مختلفة عن سيارة من الولايات المتحدة، ولكن يتم شحنها إلى الولايات المتحدة واستخدامها هناك. تتجه هذه السيارة الصينية الصنع والسيارة الأمريكية الصنع نحو تصادم لا مفر منه. إذا كان لدى سائق السيارة الصينية تفضيلات أخلاقية مختلفة عن سائق السيارة الأمريكية، فما هو النظام الذي يجب أن يسود؟

بالإضافة إلى الاختلافات الثقافية في التفضيلات الأخلاقية، على المرء أيضًا مراعاة الاختلافات في لوائح البيانات في مختلف البلدان. على سبيل المثال، يمكن للسيارة الصينية الصنع الوصول إلى بيانات تسجيل النتائج الاجتماعية، والتي تسمح لخوارزمية صنع القرار الخاصة بها بتضمين معلومات إضافية غير متاحة لشركات صناعة السيارات الأمريكية. يمكن أن تؤدي البيانات الأكثر ثراءً إلى قرارات أفضل وأكثر اتساقًا، ولكن هل تسمح هذه الميزة لنظام ما بإلغاء نظام آخر؟

في الواقع، قبل أن تستعد السيارات ذاتية القيادة للاشتغال، سنحتاج إلى تحديد أين تقع مسؤولية اتخاذ القرارات الخوارزمية، سواء كان ذلك مع السلطات البلدية أو الحكومات الوطنية أو المؤسسات المتعددة الأطراف. والأهم من ذلك، سوف نحتاج إلى أطر جديدة تحكُم هذا التقاطع بين الأعمال والدولة. لا تكمن المشكلة في نتائج السيارات الذاتية القيادة السلبية، بل في كيفية تفاعل الشركات مع الثقافات المختلفة في تطوير ونشر خوارزميات صنع القرار.

من السهل أن تتخيل أن جميع الشركات المصنعة للسيارات ذاتية القيادة ستعلن ببساطة عن الأنظمة الأخلاقية التي تهتم بحياة السائق قبل كل شيء، أو التي تسمح للمستخدم بتعديل أطر العمل الأخلاقية الخاصة به. لمنع "مأساة المجتمع" هذه، يجب أن تكون هناك أطر لإقامة الاتصالات وتنسيق القرارات بين السيارات ذاتية القيادة. ولكن من خلال تطوير مثل هذه الأنظمة في سياقات ثقافية مختلفة، سيواجه صناع السياسة ورجال الأعمال مفاهيم ثقافية مختلفة تتعلق بالسيادة والخصوصية والاستقلالية الفردية.

هذا يفرض تحديات إضافية، لأن أنظمة الذكاء الاصطناعي لا تتساهل مع الغموض. يتطلب تصميم تطبيق الذكاء الاصطناعي من البداية خصوصية عميقة؛ بغض النظر عن النتيجة، تتبع هذه الأنظمة فقط تعليمات المرء. وهذا يعني أن الشركات والحكومات ومقدمي الخدمات الآخرين سيحتاجون إلى اتخاذ خيارات صريحة عند ترميز بروتوكولات الاستجابة للحالات المختلفة.

قبل حدوث ذلك، سيحتاج صناع السياسة إلى تحديد نطاق المساءلة الحسابية، لتحديد القرارات التي ينبغي تركها للشركات أو الأفراد. كما يجب مناقشة القرارات التي تندرج ضمن اختصاصات الدولة. ونظرا إلى أن مثل هذه الأسئلة الأخلاقية لا يمكن الإجابة عنها بسهولة، فمن غير المرجح أن يكون هناك توافق في الآراء. باستثناء الحل النهائي، سنحتاج إلى إنشاء أنظمة تسهل على الأقل التواصل بين السيارات ذاتية القيادة وتفصل في النزاعات الخوارزمية وحوادث الطرق.

نظرا إلى الحاجة إلى الخصوصية في تصميم خوارزميات صنع القرار، من المنطقي أن تكون هناك حاجة إلى هيئة دولية لوضع المعايير التي يتم بموجبها حل المعضلات الأخلاقية. إن السيارات الذاتية القيادة، بعد كل شيء، هي مجرد تطبيق واحد لصنع القرار الخوارزمي. في المستقبل، يجب إدارة معايير المساءلة الخوارزمية في العديد من المجالات.

في نهاية المطاف، فإن السؤال الذي يجب طرحه هو ما إذا كان للشركات الحق في تصميم أطر أخلاقية بديلة لاتخاذ القرارات الخوارزمية. نحن نعتقد أنهم لا يملكون الحق للقيام بذلك.

في عصر الذكاء الاصطناعي، ستصبح بعض مكونات سلاسل القيمة العالمية آلية في نهاية المطاف، وحينها لن يتم اعتبارها مجالات تسعى من خلالها الشركات لتحقيق ميزة تنافسية. يجب أن تكون عملية تحديد المساءلة الخوارزمية وفصلها أحد هذه المجالات. بطريقة أو بأخرى، سيتم اتخاذ القرارات. من الأفضل أن يحدث ذلك بطريقة موحدة وبشكل أكثر ديمقراطية.

* مارك إسبوزيتو، أستاذ إدارة الأعمال والاقتصاد مع تعيينات في كلية هولت للأعمال الدولية وجامعة هارفارد/تيرينس تسي، أستاذ في كلية ESCP Europe Business School بلندن/جوشوا إنتسمنجر باحث في Nexus FrontierTech وزميل أقدم في مركز Ecole des Ponts للسياسة والتنافسية/أوريلي جان، عالم حسابي، مؤسس In Silico Veritas، مستشار لمجموعة بوسطن الاستشارية، ومتعاون خارجي مع وزارة التعليم الفرنسية.
https://www.project-syndicate.org

...........................
* الآراء الواردة لا تعبر بالضرورة عن رأي شبكة النبأ المعلوماتية

ذات صلة

فن صناعة النسيج الاجتماعي الرصينالصراط المستقيم بين المنهج والنموذجالشرق الاوسط على موعد ساخن متجدد مع ترامبالتعداد السكاني: لبنة أساسية لبناء مستقبل العراق وتحقيق رفاهية المواطنالايدلوجيا اللّيبرالية الأمريكية والمسار الشعبوي