هل تمثل التكنولوجيا حدودا جديدة للاستدامة؟
بروجيكت سنديكيت
2019-12-18 07:55
بقلم: برتراند بدري/فيليب هايم
باريس ــ تتمحور المناقشات بشأن "الاستدامة" عادة حول الالتزامات البيئية والاجتماعية التي يجب أن تلبيها الشركات، ويرجع هذا إلى أسباب مفهومة. لكن القطاع المالي بشكل خاص ينبغي له أن يفكر في بُعدين آخرين أقل وضوحا للاستدامة. تُعَد الاستدامة التنظيمية ضرورة أساسية لمواجهة الخطر الجهازي الذي يفرضه القطاع الخاص على مجتمعاتنا. بالإضافة إلى هذا، تخلف الحدود الجديدة الناشئة للاستدامة التكنولوجية تأثيرا متزايدا على نماذج واستراتيجيات الأعمال.
قد يتبادر إلى أذهان الجميع البيانات الضخمة، والروبوتات، والذكاء الاصطناعي. لكن على الرغم من الإمكانات الهائلة التي تتمتع بها هذه التكنولوجيات، فإن المؤسسات المالية تحتاج أيضا إلى فهم المخاطر، والتأثير الاجتماعي، والعواقب الأخلاقية.
في ما يتعلق بالبيانات، نجد أن الأرقام مذهلة: فقد أنشئ نحو 90% من كل البيانات في مختلف أنحاء العالم في غضون العامين الأخيرين فقط، ونحن ننتج ما يقدر بنحو 2.5 كوينتيليون (الكوينتيليون: رقم واحد أمامه 18 صفرا) بايت من البيانات كل يوم. في هذا السياق، من الضروري أن تعالج المؤسسات المالية ــ التي تُعَد الـمُنتِج والمستخدم الرئيسي للبيانات ــ القضايا التي تتعلق بإنشاء البيانات وحمايتها.
أصبحت الضوابط التنظيمية في هذا المجال أكثر صرامة، كما يوضح نظام الاتحاد الأوروبي العام لحماية البيانات. ولحسن الحظ، تواصل البنوك وشركات التأمين الاستفادة من سمعتها لكونها جديرة بالثقة. ويتلخص التحدي الذي يواجهها في احترام هذه الثقة وصيانتها على الرغم من الإغراء المتنامي المتمثل في تسييل "أصولها" من البيانات ببيعها أو استخدامها لأغراض التسويق.
من ناحية أخرى، تعمل الروبوتات على تحويل كل الصناعات وسوق العمل. تشير بعض التقديرات إلى أن ما يتراوح بين ربع إلى نصف مجموع قوة العمل في القطاع المالي يمكن أن تحل محله الروبوتات والذكاء الاصطناعي على مدار العقد المقبل. صحيح أن الدراسات التي تناولت عمال التصنيع في ألمانيا لم تجد أي دليل على أن الروبوتات تقلل من إجمالي العمالة: فرغم أن كل روبوت يلغي وظيفتين في قطاع التصنيع، فإنه يخلق وظائف إضافية في قطاع الخدمات الذي يعوض عن الخسائر بالكامل. لكن الروبوتات تؤثر على تركيبة العمالة الكلية.
الواقع أننا ربما نشهد نوبة أخرى من "التدمير الخلّاق" الذي تحدث عنه جوزيف شومبيتر. فسوف تغير الروبوتات والذكاء الاصطناعي أنماط الوظائف المعروضة، ومواقعها، والمهارات اللازمة لشغلها. ومن الأهمية بمكان إدارة هذا التأثير المربك بكل بحذر. ولهذا، ينبغي للبنوك وغيرها من المؤسسات المالية أن تركز على توقع تأثير هذه التكنولوجيات على موظفيها، وأن تستثمر في التدريب والاستشارات المهنية لمساعدتهم خلال المرحلة الانتقالية.
ربما تكون تكنولوجيات الذكاء الاصطناعي هي التحدي الأصعب الذي يواجه القطاع المالي، نظرا لما تنطوي عليه من تعقيدات وآثار أخلاقية. ورغم أن المؤسسات المالية لم تسلم من الانتقادات منذ اندلاع الأزمة المالية العالمية، فإنها كانت في حقيقة الأمر تضع الاعتبارات الأخلاقية في الحسبان لفترة طويلة. غير أننا مع الذكاء الاصطناعي ننتقل إلى مستوى آخر، حيث يتعين على الشركات أن تتوقع المخاطر الأخلاقية المحتملة وتحدد الآليات اللازمة لضمان السيطرة والمساءلة.
وهنا تبرز قضيتان رئيسيتان. الأولى تتمثل في التحيز الخوارزمي (تحيز الذكاء الاصطناعي)، الذي يحدث عندما تنتج إحدى الخوارزميات نتائج متحيزة منهجيا بسبب افتراضات خاطئة في عملية التعلم الآلي. في عام 2014، على سبيل المثال، طورت شركة أمازون أداة لتحديد مهندسي البرمجيات الذين ربما ترغب في استئجارهم، لكن الخوارزمية تضمنت تحيزات المهندسين الذكور الذين أنشأوها. ونتيجة لهذا، سرعان ما بدأ النظام يميز ضد النساء، مما دفع الشركة إلى التخلي عنه في عام 2017. وفي وقت أقرب إلى الزمن الحاضر، أطلقت شركة أبل وبنك جولدمان ساكس بطاقة ائتمان اتهمها بعض المراقين بالتمييز على أساس النوع الجنسي. فإذا تقدم زوجان يعيشان في عقار ملكيته مشتركة بينهما بإقرار ضريبي مشترك، فإن خوارزمية الصندوق الأسود لشركة أبل تعطي الزوج حدا ائتمانيا أعلى بنحو عشرين مرة من ذلك الذي تعطيه للزوجة.
قد لا يُكتَشَف تأثير التفضيلات الواعية أو غير الواعية لمنشئي الخوارزميات إلى أن يبدأ استخدامها، ويتضخم انحيازها المتأصل. لحسن الحظ أن الخوارزميات يمكن مراجعتها ومراقبتها لتجنب نتائج غير عادلة. على سبيل المثال، قد يضع موظف في بنك دون وعي جنس مقدم الطلب في الحسبان عندما يتخذ القرار بشأن قرض. ولكن باستخدام خوارزمية ما، يمكنك ببساطة استبعاد المتغير المتعلق بالنوع الجنسي وغير ذلك من العوامل المرتبطة به بشكل وثيق عند حساب النتيجة. ومن الأهمية بمكان لهذا السبب وضع الضمانات المناسبة عند تطوير النموذج.
يتعلق شاغل أخلاقي كبير آخر بالشفافية و"القابلية للتفسير" في ما يتصل بالنماذج التي تعتمد على الذكاء الاصطناعي. ولأن هذه النماذج ستستخدم على نحو متزايد في اتخاذ قرارات التوظيف، والإقراض، وربما حتى القرارات القانونية، فمن الضروري للغاية أن نتعرف على خصائصها الأساسية الحاسمة والأهمية النسبية لكل منها في عملية اتخاذ القرار. ونحن في احتياج إلى فتح الصندوق الأسود لكي نفهم العمليات، والإجراءات، والافتراضات الضمنية التي يحتوي عليها في بعض الأحيان. وسوف تدفعنا الضوابط التنظيمية أيضا على نحو متزايد في هذا الاتجاه: على سبيل المثال، يقدم نظام الاتحاد الأوروبي العام لحماية البيانات الحق للأفراد في الحصول على "معلومات مفيدة حول المنطق المعني" في عملية اتخاذ القرار الآلية التي تخلف "آثارا قانونية أو ذات صِلة على نحو مماثل".
اليوم، لا يزال لدينا من الأسئلة أكثر من الإجابات في ما يتعلق بالاستدامة التكنولوجية. وربما لا يكون في هذا بأس في الوقت الحالي، لأننا نسير داخل أرض مجهولة بعناية وحذر. فقد استغرق تطوير نهج أكثر شمولا في التعامل مع المناخ والبيئة سنوات عديدة، وربما لا يزال أمامنا طريق طويل نقطعه. ويتعين علينا الآن أن نبدأ رحلة مماثلة نحو الاستدامة التكنولوجية وأن نسأل أنفسنا عن مدى حسن تجهيزنا لمناقشة الآثار العملية والاجتماعية والأخلاقية المترتبة على ظهور أدوات رقمية جديدة وقوية.
لأن هذه التساؤلات تمس الأنثروبولوجيا والفلسفة بقدر ما تتعلق بالاقتصاد والسياسية، فيتعين علينا أن نستجيب لها بالاستعانة بحوار مفتوح وشامل، وأطر متعددة التخصصات، وعمل جماعي جيد التنسيق. وينبغي لهذا الجهد المشترك أن يجمع بين القطاعين العام والخاص، فضلا عن المستهلكين، والموظفين، والمستثمرين.
على الرغم من المخاطر المصاحبة للتقدم التكنولوجي، فإنه في نهاية المطاف يعمل على تحسين حياة الجميع. ومن خلال إدارة هذا التقدم بكل أشكاله، يصبح بوسعنا أن نضمن اتحاد الإنسانية والتكنولوجيا الرقمية لإنتاج مستقبل أكثر استدامة.