تسخير الذكاء الاصطناعي بدون تقويض الديمقراطية

بروجيكت سنديكيت

2025-10-21 04:16

بقلم: كيلي بورن

بالو ألتو ــ بدأ الذكاء الاصطناعي يؤثر بالفعل على ركائز الحكم الديمقراطي في مختلف أنحاء العالم. ومن الممكن رسم خريطة لتأثيراته على هيئة دوائر متحدة المركز تمتد إلى الخارج من الانتخابات مرورا بتبني الحكم؛ والمشاركة السياسية، وثقة الجمهور، وأنظمة المعلومات الإيكولوجية، ثم إلى المخاطر الجهازية في عموم الأمر ــ الصدمات الاقتصادية، والمنافسة الجيوسياسية، والمخاطر التي "تهدد وجودنا" مثل المناخ أو الأسلحة البيولوجية. وكل دائرة تقدم فرصا وتحديات على حد سواء. 

 {img_1}

لنبدأ بالانتخابات. في الولايات المتحدة على وجه الخصوص، يعاني المسؤولون عن إدارة الانتخابات من نقص شديد في الموظفين والتمويل. يزعم كثيرون أن الذكاء الاصطناعي من الممكن أن يساعد بترجمة بطاقات الاقتراع إلى لغات متعددة، أو التحقق من بطاقات الاقتراع بالبريد، أو اختيار المواقع المثلى لمراكز الاقتراع. ومع ذلك، يستخدم هذه الأدوات 8% فقط من المسؤولين عن إدارة الانتخابات في الولايات المتحدة اليوم.

بدلا من ذلك، يُستَـخدَم الذكاء الاصطناعي لجعل التصويت أكثر صعوبة. في ولاية جورجيا، استخدم بعض النشطاء شبكة الذكاء الاصطناعي Eagle لتوليد طعون جماعية من جانب الناخبين والضغط على المسؤولين لتطهير القوائم الانتخابية. (يستخدم المعارضون أدوات مماثلة لمحاولة إعادة الناخبين). والمخاطر المألوفة ــ مثل التزييف العميق المصمم لإرباك أو تضليل الناخبين ــ وفيرة. في عام 2024، ألغت رومانيا نتائج انتخاباتها الرئاسية وسط أدلة على تدخل روسي مُـضَـخَّـم بالاستعانة بالذكاء الاصطناعي ــ وهو أول مثال قاطع على تأثير الذكاء الاصطناعي.

لكن البحث عن "الأدلة الدامغة" قد يفوت الخطر الأعظم: تآكل الثقة، والحقائق، والتماسك الاجتماعي على نحو متواصل.

يقدم استخدام الحكومة للذكاء الاصطناعي ناقلا ثانيا للتأثير ــ وهو ناقل أكثر وعدا. الواقع أن ثقة الجمهور في الحكومة الفيدرالية الأميركية تحوم حول 23%، وتعكف الوكالات الحكومية على مختلف المستويات على تجريب الذكاء الاصطناعي لتحسين الكفاءة. وقد بدأت هذه الجهود تحقق نتائج بالفعل. على سبيل المثال، عملت وزارة الخارجية على خفض الوقت الذي يقضيه الموظفون في معالجة الطلبات بموجب قانون حرية المعلومات (FOIA) بنسبة 60%. وفي كاليفورنيا، اعتمدت مدينة سان خوسيه في كاليفورنيا على برنامج تحسين النقل بالاستعانة بالذكاء الاصطناعي لإعادة تصميم مسارات الحافلات، لتنجح في خفض أوقات السفر بنسبة 20% تقريبا.

مثل هذه التحسينات من الممكن أن تعزز الشرعية الديمقراطية، لكن المخاطر حقيقية. إذ تؤثر خوارزميات الصندوق الأسود بالفعل على القرارات بشأن أهلية الحصول على المزايا الحكومية، وحتى على الأحكام الجنائية، وهذا يشكل تهديدات خطيرة للعدالة والحقوق المدنية. كما يتسارع تبني هذه الخوارزميات عسكريا: في عام 2024، وَقَّـعَـت وزارة الدفاع الأميركية عقودا بقيمة 200 مليون دولار مع أربع شركات رائدة في مجال الذكاء الاصطناعي، وهذا يزيد من المخاوف بشأن المراقبة من جانب الدولة والعمليات الشرطية والحربية التي تعتمد على الذكاء الاصطناعي.

في الوقت ذاته، من الممكن أن يعمل الذكاء الاصطناعي على تغيير حال المشاركة العامة. في تايوان ــ وهي نموذج عالمي للحكومة المدعومة بالتكنولوجيا ــ ساعدت الأدوات المدعومة بالذكاء الاصطناعي مثل Pol.is في إعادة بناء ثقة الجمهور بعد احتلال البرلمان في عام 2014، فأفضى هذا إلى رفع نسبة تأييد المؤسسات الحكومية من أقل من 10% إلى أكثر من 70%. 

الآن، يعمل مختبر الديمقراطية التداولية في جامعة ستانفورد على توظيف منسقي الذكاء الاصطناعي في أكثر من 40 دولة، وتستكشف شركة Jigsaw التابعة لشركة Google أساليب مماثلة لدعم حوار أكثر صحة. حتى أن منظمي الحركات الاجتماعية يستخدمون الذكاء الاصطناعي لتحديد الحلفاء المحتملين أو تتبع الأشخاص الذين يقفون وراء الأموال التي تدعم الجهود المناهضة للديمقراطية.

لكن أربعة مخاطر تلوح ضخمة في الأفق: أنظمة المشاركة المعطلة، حيث تُـغـرَق عمليات مثل "الإشعار والتعليق" بحثالة الذكاء الاصطناعي؛ الإسكات النشط، حيث تهدد عمليات نشر البيانات الخاصة والتصيد ــ بل وحتى مراقبة الدولة ــ بإرهاب النشطاء ودفعهم إلى الخروج من المساحات المدنية؛ الإسكات السلبي إذا اختار الناس الانسحاب بدرجة أكبر من المساحات المدنية في العالم الحقيقي لصالح مساحات رقمية، أو حتى تفويض صوتهم المدني بالكامل لوكلاء الذكاء الاصطناعي في نهاية المطاف؛ وأخيرا، تآكل الكفاءة، حيث يتسبب الاعتماد المفرط على الذكاء الاصطناعي ــ أو روبوتات دردشة الذكاء الاصطناعي المتملقة ــ في زيادة قدرتنا على الحكم السليم والاختلاف المحترم ضَعفا على ضعف.

ويتغير نظام المعلومات البيئي أيضا بفِـعل الذكاء الاصطناعي. على الجانب الإيجابي، تُـبـدِع غرف الأخبار. في كاليفورنيا، تستخدم شركتا CalMatters وCal Poly الذكاء الاصطناعي لمعالجة النصوص التشريعية في مختلف أنحاء الولاية، والتنقيب عنها للحصول على رؤى، بل وحتى توليد أفكار القصص.

لكن هذه الفوائد من الممكن أن يطغى عليها طوفان من التزييف العميق والوسائط الاصطناعية المتزايدة الإقناع. كما أن المحتوى الكاذب من الممكن أن يؤثر على الآراء ــ فالناس قادرون على التمييز بين الصور الحقيقية والمزيفة بنسبة 60% فقط. الأدهى من ذلك أن حجم التزييف الهائل يغذي ما يسمى "أرباح الكاذبين"، حيث يصبح الناس غارقين في المحتوى المفبرك حتى أنهم يبدأون في الشك في كل شيء. ويترتب على ذلك الاستهزاء وعدم المبالاة وفك الارتباط.

وأخيرا، وراء التهديدات المباشرة للمؤسسات الديمقراطية تكمن تحديات جهازية أوسع نطاقا. تشير تقديرات صندوق النقد الدولي إلى أن الذكاء الاصطناعي من الممكن أن يؤثر على 60% من الوظائف في الاقتصادات المتقدمة، في حين تتوقع شركة ماكينزي أن يصبح ما بين 75 مليون و345 مليون شخص في احتياج إلى تغيير وظائفهم بحلول عام 2030.

ليست المشكلة أن الصدمات الاقتصادية الضخمة تعرض الاستقرار السياسي للخطر على نحو دائم فحسب. فقد يتسبب الذكاء الاصطناعي في تفاقم تركزات الثروة المفرطة، على النحو الذي يشوه الصوت السياسي ويقوض المساواة. أضف إلى ذلك إمكانية خسارة الغرب لسباق الذكاء الاصطناعي، والتنازل عن الهيمنة العسكرية والاقتصادية العالمية لصالح قوى عظمى معادية للديمقراطية مثل الصين.

تتطلب مواجهة هذه التحديات العمل على جبهتين. أولا، من الممكن أن تساعد خطوات خاصة بقطاعات محددة الصحفيين، والمسؤولين الحكوميين، ومسؤولي الانتخابات، والمجتمع المدني على تبني الذكاء الاصطناعي بشكل مسؤول. ثانيا، نحن في احتياج إلى "تدخلات تأسيسية" أوسع نطاقا ــ تدابير شاملة لا تحمي القطاعات الفردية فحسب، بل تحمي المجتمع ككل.

يجب أن تغطي التدابير التأسيسية دورة حياة الذكاء الاصطناعي بالكامل، من التطوير إلى التوظيف. ويشمل هذا توفير سُـبُـل حماية قوية للخصوصية، وكذا الشفافية فيما يتعلق بالبيانات المستخدمة لتدريب النماذج، والتحيزات المحتملة، وكيفية نشر الشركات والحكومات للذكاء الاصطناعي، والقدرات الخطيرة، وأي أضرار في العالم الحقيقي (يُـعَـد هذا المتتبع العالمي بداية رائعة).

من الأهمية بمكان أيضا فرض قيود على الاستخدام، من نشر قوات الشرطة للذكاء الاصطناعي إلى التعرف على الوجوه لحظيا إلى المدارس وأرباب العمل الذين يتتبعون أنشطة الطلاب أو العمال (أو حتى العواطف). نحن في احتياج إلى أنظمة المسؤولية عندما تتسبب أنظمة الذكاء الاصطناعي في حرمان الناس من الوظائف، أو القروض، أو المزايا الحكومية من دون وجه حق. قد نكون في احتياج أيضا إلى أفكار جديدة في مكافحة الاحتكار أو إعادة التوزيع الاقتصادي لمنع مستويات غير مستدامة ديمقراطيا من التفاوت بين الناس.

أخيرا، بنية الذكاء الاصطناعي الأساسية العامة ضرورية ــ نماذج مفتوحة، وموارد حوسبة ميسورة التكلفة، وقواعد بيانات مشتركة يستطيع المجتمع المدني الوصول إليها لضمان توزيع فوائد التكنولوجيا على نطاق واسع.

في حين تحرك الاتحاد الأوروبي بسرعة في مجال التنظيم، فإن الإجراءات الفيدرالية في الولايات المتحدة توقفت. لكن الهيئات التشريعية في الولايات تمضي قدما: فقد استنت 20 ولاية قوانين الخصوصية، وتفرض 47 ولاية الآن قوانين خاصة بالتزييف العميق بالاستعانة بالذكاء الاصطناعي، كما تفرض 15 ولاية قيودا على استخدام الشرطة لتكنولوجيا التعرف على الوجوه.

الواقع إن نافذة العمل السياسي ضيقة. فكما تسارعت إصلاحات تمويل الحملات الانتخابية في أعقاب فضيحة ووترجيت، وتسارعت الجهود لتنظيم وسائط التواصل الاجتماعي ــ ثم توقفت ــ بعد الانتخابات الأميركية عام 2016، يتعين على الديمقراطيات أن ترتقي إلى مستوى التحدي الذي يفرضه الذكاء الاصطناعي، وأن تعمل على تخفيف التكاليف المترتبة عليه مع الاستفادة في الوقت ذاته من فوائده الرائعة.

* كيلي بورن، المديرة السابقة لمركز السياسة السيبرانية بجامعة ستانفورد، ومديرة مبادرة الديمقراطية والحقوق والحوكمة في مؤسسة ديفيد ولوسيل باكارد.

https://www.project-syndicate.org/

ذات صلة

زخم الدعاية الانتخابية: مؤشر صامت على اختلال العدالة وملامح الفسادالحق في الدواءالسؤال القرآنيّ بوصفه أداةً للتربية والإصلاحالخطابات الثقافية المعاصرة وضرورة تجديد الرؤية إلى العالمالبنتاغون تقيّد حرّية الصحافة: تصعيد ومواجهة