ماذا سيحدث لو تحالف الذكاء الاصطناعي مع الأسلحة النووية؟

شبكة النبأ

2025-10-29 03:38

هذا النص هو مقتطفات من تقرير صادر عن معهد ستوكهولم الدولي لبحوث السلام (SIPRI) بعنوان "مقاربات عملية للحوكمة عند نقطة التقاء الذكاء الاصطناعي والأسلحة النووية". يناقش التقرير كيف يغير دمج الذكاء الاصطناعي (AI) في الأنظمة النووية المشهد الأمني العالمي، ويزيد من مخاطر التصعيد غير المقصود على الرغم من مزايا تحسين سرعة اتخاذ القرار.

 يحدد التقرير ثلاث أبعاد رئيسية للمخاطر، تركز على قيادة وتحكم واتصالات الأسلحة النووية (NC3)، وتأثير الذكاء الاصطناعي على توازن الردع النووي، والتحديات التي تفرضها الأسلحة التقليدية التي تعمل بالذكاء الاصطناعي. بحسب ما اطلعت عليه شبكة النبأ المعلوماتية.

يؤكد على أن هناك إجماعًا واسعًا على الحاجة إلى الاحتفاظ بالرقابة البشرية على قرارات استخدام الأسلحة النووية، لكنه يلاحظ الافتقار إلى الوضوح حول كيفية تطبيق هذا المبدأ عمليًا بين الدول المسلحة نوويًا وغير المسلحة نوويًا. ويختتم بتقديم مسارات للمضي قدمًا في الحوكمة، مثل زيادة الوعي بالمخاطر ووضع معايير شفافة للمساعدة في تخفيف هذه التحديات الاستراتيجية.

1. المقدمة: تشكيل المشهد الأمني العالمي الجديد

يشهد الأمن العالمي تحولاً جذرياً نتيجة التسارع في دمج الذكاء الاصطناعي (AI) في الأنظمة النووية والأنظمة ذات الصلة بالأسلحة النووية. في خضم التوترات الجيوسياسية المتزايدة، تهدد هذه التطورات التكنولوجية واستخداماتها العسكرية بزعزعة التوازن العالمي للقوة.

بينما يمكن للذكاء الاصطناعي أن يسرّع عملية اتخاذ القرار، ويعزز الإنذار الاستراتيجي، ويحسن الاستهداف، فإنه يفتح الباب أيضاً أمام أشكال جديدة من نقاط الضعف وعدم اليقين. هذه التطورات قد تزعزع الاستقرار وتزيد من خطر التصعيد النووي غير المقصود. إن القلق المتزايد بشأن تأثير الذكاء الاصطناعي على الردع النووي والاستقرار الاستراتيجي أثار اهتماماً دولياً بالحد من المخاطر المرتبطة به.

على الرغم من اكتساب المناقشات حول الحفاظ على السيطرة البشرية أهمية بين الدول المسلحة نووياً وغير المسلحة نووياً في الأوساط متعددة الأطراف، لا يزال هناك غموض محدود بشأن المواقف الوطنية وتعريفات المفاهيم الأساسية، مثل "الإنسان في الحلقة" (human-in-the-loop) أو "الإنسان على الحلقة" (human-on-the-loop)، أو "التحكم البشري ذي المغزى".

2. أبعاد المخاطر الرئيسية: تهديدات للاستقرار الاستراتيجي

يحدد التقرير ثلاث أبعاد رئيسية لكيفية تأثير دمج الذكاء الاصطناعي على الردع النووي والاستقرار الاستراتيجي:

أ. القيادة والتحكم والاتصالات النووية (NC3)

يعتبر دمج الذكاء الاصطناعي في أنظمة NC3 مصدر قلق بالغ فيما يتعلق بالموثوقية والشفافية والرقابة البشرية. تُستخدم تقنيات الذكاء الاصطناعي في ثلاث مجالات رئيسية ضمن NC3:

1. الإنذار الاستراتيجي: مثل أنظمة الإنذار المبكر والاستخبارات والمراقبة والاستطلاع.

2. الاستهداف التكيفي: مثل التوجيه الدقيق واختيار الأهداف.

3. دعم القرار: مثل جمع البيانات وتحليلها وإيصال التوصيات.

يمكن للذكاء الاصطناعي أن يحلل كميات هائلة من البيانات في الوقت الفعلي بسرعة فائقة، مما يمنح صانعي القرار وقتاً إضافياً للاستجابة. ومع ذلك، يزيد الاعتماد الأكبر على الذكاء الاصطناعي من مخاطر:

* الإيجابيات الكاذبة (False Positives): تحديد خاطئ لهجوم أو تهديد غير موجود. مثال تاريخي لذلك هو حادث بتروف عام 1983 الذي سببه عطل في نظام الإنذار المبكر السوفيتي "أوكو".

* السلبيات الكاذبة (False Negatives): الخوف من تفويت ضربة نووية أو تقليدية عالية الدقة.

هناك قلق شائع بشأن نقص البيانات التاريخية المتعلقة بالأزمات النووية اللازمة لتدريب أنظمة الذكاء الاصطناعي بشكل فعال. هذا النقص يدفع إلى الاعتماد على نماذج اللغات الكبيرة (LLMs)، التي تُثار الشكوك حول قدرتها على تقديم دعم سليم للقرار في سيناريوهات عالية الضغط والسرعة. وتُعرف هذه المشكلة أيضاً باسم "مشكلة الصندوق الأسود" (Black Box) حيث يصعب فهم كيفية اتخاذ النظام لقراراته.

وقد أعربت كل من الدول المسلحة وغير المسلحة نووياً عن قلقها بشأن دقة وموثوقية أنظمة الذكاء الاصطناعي. وقد أحرز بعض التقدم بين الدول الخمس الدائمة في معاهدة عدم الانتشار (P5)، حيث أكدت فرنسا والمملكة المتحدة والولايات المتحدة في ورقة عمل مشتركة على المبادئ والممارسات المسؤولة، كما شدد الرئيسان شي جين بينغ وبايدن على التحكم البشري في اتخاذ القرارات النووية في عام 2024.

ب. التوازن النووي ومصداقية الضربة الثانية

يمكن أن يؤدي التفوق التكنولوجي المتصور لدولة نووية إلى تغيير حسابات الردع وزيادة خطر التصعيد. قد يدفع الخوف من التخلف دولة ما إلى السعي لزيادة دمج الأتمتة والذكاء الاصطناعي في قواتها النووية.

تهدد القدرات المعززة بالذكاء الاصطناعي (مثل التوجيه الدقيق واختيار الهدف) قدرة الخصم على تنفيذ ضربة انتقامية، مما يهدد بقاء قوات الضربة الثانية. على سبيل المثال، يسلّط تقرير صادر عن مختبر لورانس ليفرمور الوطني في مايو 2024 الضوء على التهديدات التي تواجه الجزء البحري من الترسانة النووية الأمريكية نتيجة التطورات في تكنولوجيا الحرب المضادة للغواصات، المعززة بالذكاء الاصطناعي والأنظمة المستقلة.

للحفاظ على مصداقيتها في الضربة الثانية، قد تلجأ الدول إلى تنويع قواتها النووية (زيادة عدد الصوامع أو قابلية الصواريخ الباليستية العابرة للقارات للحركة) أو اعتماد وضعية الإطلاق عند الإنذار (LOW) أو الإطلاق تحت الهجوم (LUA). وتستمر جميع الدول المسلحة نووياً تقريباً في تحديث ترساناتها، مدفوعة جزئياً بالتقنيات الناشئة مثل الذكاء الاصطناعي. على سبيل المثال، ركزت باكستان على تطوير إجراءات مضادة استراتيجية مثل مركبات إعادة الدخول ذات الرؤوس الحربية المتعددة المستهدفة بشكل مستقل (MIRVs)، لمواجهة أنظمة الدفاع الصاروخي الهندية المعززة بالذكاء الاصطناعي.

إن الأنظمة الموثوقة للإنذار المبكر ضرورية لكي تصبح وضعيات LOW أو LUA قابلة للتطبيق عملياً. ورغم أن الذكاء الاصطناعي لم يرتبط بعد بهذه الجهود بشكل مباشر، فقد استكشفت دول نووية متعددة إمكانية دمجه في أنظمة الإنذار المبكر. إن أي خطأ تقني أو إنذار كاذب أو خطأ خوارزمي يعتمد على مدخلات الذكاء الاصطناعي يمكن أن يؤدي إلى تصعيد بعواقب كارثية.

ج. الأسلحة غير النووية المعززة بالذكاء الاصطناعي

يشكل دمج الذكاء الاصطناعي في أنظمة الأسلحة غير النووية تهديداً لبقاء الأصول النووية بوسائل حركية أو غير حركية. على سبيل المثال، يمكن لأسلحة الفضاء المضادة للأقمار الصناعية (ASAT) استهداف البنية التحتية الفضائية التي تعتمد عليها أنظمة NC3 للإنذار المبكر والاتصالات. كما يمكن للذكاء الاصطناعي أن يكون مضاعفاً للقوة للعمليات السيبرانية التي تستهدف NC3.

نتيجة لذلك، بدأت الدول المسلحة نووياً في دمج التهديد الذي تشكله القدرات التقليدية المتقدمة—وكذلك الدول غير المسلحة نووياً—في عقائدها النووية. ففي عام 2017، اعترفت فرنسا بأن الحوادث السيبرانية والفضائية يمكن أن تؤدي إلى "عبور العتبة النووية". وذكرت مراجعة الوضع النووي الأمريكية لعام 2018 أن الولايات المتحدة قد تنظر في رد نووي ضد "هجمات استراتيجية غير نووية مهمة".

3. السيطرة البشرية في النقاش الحالي: الحاجة إلى التعريف

يعكس الاهتمام بالسيطرة البشرية تقارباً في المخاوف بشأن المخاطر التي يشكلها الذكاء الاصطناعي. ومع ذلك، لم تفصح الدول المسلحة نووياً وغير المسلحة نووياً بعد بشكل كامل عن الإجراءات المحددة "الحاسمة لإبلاغ وتنفيذ القرارات السيادية المتعلقة باستخدام الأسلحة النووية" التي يجب أن تظل في أيدي البشر.

أ. عملية اتخاذ القرار النووي

تتجاوز وجهات نظر الدول المسلحة نووياً مجرد قرار استخدام الأسلحة النووية لتشمل نطاقاً أوسع من الأحداث التي تؤثر على تلك القرارات. على المستوى غير الرسمي، حدد الخبراء "سمات دائمة" للعمليات النووية عبر جميع الدول، بما في ذلك القرار المؤكد باستخدام الأسلحة، والمداولات رفيعة المستوى، وتوافر الأصول القابلة للبقاء.

كما حددت بعض الدول رسمياً عناصر اتخاذ القرار؛ فالولايات المتحدة، على سبيل المثال، تشير إلى ضرورة موافقة وزير الدفاع على الخطط النووية والدور الاستشاري لكبار المسؤولين. أما الهند، فقد فصلت علناً هيكلها القيادي النووي، الذي يتضمن هيئة القيادة النووية (NCA) التي تشمل مجلساً سياسياً هو الجهة الوحيدة المخولة بالتصريح بالاستخدام. وتتضمن عقيدة روسيا النووية المحدثة في نوفمبر 2024 مجموعة من الإجراءات الرئيسية، مثل تلقي بيانات حول إطلاق الصواريخ الباليستية، والحكم على مدى خطورة التهديد الذي تشكله الأسلحة التقليدية.

ب. السيطرة البشرية والحكم البشري

دار مفهوم السيطرة البشرية، الذي يحتل مركز الصدارة في سياق الذكاء الاصطناعي والنووي، في مناقشات مستفيضة في السياق غير النووي، لا سيما ضمن العمليات متعددة الأطراف حول أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS). أكدت هذه المناقشات على أهمية احتفاظ البشر بالسيطرة "الكافية" والقدرة على ممارسة الحكم (Judgement) والتدخل، ووضع قيود على المهام.

ومع ذلك، تتباين تفسيرات هذا المبدأ بشكل كبير بين الدول. ترى روسيا أن مفهوم "التحكم ذي المغزى" أو مناقشة "أشكال ودرجات التدخل البشري" غير مناسب. وتركز وزارة الدفاع الأمريكية على تمكين "القادة والمشغلين من ممارسة مستويات مناسبة من الحكم البشري على استخدام القوة". هذا التركيز على الحكم البشري يشير إلى أن مصطلح "الإنسان في الحلقة" قد يكون مضللاً لأنه يوحي بالتفاعل المستمر، وهو أمر شبه مستحيل عملياً بسبب القيود التشغيلية والتقنية.

في السياق النووي، هناك إشارات إلى أن التطبيقات النووية للسيطرة البشرية يجب أن تُعامل بشكل مختلف عن التطبيقات غير النووية، كما يتضح من تأكيد مراجعة الوضع النووي الأمريكية لعام 2022 على "الإنسان في الحلقة" لجميع الإجراءات الحاسمة المتعلقة بالاستخدام النووي. وفي روسيا، أعرب قائد القوات الصاروخية الاستراتيجية عن رأيه بأن استبدال الإنسان في "اتخاذ قرار استخدام الأسلحة النووية غير عملي حالياً".

لكن بدون تعريفات تشغيلية واضحة وآليات للمساءلة ومعايير تقنية، فإن الالتزام بالـ"تحكم البشري" قد لا يوفر ضمانات ذات مغزى. ومن بين المخاطر البالغة هنا هو تحيز الأتمتة (Automation bias)، حيث يبدأ المشغلون البشريون مع مرور الوقت في قبول توصيات الآلة بشكل غير نقدي، مخطئين في اعتبار الاقتراحات المستنبطة خوارزمياً بمثابة حكمهم المستقل.

4. مسارات المضي قدماً: تحويل المبادئ إلى إجراءات عملية

رغم تباين الآراء حول كيفية تطبيق السيطرة البشرية، هناك توافق عام حول مخاطر الذكاء الاصطناعي على الاستقرار النووي. يمكن ترجمة مبادئ الحوكمة في تقاطع الذكاء الاصطناعي والنووي إلى إجراءات عملية عبر عدة مسارات:

أ. زيادة الوعي والفهم للمخاطر

يمكن للدول المسلحة نووياً العمل في أطر ثنائية أو متعددة الأطراف لتحديد سمات محددة لأنظمة الذكاء الاصطناعي تجدها مزعزعة للاستقرار، خاصة من منظور الردع. ومن المفيد إجراء مناقشات محددة حول "التحكم البشري" أو "الحكم البشري" في سياقات نووية، بمعزل عن عملية LAWS.

يجب أن تأخذ أي جهود لمراجعة السلامة النووية المستقلة في الاعتبار المخاطر الناجمة عن الإخفاقات الفنية لنماذج الذكاء الاصطناعي والتهديدات التي تواجه أمن المعلومات.

ب. صياغة المبادئ والمعايير

لا يمكن للمقاربة القائمة على المبادئ أن تقف وحدها؛ فالحوكمة الفعالة تتطلب إجراءات عملية مصاحبة، مثل الأطر القانونية والمعايير التنظيمية ومدونات السلوك التقنية. يجب أن يدعم وضع مبادئ واضحة تركز على المساءلة والسلامة والاختبار الموثوقية بتدابير تنظيمية وتقنية ملموسة.

يمكن أن يشمل ذلك تطوير معايير خاصة بالذكاء الاصطناعي للسلامة والأمن عبر دورة حياة الأسلحة النووية. كما يمكن للجهات التنظيمية فرض معايير أعلى لأنظمة الذكاء الاصطناعي المدمجة في الأنظمة النووية. ومن الممكن تطبيق آلية "مفتاح الإيقاف" (kill switch) في المجال النووي كآلية أمان لمنع الاستخدام غير المقصود أو التصعيدي للقوة.

ج. معالجة القدرات والإجراءات

قد تركز المقاربات العملية على التخلي عن استخدام تقنيات الذكاء الاصطناعي في أنظمة أسلحة معينة أو الحد منها. ومن الأمثلة على ذلك، الدعوة إلى فرض حظر دولي على أنظمة الأسلحة النووية ذاتية التشغيل، والذي يجب أن ينطبق على جميع المنصات ذات القدرة المزدوجة لتجنب تحايل الدول.

بدلاً من الحظر الشامل، يمكن اعتماد مقاربة تركز على أنشطة وسلوكيات الأسلحة. يمكن أن يستوحي هذا النهج من اتفاقيات حقبة الحرب الباردة، مثل الاتفاقية المتعلقة بالوقاية من الحوادث في أعالي البحار وعليها (INCSEA) لعام 1972، والاتفاقية المتعلقة بالوقاية من الأنشطة العسكرية الخطرة (DMA) لعام 1989. يمكن لهذا النهج أن يحدد إجراءات في سياق الأنشطة الاستفزازية والمزعزعة للاستقرار.

د. الإشارات والشفافية

من المهم مواصلة الجهود للسعي للحصول على تأكيد صريح من الدول النووية الخمس الدائمة (P5)—وربما جميع الدول المسلحة نووياً—بشأن مبدأ الحفاظ على السيطرة البشرية.

ومن الممكن وضع تدابير لبناء الثقة (CBMs) تهدف إلى تقليل خطر التصعيد النووي في سياق قدرات الذكاء الاصطناعي الناشئة. يمكن أن يبدأ هذا بتعزيز وتكييف خطوط الاتصال الساخنة القائمة للأزمات. ويمكن للدول النظر في إنشاء خطوط ساخنة ثنائية مخصصة لمعالجة العمليات المتعلقة بالذكاء الاصطناعي، وهو أمر قد يكون وثيق الصلة بشكل خاص في حالة الهند وباكستان.

هـ. تسخير الذكاء الاصطناعي للحد من المخاطر النووية

يمكن أن يشكل العمل المشترك من قبل الدول المسلحة نووياً لاستخدام الذكاء الاصطناعي كوسيلة للحد من المخاطر النووية مساراً عملياً آخر. ففي الولايات المتحدة، يعزز الذكاء الاصطناعي بالفعل جوانب رئيسية من الحفاظ على سلامة وأمن وموثوقية المخزون النووي من خلال النمذجة والمحاكاة. كما يمكنه المساعدة في تعزيز عدم الانتشار من خلال الكشف عن الأنشطة النووية غير المشروعة وتوصيفها بتحليل كميات هائلة من البيانات.

يمكن لهذا العمل المشترك أن يشمل استكشاف كيفية تأثير الذكاء الاصطناعي على النظام البيئي الأكبر للمعلومات الذي يعمل فيه صانعو القرارات النووية. إن الانتشار المتزايد لـ"التزييف العميق" (deepfakes) والمعلومات المضللة الناتجة عن الذكاء الاصطناعي—كما تجلى خلال النزاع المسلح بين الهند وباكستان في مايو 2025—يؤكد العواقب النووية المحتملة حتى بدون دمج الذكاء الاصطناعي مباشرة في أنظمة الأسلحة.

5. الاستنتاجات

يمثل التكامل المتسارع للذكاء الاصطناعي في الأنظمة النووية فرصة لتحسين صنع القرار وخطر جسيم على الاستقرار العالمي. بينما تتفق الدول بشكل عام على الحاجة إلى السيطرة البشرية، تظل الخلافات قائمة حول كيفية تفعيل هذا المبدأ. إن غياب التعريفات التشغيلية الملموسة وآليات المساءلة والمعايير الفنية يعني أن الالتزام بـ"التحكم البشري" قد لا يوفر ضمانات حقيقية.

لتحويل هذه المخاوف إلى إجراءات، يجب على الدول تطوير مبادئ ومعايير تشغيلية على المستوى الوطني، بما في ذلك بروتوكولات السلامة وتنظيم استخدام الذكاء الاصطناعي عالي المخاطر. ويمكن أن يساعد الاستفادة من المنتديات القائمة ودعوة الدول لتقديم مقترحات في بناء الزخم نحو إطار تنظيمي أكثر رسمية.

ذات صلة

مركز الفرات ناقش.. التداعيات الاقتصادية للتهديد بتوسيع العقوبات على العراقالخمس في زمن الغيبة.. تحليل لبعض الروايات الشريفة ومقاصدهاتصحيح العمل البرلماني الجديدهوس الشباب: الوقوف على حافة الضياعالانتخابات العراقية: فقدان المضمون الديمقراطي