صحافة دولية

بوليتيكو: كيف يقترب الذكاء الاصطناعي من التحكم في القرارات النووية؟

وجود مثل هذا النظام قد يشكّل رادعًا فعالًا في مواجهة روسيا والصين- الأناضول
نشرت مجلة "بوليتيكو" الأمريكية، تقريرًا، يتناول مخاطر دمج الذكاء الاصطناعي في القرارات العسكرية الأميركية، خصوصًا المرتبطة بالأسلحة النووية، في ظل ما تُظهره تجارب المحاكاة من ميل نماذج الذكاء الاصطناعي إلى التصعيد السريع واستخدام القوة المفرطة.

 وقالت المجلة، في هذا التقرير الذي ترجمته "عربي21"، إنّ الباحثة جاكلين شنايدر، مديرة مبادرة المحاكاة الحربية والأزمات في جامعة ستانفورد، لاحظت نمطًا مقلقًا خلال تجارب أجرتها السنة الماضية؛ حيث منحت نماذج لغوية ضخمة مثل "جي بي تي-3.5" و"جي بي تي-4" و"كلود 2" دور صناعة القرار في سيناريوهات أزمة تحاكي غزو روسيا لأوكرانيا أو تهديد الصين لتايوان.

وبحسب التقرير فإنّ: "جميع نماذج الذكاء الاصطناعي تقريبًا، أظهرت تفضيلًا للتصعيد العدواني، واستخدام القوة النارية بشكل عشوائي، وتحويل الأزمات إلى حروب مسلحة إلى حد إطلاق أسلحة نووية".

وأضاف: "إذا كان بعض هذا يذكرك بالسيناريوهات المرعبة التي تظهر في أفلام الخيال العلمي الشهيرة، فذلك لأن الذكاء الاصطناعي لديه القدرة على التصرف بهذه الطريقة يومًا ما، كما يخشى بعض الخبراء".

وتابع: "رغم أن سياسة البنتاغون الرسمية تقضي بعدم السماح أبدًا للذكاء الاصطناعي بالسيطرة على "حلقة القرار" البشرية بشأن الحرب، فإن بعض علماء الذكاء الاصطناعي يعتقدون أن البنتاغون قد بدأ بالفعل في الانزلاق في هذا المسار عبر التسرع في نشر أحدث أجيال الذكاء الاصطناعي وجعلها جزءًا أساسيًا من دفاعات أمريكا حول العالم، مدفوعًا بمخاوفه من صد الصين وروسيا في الوقت نفسه، فضلاً عن تهديدات عالمية أخرى".

"بالإضافة إلى أن متطلبات الحرب الحديثة –من سرعة اتخاذ القرار، إلى تنسيق أسراب الطائرات المسيّرة، وتحليل كمّ هائل من البيانات الاستخبارية– تجعل تزايد اعتماد الجيش الأميركي على الذكاء الاصطناعي أمرًا لا مفر منه، حتى في القرارات المصيرية مثل إطلاق الأسلحة النووية" بحسب التقرير نفسه.

وأشارت الصحيفة إلى أنّ: "هذا القلق يتزايد بسبب الغموض المستمر في فهم كيفية عمل الذكاء الاصطناعي، فبينما يسارع البنتاغون إلى تطبيق برامج جديدة، يحاول الخبراء -مثل شنايدر- فك شيفرة الخوارزميات التي تمنح الذكاء الاصطناعي قوته الهائلة قبل أن يصبح اعتماد البشر عليه أمرًا لا رجعة فيه". 

وأردفت: "أطلق مختبر التكنولوجيا المتقدمة التابع للبنتاغون برنامجًا بقيمة 25 مليون دولار لتحديد ما إذا كان بالإمكان تقديم "ضمانات رياضية" لسلامة الذكاء الاصطناعي في السيناريوهات العسكرية".

واسترسل: "يبقى أكثر ما يقلق خبراء الذكاء الاصطناعي والأسلحة النووية هو تداخل قرارات التصعيد النووي مع القرارات المتعلقة الأسلحة التقليدية؛ حيث يطالب بعض القادة العسكريين بحلول مباشرة من الذكاء الاصطناعي بناءً على نتائج المحاكاة، وهو ما يثير مخاوف من أن يصدّق القادة على توصيات الذكاء الاصطناعي دون تمحيص، خاصة في لحظات الضغوط والأزمات".

وأورد: "في سنة 2023، حدّثت وزارة الدفاع توجيهاتها بشأن أنظمة الأسلحة التي تستخدم الذكاء الاصطناعي، مؤكدة ضرورة وجود مستوى مناسب من الحكم البشري في استخدام القوة". لكن منتقدي ذلك يرون أن اللغة المستخدمة لا تزال فضفاضة، خاصة أن التوجيه المعروف باسم 3000.09 يتضمن بندًا يسمح بإبقاء النظام ذاتي التشغيل إذا قرر مسؤول رفيع ذلك، ما يعني أن البشر يمكنهم إخراج أنفسهم من دائرة القرار.

ويرى خبراء الذكاء الاصطناعي والمفكرون الإستراتيجيون، وفقا للتقرير نفسه، أنّ: "أحد الدوافع الرئيسية لهذا التوجّه هو أن الخصمين النوويين الرئيسيين للولايات المتحدة –موسكو وبكين– يستخدمان بالفعل الذكاء الاصطناعي في أنظمة القيادة والسيطرة، ما يدفع واشنطن إلى مجاراتهما في سباق عالمي يشبه سباق الفضاء في الحرب الباردة".

وتابع: "قد يشمل ذلك نسخة حديثة من نظام "اليد الميتة" الذي يعود للحرب الباردة، وهو نظام يرد تلقائيًا إذا تعرضت الولايات المتحدة لهجوم نووي وقُتل الرئيس وكبار المسؤولين".

ومضى بالقول إنّ: "هناك أيضًا أدلة على امتلاك روسيا نظامًا شبيهًا يُعرف باسم "بيريميتر"، والذي يمكنه إطلاق صواريخ نووية طويلة المدى تلقائيًا في حالة مقتل أو عجز قادة البلاد".

وتابع: "أما الصين، رفضت حتى السنة الماضية دعوة أميركية للاتفاق على عدم استخدام الذكاء الاصطناعي في قرارات إطلاق أسلحتها النووية المتنامية، وهذا يثير قلقًا إضافيًا لأن الأسلحة التقليدية المتطورة مثل الصواريخ الفرط صوتية باتت قادرة على تدمير أنظمة القيادة والسيطرة النووية في الصين وروسيا وحتى الولايات المتحدة، مما قد يخلق حاجة متصورة لنظام رد تلقائي".

وفي السياق نفسه، أكدت الصحيفة أنّ: "الولايات المتحدة لا تمتلك مثل هذا النظام، وأن معظم الخبراء العسكريين يرون أن مجرد التفكير في منح الذكاء الاصطناعي دورًا في الإشراف على الترسانة النووية هو ضرب من الجنون".

وأردفت: "لكن الضغط في واشنطن لا يدفع نحو الحذر، بل نحو السرعة. ففي حزيران/ يونيو، قال الجنرال دان كين، رئيس هيئة الأركان المشتركة في إدارة ترامب، أمام تجمع لشركات التكنولوجيا الكبرى: علينا أن نتحرك بسرعة، يا أصدقائي".

وفي تموز/ يوليو، أصدرت الإدارة خطة عمل للذكاء الاصطناعي تدعو إلى تقليص أكبر قدر ممكن من القيود التنظيمية للذكاء الاصطناعي. فيما أشارت الصحيفة إلى أنّ: "هذا الاندفاع نحو الأنظمة الذاتية يثير قلق المتشككين في الذكاء الاصطناعي، يقول وولفستال: شعار البنتاغون بأن البشر يجب أن يكونوا في دائرة القرار يبدو جيدًا، لكننا لا نعرف ما المقصود به فعليًا".

وأضاف: "من أتحدث إليهم في منظومة القيادة النووية لا يريدون دمج الذكاء الاصطناعي في المزيد من الأنظمة، لكن الجميع مقتنعون بأن ذلك سيحدث سواء أرادوا ذلك أم لا"، مضيفا: "لكن مخاطر دمج الذكاء الاصطناعي اليوم أصبحت أكثر دقة؛ فالبنتاغون يجري تجارب على نماذج الذكاء الاصطناعي لدمج القرار العسكري عبر مختلف الفروع والقيادات في سيناريوهات قتالية متعددة".

وتابع: "على سبيل المثال، يتيح مفهوم "الحرب الفسيفسائية" الجديد في الجيش الأمريكي استبدال المنصات التقليدية مثل الغواصات والطائرات بأسراب من الطائرات المسيّرة والصواريخ والمنصات الصغيرة، التي تشكل ساحة قتال معقدة وسريعة تتطلب توجيهًا من الذكاء الاصطناعي".

وأضافت الصحيفة أنّ: "الهجمات السيبرانية تمثل مجالًا آخر ترى فيه وزارة الدفاع فائدة للذكاء الاصطناعي، ففي حال وقوع هجوم إلكتروني خارجي على البنية التحتية الأميركية؛ وهو ما يُقال إنه جزء من خطط الحرب الصينية، فإن سرعة الاستجابة البشرية لن تكون كافية، بحسب كاثلين فيشر، مديرة مكتب الابتكار المعلوماتي في وكالة مشاريع الأبحاث المتقدمة للدفاع".

وتعمل وزارة الدفاع الأمريكية أيضًا على بناء أجيال جديدة من السفن والطائرات المسيّرة ضمن برنامج "ريبليكيتور". وفي وقت سابق من هذه السنة؛ منحت وحدة الابتكار الدفاعي التابعة للبنتاغون عقدًا لشركة "سكيل إيه آي" لتنفيذ مشروع "ثندرفورج"، الذي يهدف إلى استخدام الذكاء الاصطناعي في التخطيط العملياتي والميداني. 

وقال توماس هوران، مدير الذكاء الاصطناعي في الوحدة، إنّ: "هذا سيسمح للقادة في الميدان بدراسة عدة خيارات في وقت قياسي"؛ فيما أوضحت الصحيفة أنّ: "هذه المبادرات تُنفذ بشكل منفصل دون إستراتيجية موحدة. ويعتمد الكثير منها على نماذج تصنيف وتنبؤ تقليدية تُستخدم منذ عقود في مجالات مثل تصفية الرسائل المزعجة، والأمن السيبراني، والتنبؤات الجوية، وتحليل البيانات المالية؛ لكنها ليست نماذج لغوية ضخمة تتفاعل مع البشر وتُنتج محتوى كما يفعل "جي بي تي". 

ومع ذلك، استرسلت الصحيفة بالقول إنّ: "هذه النماذج، إلى جانب الذكاء الاصطناعي "الوكيل" الذي يتخذ قرارات دون توجيه، ستلعب دورًا أكبر في المستقبل". وأعلن نائب الأميرال فرانك ويتوورث، مدير وكالة الاستخبارات الجغرافية الوطنية، في حزيران/ يونيو أن مشروع "مافن" –منصة البنتاغون الرائدة في اكتشاف وتحليل الأهداف باستخدام الذكاء الاصطناعي– سيبدأ في إرسال معلومات استخبارية "مولّدة آليًا بالكامل" إلى القادة العسكريين.

ومن المتوقع أن يبدأ مشروع "مافن" في دمج أحدث نماذج النماذج اللغوية الكبيرة، وفقًا لبيل فاس، المدير التقني في شركة "بوز ألين" التي ساهمت في تطوير المشروع. وهذا يعني أن النظام الجديد لن يكتفي بتحديد وجود وحدة دبابات معادية، بل سيقيّم ما إذا كانت تقوم بمناورة التفاف هجومية، بل وقد يقترح تحركات مضادة.

وأكدت الصحيفة أنّ: "جميع هذه الأنظمة تهدف إلى تقليل التهديدات وتعزيز موقع الولايات المتحدة كقوة مهيمنة؛ فقد استخدمت شركة "رومبوس باور"، وهي مقاول دفاعي جديد، الذكاء الاصطناعي التوليدي للتنبؤ بغزو روسيا لأوكرانيا بنسبة دقة بلغت 80 بالمائة قبل أربعة أشهر من وقوعه، عبر تحليل كمّ هائل من البيانات المفتوحة، بما فيها صور الأقمار الصناعية". 

وبحسب التقرير ذاته، فإنّ الشركة الآن تعمل على توفير قدرات إنذار مبكر مماثلة لتايوان ضد الصين، بحسب مديرها التنفيذي أنشومان روي. وساعدت الشركة الهند أيضًا في تهدئة التصعيد مع باكستان هذه السنة عبر تحليل نشاط في قواعد باكستانية كان يمكن تفسيره خطأً على أنه استعداد نووي.

وأوردت: "باختصار، تفوق وتيرة الأحداث في ساحات القتال الحديثة قدرة البشر على المتابعة دون دعم الذكاء الاصطناعي، فهو وحده القادر على مواجهة التزييف العميق والمعلومات المضللة التي تنتجها أنظمة ذكاء اصطناعي معادية".

إلى ذلك، أشارت الصحيفة إلى أنّ: "السرعة هي المحرك الأساسي لاعتماد الذكاء الاصطناعي، ففي بيئة دولية تتسم بالتوتر وقلة التواصل، قد يؤدي الاعتماد على البرمجيات الذكية إلى تقليص نافذة اتخاذ القرار إلى دقائق بدلًا من ساعات أو أيام، ما يزيد من احتمال الاعتماد المفرط على تقييمات الذكاء الاصطناعي، حتى في القرارات النووية".

ووفقا للمصدر نفسه، فإنّ "خطورة هذه المخاوف تزداد بسبب تطور مقلق: تزايد الشبه بين الأسلحة والخطط التقليدية والنووية؛ فالذكاء الاصطناعي -رغم تطوره- لا يستطيع دائمًا التمييز بينها بشكل أفضل من البشر، وإذا لم يكن من الممكن تمييز ما إذا كان الصاروخ القادم نوويًا أو تقليديًا، فإن الذكاء الاصطناعي قد يتخذ قرارًا خاطئًا، ولكن بسرعة أكبر". 

وفي تقرير صدر عام 2023، حذّرت جمعية الحد من التسلح من أن تقنيات جديدة مثل الصواريخ الفرط صوتية –التي يمكنها المناورة لتفادي الدفاعات وتحمل رؤوسًا نووية أو تقليدية– تطمس الفارق بين الهجوم التقليدي والنووي".

وأكّدت: "هنا تظهر مدى خطورة أنماط التصعيد التي رصدتها شنايدر في تجاربها، فالنماذج اللغوية لا تعرف إلا ما تم تغذيتها به من بيانات وأدبيات، وكل ما يمكنها فعله هو تقدير الاحتمالات بناءً على تلك البيانات".

وأفادت الصحيفة أنّ: "شنايدر أوضحت أن نماذج الذكاء الاصطناعي اللغوية يتم تدريبها على ما هو متاح من أعمال أكاديمية حول إستراتيجيات الحرب، والتي تركز في معظمها على التصعيد، ما يخلق انحيازًا واضحًا في هذا الاتجاه". وأضافت أنّ: "هناك ندرة في الدراسات التي تتناول أسباب عدم اندلاع الحروب، وأن دراسة "حدث لم يقع" أصعب من دراسة الحدث نفسه".

وأوضحت أنّ: "شنايدر وزميلها في جامعة ستانفورد، ماكس لامبارث، خلصا في مقال نُشر عام 2024 بعنوان "لماذا لا يمكن للجيش الوثوق بالذكاء الاصطناعي" إلى أن قرارات النماذج المستخدمة في محاكاة الحرب لم تعكس تعقيدات اتخاذ القرار البشري".

وفي مقابلة مع الصحيفة، قال لامبارث إننا: "لا نملك حتى الآن وسيلة علمية أو رياضية موثوقة لدمج القيم الإنسانية في هذه الأنظمة"، مشيرا إلى غياب أي معيار أخلاقي أو إستراتيجي يحدد متى يكون من المقبول استهداف منشأة مدنية مثل مستشفى للأطفال، أو الالتزام بقواعد الاشتباك. 

وأضاف بأنّ: "الذكاء الاصطناعي يمكن أن يكون فعالًا في المهام التحليلية البسيطة، مثل تحليل صور الأقمار الصناعية، لكنه يواجه مشكلات كبيرة عند التعامل مع القرارات الإستراتيجية المعقدة".

وأضافت الصحيفة، بأنّ: "وزارة الدفاع الأمريكية تعمل على تنفيذ نظام قيادة وتحكم جديد يُعرف باسم "القيادة والسيطرة المشتركة في جميع المجالات"، يربط أجهزة الاستشعار في مختلف فروع الجيش ضمن شبكة موحدة مدعومة بالذكاء الاصطناعي، لتسريع عملية اتخاذ القرار العسكري". كما أشارت إلى أنّ: "الصين تطوّر نظامًا مشابهًا يربط بين العمليات التقليدية والنووية بسلاسة".

وأوضحت أنّ: "البنتاغون لا يزال يبحث في كيفية فصل نظام "القيادة والسيطرة المشتركة في جميع المجالات" عن القيادة النووية لضمان بقاء القرار بيد البشر، رغم أن وثائق الميزانية الأخيرة تؤكد ضرورة تطوير النظامين بشكل متزامن".

إلى ذلك، أشارت إلى أنّ: "أنظمة الإنذار المبكر، مثل الرادارات البالستية ورادارات الموجات فوق الأفق والأقمار الصناعية، أصبحت مترابطة بشكل متزايد، في وقت تخشى فيه الصين وروسيا من أن الأسلحة التقليدية المتطورة، مثل صواريخ فرط الصوت، باتت تهدد قدراتها النووية المتنقلة والثابتة".

وخلصت إلى أنّ: "استخدام الذكاء الاصطناعي في المجال الدفاعي يمثل منحدرًا زلقًا، إذ أن وزارة الدفاع كانت قد أصدرت في عام 2012 توجيهًا يمنع الأنظمة غير المأهولة من اختيار واستهداف أهداف دون تدخل بشري، إلا أن نظام "مافن" الحالي يقوم بذلك فعليًا، عبر تحليل كميات ضخمة من المعلومات الاستخباراتية وتقديم أهداف للقادة خلال دقائق".

وفي السياق ذاته، قال آدم لوثر، المشارك في تأليف مقال "اليد الميتة"، إنّ: "حتى أكثر القادة خبرة قد لا يتمكنون من اكتشاف هجوم نووي وشيك، خاصة مع تطوير الصين لأنظمة قصف مداري جزئي، ونية روسيا نشر مئات من المركبات الانزلاقية الفرط صوتية التي يصعب تتبعها". مضيفا بأنّ: "الرئيس الأمريكي لن يتمكن من اتخاذ قرار مسؤول في الوقت المناسب دون مساعدة الذكاء الاصطناعي".

وأفادت أنّ: "الرئيس الأمريكي لم يشارك في تدريبات محاكاة الحرب النووية منذ عهد رونالد ريغان"، مشيرة في الوقت نفسه إلى أنّ: "معظم الرؤساء، بمن فيهم دونالد ترامب، يفتقرون إلى المعرفة الدقيقة بإستراتيجيات الأسلحة النووية وآليات استخدامها".

ونقلت عن لوثر قوله إنّ: "اللحظة التي يُطلب فيها من الرئيس اتخاذ قرار مصيري خلال دقائق معدودة ليست الوقت المناسب لتعلّم هذه الأمور"، موضحًا أنّ: "الحل المقترح يتمثل في ترسيخ ممارسة إعداد الرئيس مسبقًا لمواقف افتراضية، بحيث تُبرمج أنظمة الذكاء الاصطناعي لتنفيذ ما قرره الرئيس مسبقًا، حتى في حال فقدان الاتصال به، على غرار نظام "بيريميتر" الروسي".

واعتبر لوثر أنّ: "وجود مثل هذا النظام قد يشكّل رادعًا فعالًا في مواجهة روسيا والصين"، محذرًا من أنّ: "الولايات المتحدة قد تصبح الأضعف بين القوى النووية الثلاث إذا لم تُجرِ تغييرات جذرية خلال العقد المقبل".

وقالت الصحيفة إنّ: "وزارة الدفاع الأمريكية، رغم اندفاعها نحو تبني الذكاء الاصطناعي، أوكلت إلى شخص واحد في وكالة صغيرة داخل البنتاغون مهمة كبح هذا التوجه. ويُدعى هذا الشخص باتريك شافتو، وهو عالم رياضيات لا يحمل الطابع العسكري المعتاد، ويُعرف بأسلوبه غير التقليدي واهتمامه العميق بالفروق بين التفكير البشري والآلي".

وأوضحت أنّ: "شافتو أطلق قبل عام برنامجًا جديدًا في وكالة داربا تحت اسم "الذكاء الاصطناعي المُقنن"، يهدف إلى تطوير خوارزميات ومعادلات رياضية تضمن موثوقية أكبر للأنظمة الذكية، وتقلل من احتمالات الخطأ في ساحات القتال، وتمنع السيناريوهات الكارثية".

وأضافت بأنّ: "داربا، التي تأسست عام 1958 كرد فعل على إطلاق الاتحاد السوفيتي لقمر سبوتنيك، كانت وراء العديد من الابتكارات التكنولوجية، بما في ذلك الإنترنت، وأسهمت في تمويل الأبحاث الأولى التي مهّدت لتطور الذكاء الاصطناعي الحالي".

وأفادت بأنّ: "بعض قيادات داربا اليوم يشعرون بالقلق من أن الوكالة قد تكون ساهمت في خلق نظام ذكاء اصطناعي يصعب السيطرة عليه، في ظل سباق محموم مع الصين وروسيا، يعيد إلى الأذهان أجواء الذعر الأستراتيجي التي رافقت الحرب الباردة".

وأوضحت الصحيفة أنّ: "برنامج "الذكاء الاصطناعي المُقنن"، الذي انطلق في 26 حزيران/ يونيو، يسعى لاستخدام الرياضيات المتقدمة لتقييم أداء نماذج جي بي تي، بهدف الإجابة عن أسئلة جوهرية مثل أسباب ظهور الاستجابات الخاطئة أو المتناقضة، وتطوير أدوات قياس جديدة تتيح ضمانات يمكن للقيادات العسكرية الاعتماد عليها في الأزمات أو في التخطيط اللوجستي خلال فترات السلم".

وأشارت إلى أنّ: "المشكلة لا تكمن فقط في نشر هذه النماذج فعليًا، بل في أن ميزانية البرنامج لا تتجاوز 25 مليون دولار، وهي نسبة ضئيلة مقارنة بما يخصصه البنتاغون لتطوير أنظمة الذكاء الاصطناعي ضمن ميزانيته التي تبلغ تريليون دولار، في وقت تتجه فيه الإستراتيجية العسكرية إلى منح الذكاء الاصطناعي مزيدًا من السيطرة".

وأضافت الصحيفة أنّ: "البنتاغون، منذ أكثر من عقد، أدرك أن روسيا والصين بدأتا تقتربان من مستوى الولايات المتحدة في تطوير الذخائر الذكية، فاقترح مجلس العلوم الدفاعية التركيز على تقنيات الاستقلالية، مثل الأسلحة الذاتية التشغيل وأدوات اتخاذ القرار المستقلة، مؤكدًا أن تحقيق ذلك يتطلب الاعتماد على الذكاء الاصطناعي".

وأوضحت بأنّ: "بعض الإستراتيجيين العسكريين يرون أن الوقت لا يسعفهم، في ظل تغير سريع في المعايير الدولية وتفكك المؤسسات التي كانت توفر الاستقرار، وهو ما يجعل المرحلة الحالية أكثر خطورة من الحرب الباردة، خاصة مع نهج إدارة ترامب المتساهل تجاه هذا التفكك".

واختتمت بالتأكيد على أنّ: "بعض الخبراء يعتقدون أن أنظمة الذكاء الاصطناعي القائمة على التحليل العقلاني قد تستنتج أن التهديد الإستراتيجي المتبادل بين واشنطن وبكين أقل خطرًا من فشل التعاون بينهما، خاصة في ملفات مثل الأسواق العالمية وأزمة المناخ والأوبئة واستقرار المناطق ذات الأهمية التجارية".