قواعد الحروب الجديدة في ظل الذكاء الاصطناعي تثير الكثير من المخاوف

كريترنيوز/فايننشال تايمز/هيلين واريل وجيمس أودونيل
تتعاون «فاينانشال تايمز» ومجلة «إم آي تي تكنولوجي ريفيو» لتقديم سلسلة عنوانها «حالة الذكاء الاصطناعي»، حيث يناقش كتّاب من كلتا المطبوعتين مختلف جوانب ثورة الذكاء الاصطناعي المُولّدة التي تُعيد تشكيل القوة العالمية.
هنا تتناول هيلين واريل مراسلة التحقيقات في «فاينانشال تايمز» والمحررة السابقة لشؤون الدفاع والأمن، وجيمس أودونيل، كبير المراسلين لشؤون الذكاء الاصطناعي في «إم آي تي تكنولوجي ريفيو» المعضلات الأخلاقية والحوافز المالية المُحيطة باستخدام الذكاء الاصطناعي من قِبل الجيوش حول العالم. وبداية، تكتب هيلين واريل:
في يوليو 2027، تقف الصين على وشك غزو تايوان، مع طائرات مُسيّرة ذاتية القيادة مُزوّدة بقدرات استهداف بالذكاء الاصطناعي مُهيّأة للتغلب على الدفاعات الجوية للجزيرة، وتُؤدي سلسلة من الهجمات الإلكترونية المُولّدة بالذكاء الاصطناعي إلى قطع إمدادات الطاقة والاتصالات الرئيسية
. في غضون ذلك، تنتشر حملة تضليل إعلامي واسعة النطاق، تُنفّذها «مزرعة ميمات» مدعومة بالذكاء الاصطناعي لمصلحة الصين، عبر وسائل التواصل الاجتماعي العالمية، بهدف التخفيف من حدة أي استنكار لهجوم بكين.
إن سيناريوهات كهذه تبث الكثير من الرعب إلى النقاش الدائر حول استخدام الذكاء الاصطناعي في الحروب. وفي حين يأمل القادة العسكريون في قوة مُحسّنة رقمياً، أسرع وأكثر دقة من القتال المُوجّه بواسطة الإنسان.
فإن هناك مخاوف من أنه مع تزايد دور الذكاء الاصطناعي المحوري، سيفقد هؤلاء القادة أنفسهم السيطرة على صراع يمكن أن يتصاعد بسرعة كبيرة ويفتقر إلى الرقابة الأخلاقية أو القانونية.
وقد أمضى هنري كيسنجر، وزير الخارجية الأمريكي الأسبق، سنواته الأخيرة محذراً من الكارثة القادمة للحرب التي يُحرّكها الذكاء الاصطناعي.
ويُعد استيعاب حجم هذه الأخطار والتخفيف من حدتها أولوية عسكرية – قد يصفها البعض بـ«لحظة أوبنهايمر» – في عصرنا. وهناك بالفعل إجماع ناشئ في الغرب على أنه ينبغي ألا تُسند القرارات المتعلقة بنشر الأسلحة النووية إلى الذكاء الاصطناعي.
وقد ذهب الأمين العام للأمم المتحدة، أنطونيو غوتيريش، إلى أبعد من ذلك، بالدعوة القوية إلى حظر تام لأنظمة الأسلحة الفتاكة ذاتية التشغيل بالكامل.
ومن اللازم أن تواكب الإجراءات التنظيمية التطورات المتسارعة للتكنولوجيا، لكن في خضمّ الإثارة التي يغذيها الخيال العلمي، من السهل أن نفقد مسار ما هو ممكن بالفعل.
وكما يشير باحثون في مركز بيلفر بجامعة هارفارد، فإنّ المتفائلين بالذكاء الاصطناعي غالباً ما يُقلّلون من شأن تحديات نشر أنظمة أسلحة ذاتية التشغيل بالكامل. ومن المُحتمل تماماً أن تكون قدرات الذكاء الاصطناعي في القتال مُبالغاً فيها.
وفي هذا السياق، يُشير البروفيسور أنتوني كينغ، أحد أبرز مُؤيدي هذه الحجة، إلى أنه بدلاً من استبدال البشر، سيتم استخدام الذكاء الاصطناعي لتحسين الرؤى العسكرية. وحتى لو كان طابع الحرب يتغير، وأنّ التكنولوجيا عن بُعد تُحسّن أنظمة الأسلحة، فإنه يُصرّ على أن: «الأتمتة الكاملة للحرب نفسها ليست سوى وهم».
من بين حالات الاستخدام العسكري الثلاث الحالية للذكاء الاصطناعي، لا يُمثّل أيّ منها استقلاليةً كاملة. ويتم تطوير الذكاء الاصطناعي لأغراض التخطيط واللوجستيات.
والحرب السيبرانية (في التخريب والتجسس والقرصنة وعمليات المعلومات)، والجانب الأكثر إثارةً للجدل، استهداف الأسلحة. وهذا الأخير قيد الاستخدام بالفعل في ساحات القتال في أوكرانيا وغزة.
وتستخدم القوات الأوكرانية برامج الذكاء الاصطناعي لتوجيه الطائرات بدون طيار القادرة على تجنب أجهزة التشويش الروسية أثناء اقترابها من المواقع الحساسة.
كما طورت القوات الإسرائيلية نظام دعم القرار بمساعدة الذكاء الاصطناعي المعروف باسم «لافندر» والذي أدى إلى القضاء على نحو 37000 هدف بشري محتمل داخل غزة.
ومن الواضح أن هناك خطراً من أن قاعدة بيانات «لافندر» تكرر تحيزات البيانات التي تم تدريبها عليها، لكن الأفراد العسكريين يحملون تحيزاتهم هم أيضاً.
وقد ادعى أحد ضباط المخابرات الإسرائيليين الذين استخدموا «لافندر» أن لديه ثقة كبرى في نزاهة «الآلية الإحصائية» من جندي غارق في الحزن.
ويرفض المتفائلون بالتكنولوجيا الذين يصممون أسلحة الذكاء الاصطناعي ــ حتى ــ الحاجة إلى ضوابط جديدة لإدارة قدراتهم. ويقول كيث دير، الضابط العسكري البريطاني السابق الذي يدير الآن شركة التنبؤ الاستراتيجي «كاسي أيه آي»، إن القوانين الحالية أكثر من كافية.
ومن المثير للاهتمام أن بعض الخوف والصدمة من استخدام الذكاء الاصطناعي في الحرب قد يأتي من غير المُلِمّين بالمعايير العسكرية القاسية والواقعية. فهل جزء من المعارضة للذكاء الاصطناعي في الحرب لا يتعلق باستخدام الأنظمة ذاتية التشغيل، بل هو في الواقع حجة ضد الحرب نفسها؟
من جانبه، يرد جيمس أودونيل بأنه لاحظ بالفعل تحوّلاً جذرياً في مواقف شركات الذكاء الاصطناعي تجاه التطبيقات العسكرية لمنتجاتها، ففي بداية عام 2024.
منعت شركة «أوبن إيه آي» بشكل قاطع استخدام أدواتها في الحروب، ولكن بحلول نهاية العام، وقّعت اتفاقية مع شركة «أندوريل» لمساعدتها على إسقاط الطائرات المسيّرة في ساحة المعركة.
وهذه الخطوة، رغم أنها ليست سلاحاً ذاتي التشغيل بالكامل، بل تطبيق ميداني للذكاء الاصطناعي، فإنها مثّلت تحوّلاً جذرياً في ربط شركات التكنولوجيا نفسها علناً بالدفاع. فما الذي حدث خلال هذه الفترة؟
أولاً: الضجيج الإعلامي، حيث يقال لنا إن الذكاء الاصطناعي سيُسهم في دعم الأمن القومي وجعل الحرب أكثر دقة وأقل عرضة للأخطاء البشرية.
وقد اختبر مشاة البحرية الأمريكية فعلياً نوعاً من الذكاء الاصطناعي أثناء دورياتهم في جنوب المحيط الهادئ، والذي يستهدف تحليل المعلومات الاستخباراتية الأجنبية أسرع من الإنسان.
ثانياً: المال هو الفيصل. فشركة «أوبن إيه آي» تجد نفسها هي وغيرها تحت ضغوط كبيرة للبدء في استرداد القليل من المبالغ الطائلة التي تنفقها على تدريب وتشغيل نماذج الذكاء الاصطناعي. وقليل منها يملك ثروة طائلة كالبنتاغون. ويبدو أن مسؤولي الدفاع في أوروبا راغبون في الإنفاق ببذخ أيضاً.
لذلك فقد بلغ حجم تمويل رأس المال الاستثماري لتكنولوجيا الدفاع هذا العام ضعف ما كان عليه في عام 2024 بأكمله، خاصة في ظل السعي للاستفادة من رغبة الجيوش في الشراء من الشركات الناشئة.
وبالنسبة لمعارضة حروب الذكاء الاصطناعي، فهناك معسكران: أحدهما يرفض ببساطة فكرة أن الاستهداف الأكثر دقة (إن كان أكثر دقة بالفعل) يعني خسائر بشرية أقل، لأنه في الواقع يعني المزيد من الحروب.
ولننظر إلى الحقبة الأولى لحرب الطائرات بدون طيار في أفغانستان. فمع انخفاض كلفة تنفيذ ضربات الطائرات بدون طيار، هل يمكننا القول حقاً إنها قللت من الخسائر، أم أنها مكّنت فقط من المزيد من الدمار مقابل كل دولار؟
المعسكر الثاني يضم أشخاصاً مطلعين على حقائق الحرب، لكن لديهم شكاوى محددة للغاية بشأن أوجه الخلل الأساسية لهذه التكنولوجيا. وعلى سبيل المثال، أكدت ميسي كامينغز، وهي طيارة مقاتلة سابقة في البحرية الأمريكية.
والآن أستاذة هندسة وعلوم حاسوب في جامعة جورج ماسون، صراحةً على اعتقادها بأن نماذج اللغات الكبيرة، تحديداً، معرضة لارتكاب أخطاء فادحة في البيئات العسكرية.
والرد المعتاد على هذه الشكوى هو أن مخرجات الذكاء الاصطناعي تخضع لتدقيق بشري، لكن إذا اعتمد نموذج ذكاء اصطناعي على آلاف المدخلات للوصول إلى استنتاجاته، فهل يمكن لشخص واحد حقاً التحقق من هذا الاستنتاج؟
إن شركات التكنولوجيا تقدم وعوداً ضخمة للغاية حول ما يمكن للذكاء الاصطناعي فعله في هذه التطبيقات عالية الأخطار، في حين أن الضغوط لتطبيقها هائلة، لذلك بالنسبة لي، يعني ذلك كله أن الوقت قد حان لمزيد من التشكيك، وليس التقليل من مثل هذه الشكوك.
وتتفق هيلين واريل، مشددة على ضرورة مواصلة التشكيك في سلامة أنظمة حرب الذكاء الاصطناعي ومراقبتها – ومحاسبة القادة السياسيين في هذا المجال.
وتضيف: يجب علينا أيضاً أن نوجه المزيد من الشك لما يوصف بحق بـ«الوعود الضخمة للغاية» التي قطعتها بعض الشركات حول ما قد يكون الذكاء الاصطناعي قادراً على تحقيقه في ساحة المعركة.
عموماً، ستكون هناك فرص وأخطار فيما يُقدّمه قطاع تكنولوجيا الدفاع الناشئ نسبياً (والمزدهر) للجيوش. ويكمن الخطر الأكبر في أنه في ظل سرعة وسريّة سباق التسلح بأسلحة الذكاء الاصطناعي، قد لا تحظى هذه القدرات الناشئة بالتدقيق اللازم والنقاش الجاد اللذين تحتاجهما بشدة.