تكنولوجيا

هل تصمد التكنولوجيا في مواجهة الحروب السيبرانية؟

كريترنيوز /متابعات /عماد الدين إبراهيم

 

بات الأمن السيبراني وحماية المعلومات والمواقع الإلكترونية وأنظمة الذكاء الاصطناعي، خاصة روبوتات الدردشة من الاختراق والهكرز العالمي الذي تطور مع تطور التكنولوجيا والعلوم، من أهم متطلبات العصر الحديث، فهل تصمد التكنولوجيا في مواجهة الحروب السيبرانية؟

 

تحدّ خاسر

وكانت الإجابة الصادمة في مواجهة التحدي السيبراني في مكتب غوغل الأنيق في سنغافورة،، وقف مارك جونستون أمام مجموعة من صحفيي التكنولوجيا الساعة 1:30 ظهراً، مُعلناً اعترافاً مُفاجئاً، أنه بعد خمسة عقود من تطور الأمن السيبراني، لا يزال المدافعون يخسرون المعركة.

 

كشف مدير مكتب مسؤول أمن المعلومات في غوغل كلاود لمنطقة آسيا والمحيط الهادئ، مُستعرضاً إحصائية مُدمرة: «في 69% من الحوادث في اليابان ومنطقة آسيا والمحيط الهادئ، أُبلغت المؤسسات باختراقاتها من قِبل جهات خارجية». وما تم الكشف عنه خلال الطاولة المستديرة التي استمرت لمدة ساعة حول «الأمن السيبراني في عصر الذكاء الاصطناعي» كان تقييماً صادقاً لكيفية محاولة تقنيات الذكاء الاصطناعي من Google Cloud عكس عقود من الإخفاقات الدفاعية، حتى مع تمكين أدوات الذكاء الاصطناعي نفسها للمهاجمين بقدرات غير مسبوقة.

50 عاماً من الفشل الدفاعي

الأزمة ليست بجديدة. أرجع جونستون أصل المشكلة إلى ملاحظة رائد الأمن السيبراني جيمس ب. أندرسون عام 1972، وهي أن «الأنظمة التي نستخدمها لا تحمي نفسها بنفسها حقاً» – وهو تحدٍّ لا يزال قائماً رغم عقود من التقدم التكنولوجي. وأضاف جونستون: «ما قاله جيمس ب. أندرسون عام 1972 لا يزال ينطبق حتى اليوم»، مسلطاً الضوء على بقاء مشاكل الأمن الأساسية دون حل حتى مع تطور التكنولوجيا.

 

الثغرات الأمنية الأساسية

يُفاقم استمرار الثغرات الأمنية الأساسية هذا التحدي. تكشف بيانات استخبارات التهديدات من غوغل كلاود أن «أكثر من 76% من الاختراقات تبدأ بالأساسيات» – أخطاء التكوين واختراق بيانات الاعتماد التي عانت منها المؤسسات لعقود. واستشهد جونستون بمثال حديث: «في الشهر الماضي، كان هناك أيضاً ما نُسميه ثغرة أمنية يوم الصفر، وهو منتج شائع جداً استخدمته معظم المؤسسات في وقت ما، وهو مايكروسوفت شيربوينت… وخلال تلك الفترة، تعرض للهجوم وإساءة الاستخدام بشكل مستمر».

يصف كيفن كوران، العضو البارز في معهد مهندسي الكهرباء والإلكترونيات وأستاذ الأمن السيبراني بجامعة أولستر، الوضع الحالي بأنه «سباق تسلح عالي المخاطر»، حيث يستخدم كل من فرق الأمن السيبراني والجهات الفاعلة في مجال التهديدات أدوات الذكاء الاصطناعي للتفوق على بعضها البعض. ويوضح كوران في مذكرة إعلامية: «بالنسبة للمدافعين، يُعدّ الذكاء الاصطناعي مورداً قيّماً». «وقد طبقت الشركات الذكاء الاصطناعي التوليدي وأدوات الأتمتة الأخرى لتحليل كميات هائلة من البيانات آنياً وتحديد الشذوذ».

 

التصيد الاحتيالي

ومع ذلك، تُفيد التقنيات نفسها المهاجمين. يُحذّر كوران قائلاً: «بالنسبة للجهات الفاعلة في مجال التهديدات، يُمكن للذكاء الاصطناعي تبسيط هجمات التصيد الاحتيالي، وأتمتة إنشاء البرامج الضارة، والمساعدة في فحص الشبكات بحثاً عن الثغرات». تُشكّل الطبيعة المزدوجة للذكاء الاصطناعي ما يُطلق عليه جونستون «معضلة المدافع».

 

مبادرات غوغل كلاود

تهدف مبادرات غوغل كلاود للذكاء الاصطناعي إلى ترجيح كفة المدافعين. جادل جونستون بأن «الذكاء الاصطناعي يُتيح أفضل فرصة لتجاوز معضلة المدافعين، وترجيح كفة الفضاء الإلكتروني لمنح المدافعين ميزة حاسمة على المهاجمين». ويتمحور نهج الشركة حول ما يُطلقون عليه «حالات استخدام لا تُحصى للذكاء الاصطناعي التوليدي في الدفاع»، والتي تشمل اكتشاف الثغرات الأمنية، واستخبارات التهديدات، وتوليد الشفرات الآمنة، والاستجابة للحوادث.

 

النوم الكبير

من أبرز أمثلة غوغل على الدفاع المُدعّم بالذكاء الاصطناعي مبادرة «النوم الكبير» من مشروع زيرو، والتي تستخدم نماذج لغوية ضخمة لتحديد الثغرات الأمنية في الأكواد البرمجية في العالم الحقيقي. وقد شارك جونستون مقاييس مبهرة: «اكتشفت مبادرة النوم الكبير ثغرة أمنية في مكتبة مفتوحة المصدر باستخدام أدوات الذكاء الاصطناعي التوليدي – وهي المرة الأولى التي نعتقد فيها أن خدمة ذكاء اصطناعي قد اكتشفت ثغرة أمنية».

يُظهر تطور البرنامج القدرات المتنامية للذكاء الاصطناعي. وأشار جونستون: «في الشهر الماضي، أعلنا عن اكتشاف أكثر من 20 ثغرة أمنية في حزم مختلفة. لكن اليوم، عندما ألقيت نظرة على لوحة معلومات النوم الكبيرة، وجدت 47 ثغرة أمنية في أغسطس تم اكتشافها بواسطة هذا الحل».

 

التحليل البشري اليدوي

يمثل التقدم من التحليل البشري اليدوي إلى الاكتشاف بمساعدة الذكاء الاصطناعي ما يصفه جونستون بأنه تحول «من العمليات الأمنية اليدوية إلى العمليات الأمنية شبه المستقلة»، حيث «تقود Gemini معظم المهام في دورة حياة الأمان بشكل جيد باستمرار، وتفوض المهام التي لا يمكنها أتمتتها بثقة أو دقة عالية بما فيه الكفاية».

 

الوعد والخطر

تتضمن خارطة طريق غوغل كلاود التقدم عبر أربع مراحل: العمليات الأمنية اليدوية، والمدعومة، وشبه المستقلة، والمستقلة. في المرحلة شبه المستقلة، ستتولى أنظمة الذكاء الاصطناعي المهام الروتينية مع تصعيد القرارات المعقدة إلى المشغلين البشريين. أما المرحلة المستقلة النهائية، فستشهد قيام الذكاء الاصطناعي «بدفع دورة حياة الأمن نحو نتائج إيجابية لصالح المستخدمين».

ومع ذلك، تُثير هذه الأتمتة ثغرات أمنية جديدة. وعندما سُئل جونستون عن مخاطر الاعتماد المفرط على أنظمة الذكاء الاصطناعي، أقرّ بالتحدي قائلاً: «هناك احتمال أن تُهاجم هذه الخدمة وتُتلاعب بها. في الوقت الحالي، عندما ترى أدوات توصل إليها هذه الوكلاء، لا يوجد إطار عمل دقيق يُؤكّد أن هذه هي الأداة الفعلية التي لم يتم التلاعب بها».

يُعرب كوران عن هذا القلق قائلاً: «يكمن الخطر الذي تواجهه الشركات في اعتماد فرق الأمن لديها بشكل مفرط على الذكاء الاصطناعي، مما قد يُهمّش القدرة البشرية على الحكم، ويُعرّض الأنظمة للهجمات. لا تزال هناك حاجة إلى مساعد بشري، ويجب تحديد الأدوار بوضوح».

 

التحكم في طبيعة الذكاء الاصطناعي

يتضمن نهج غوغل كلاود ضمانات عملية لمعالجة إحدى أكثر سمات الذكاء الاصطناعي إشكالية: ميله إلى توليد استجابات غير ذات صلة أو غير مناسبة. وقد أوضح جونستون هذا التحدي بمثال ملموس على عدم التوافق السياقي الذي قد يُسبب مخاطر تجارية.

إذا كنت تمتلك متجراً للبيع بالتجزئة، فلا ينبغي أن تتلقى استشارة طبية بدلاً من ذلك، كما أوضح جونستون، واصفاً كيف يمكن لأنظمة الذكاء الاصطناعي أن تتحول فجأةً إلى مجالات غير ذات صلة. «أحياناً، قد تفعل هذه الأدوات ذلك». يمثل عدم القدرة على التنبؤ عبئاً كبيراً على الشركات التي تستخدم أنظمة الذكاء الاصطناعي الموجهة للعملاء، حيث قد تُربك الردود غير ذات الصلة العملاء، أو تُضر بسمعة العلامة التجارية، أو حتى تُعرّضهم لمسائلة قانونية.

 

تقنية «موديل أرمور»

تعالج تقنية «موديل أرمور» من غوغل هذه المشكلة من خلال عملها كطبقة ترشيح ذكية. وأشار جونستون إلى أن «وجود مرشحات واستخدام قدراتنا لفحص صحة هذه الاستجابات يعزز ثقة المؤسسة». يفحص النظام مخرجات الذكاء الاصطناعي بحثاً عن معلومات تعريف شخصية، ويرشح المحتوى غير المناسب لسياق العمل، ويحظر الاستجابات التي قد تكون «غير متوافقة» مع حالة الاستخدام المقصودة للمؤسسة.

 

الخدمات السحابية

تُعالج الشركة أيضاً القلق المتزايد بشأن نشر الذكاء الاصطناعي غير المُصرّح به. تكتشف المؤسسات مئات أدوات الذكاء الاصطناعي غير المُصرّح بها في شبكاتها، مما يُسبب ثغرات أمنية هائلة. تسعى تقنيات حماية البيانات الحساسة من غوغل إلى معالجة هذا الأمر من خلال المسح في العديد من مُزوّدي الخدمات السحابية والأنظمة المحلية.

حدد جونستون قيود الميزانية باعتبارها التحدي الرئيسي الذي يواجه مسؤولي أمن المعلومات في منطقة آسيا والمحيط الهادئ، ويحدث تحديداً في ظل تصاعد التهديدات الإلكترونية في المؤسسات. والمفارقة جلية: فمع تزايد حجم الهجمات، تفتقر المؤسسات إلى الموارد اللازمة للاستجابة المناسبة.

 

الهجمات الفردية

لاحظ جونستون: «ننظر إلى الإحصائيات ونقول بموضوعية إننا نشهد تزايداً في التشويش – قد لا يكون بالغ التعقيد، لكن تزايد التشويش يعني زيادة في التكاليف، مما يزيد من تكلفة التعامل معه». يؤدي تزايد وتيرة الهجمات، حتى عندما لا تكون الهجمات الفردية أكثر تطوراً بالضرورة، إلى استنزاف للموارد لا تستطيع العديد من المؤسسات تحمله.

يُفاقم الضغط المالي من تعقيد المشهد الأمني. وأوضح جونستون: «إنهم يبحثون عن شركاء يمكنهم المساعدة في تسريع ذلك دون الحاجة إلى توظيف عشرة موظفين إضافيين أو زيادة الميزانيات»، واصفاً كيف يواجه قادة الأمن ضغوطاً متزايدة لبذل المزيد من الجهود باستخدام الموارد المتاحة في ظل تزايد التهديدات.

 

أسئلة حرجة

على الرغم من القدرات الواعدة لـ Google Cloud AI، لا تزال هناك تساؤلات مهمة. عند سؤاله عما إذا كان المدافعون يتفوقون فعلياً في هذا السباق، أقرّ جونستون قائلاً: «لم نشهد هجمات جديدة باستخدام الذكاء الاصطناعي حتى الآن»، لكنه أشار إلى أن المهاجمين يستخدمون الذكاء الاصطناعي لتوسيع نطاق أساليب الهجوم الحالية وخلق «مجموعة واسعة من الفرص في بعض جوانب الهجوم».

تتطلب مزاعم الفعالية تدقيقاً دقيقاً. فبينما أشار جونستون إلى تحسن بنسبة 50% في سرعة كتابة تقارير الحوادث، أقرّ بأن الدقة لا تزال تُشكّل تحدياً: «هناك أخطاء، بالتأكيد، لكن البشر يرتكبون أخطاءً أيضاً». يُسلّط هذا الإقرار الضوء على القيود المستمرة لتطبيقات أمن الذكاء الاصطناعي الحالية.

 

استعدادات ما بعد الكم

إلى جانب تطبيقات الذكاء الاصطناعي الحالية، تستعد غوغل كلاود بالفعل للتحول الجذري التالي. كشف جونستون أن الشركة «نشرت بالفعل تشفيراً ما بعد الكم بين مراكز بياناتنا افتراضياً وعلى نطاق واسع»، مما يُهيئها لمواجهة تهديدات الحوسبة الكمومية المستقبلية التي قد تُلغي التشفير الحالي.

 

التفاؤل الحذر مطلوب

يمثل دمج الذكاء الاصطناعي في الأمن السيبراني فرصة غير مسبوقة ومخاطرة جسيمة. فبينما تُظهر تقنيات الذكاء الاصطناعي من غوغل كلاود قدرات حقيقية في اكتشاف الثغرات الأمنية، وتحليل التهديدات، والاستجابة الآلية، تُمكّن هذه التقنيات نفسها المهاجمين من تعزيز قدراتهم على الاستطلاع، والهندسة الاجتماعية، والتهرب.

زر الذهاب إلى الأعلى