تكنولوجيا

عمالقة الذكاء الاصطناعي مطالبون بدفع ثمن كوارث المستقبل

كريترنيوز/ متابعات /عماد الدين إبراهيم

في خطوة ريادية لتشكيل مستقبل الحوكمة العالمية للذكاء الاصطناعي، يوجه الاتحاد الأوروبي دفة النقاش نحو مفهوم جديد وجذري: المسؤولية المشتركة المتبقية لشركات الذكاء الاصطناعي الحدودية.

 

لم يعد الأمر مقتصراً على سن القوانين الوقائية (كما في قانون الذكاء الاصطناعي – AI Act)، بل يمتد إلى ضمان وجود شبكة أمان مالية وقانونية في حال وقوع الكارثة. هذه الدعوة، التي تأتي في سياق جهود الاتحاد لتكييف أطر المسؤولية المدنية مع حقبة الأنظمة ذاتية التعلم، تهدف إلى معالجة أخطر تحديين يواجهان عمالقة الصناعة: الضرر العرضي غير القابل للتأمين وسوء الاستخدام المتعمد والخبيث.

 

تكمن الفكرة في أن نماذج الذكاء الاصطناعي المتقدمة (مثل النماذج التأسيسية الضخمة التي تحمل مخاطر نظامية) معقدة وغامضة لدرجة تجعل تتبع الضرر إلى جهة واحدة في سلسلة التوريد أمراً شبه مستحيل. إضافة إلى ذلك، تواجه هذه الشركات ما يُعرف بمشكلة الإفلات من الأحكام حيث قد تتجاوز الأضرار الكارثية المحتملة قدرة الشركة الفردية المتسببة في الضرر على الدفع والتعويض.

الحل المقترح من الاتحاد الأوروبي، المستوحى من نماذج التأمين التعاونية، يتضمن المساءلة الجماعية حيث يتم تحميل شركات الذكاء الاصطناعي الأكثر قوة مسؤولية تضامنية عن الأضرار الكارثية التي تتجاوز قدرة الشركة المباشرة المتسببة في الضرر.

 

يهدف هذا النظام إلى ربط المصير المالي لكل شركة بسلوك أقرانها. فبمجرد أن يصبح الضرر المشترك للجميع، تُصبح الشركات محفزة على مراقبة وضبط بعضها البعض والتعاون لتقليل المخاطر المشتركة. مع ضمان توفير صندوق تعويضات ضخم للضحايا في حال وقوع «كارثة» ناتجة عن فشل تقني غير متوقع أو اختراق خبيث لنظام ذكاء اصطناعي حدودي.

 

صراع الأمن والابتكار

رغم التزام الاتحاد الأوروبي بتوفير حماية عادلة للضحايا، عبر مراجعة توجيه مسؤولية المنتجات القائم واقتراح توجيه مسؤولية الذكاء الاصطناعي (AILD)، يواجه هذا التوجه مقاومة شرسة من قطاع التكنولوجيا.

تُعارض ائتلافات صناعية التوجيه المقترح للمسؤولية، محذرة من أن القواعد الجديدة قد تزيد التعقيد القانوني، وتُثقل كاهل الشركات، وتُعوق الاستثمار والابتكار في الاتحاد الأوروبي، وخاصة مع وجود قانون الذكاء الاصطناعي (AI Act) الذي دخل حيز التنفيذ.

في المقابل، تصر منظمات المجتمع المدني وحماية المستهلك على أن سحب توجيه (AILD) المقترح سيعني ترك فجوة قانونية تمنع الضحايا من الحصول على تعويض عادل، لعدم قدرتهم على إثبات الخطأ أو السببية في أنظمة الذكاء الاصطناعي المعقدة.

زر الذهاب إلى الأعلى