«دوريتوس في الأصفاد».. كيف خان الذكاء الاصطناعي طالباً؟

كريترنيوز/ متابعات /عماد الدين إبراهيم
حادثة توقيف الطالب تاكي ألين في ولاية ماريلاند بسبب كيس رقائق «دوريتوس» تعكس تحولاً مقلقاً في الاعتماد على الذكاء الاصطناعي في الأمن. لقد كشفت هذه الواقعة عن أنظمة A.I. غير الناضجة التي يمكن أن تترجم خطأً تقنياً بسيطاً (كيس رقائق) إلى أزمة تهدد سلامة الطلاب (توقيف وتقييد بالأصفاد). هذه الحادثة ليست فريدة، بل تندرج ضمن سلسلة من الأخطاء المماثلة التي تثير تساؤلات حول الثقة المطلقة في الآلة، وتتطلب مراجعة جذرية لردود أفعال المطورين والمشغلين.
«دوريتوس» إلى الأصفاد
أخطأ نظام الكشف عن الأسلحة المعتمد على الذكاء الاصطناعي، والمطور من قبل شركة Omnilert، في مدرسة كينوود الثانوية بمقاطعة بالتيمور، حيث اعتقد أن كيس رقائق كان يحمله الطالب تاكي ألين هو «سلاح ناري». حيث رصد النظام جسماً غير واضح على أنه «تهديد محتمل» (سلاح ناري). وبالرغم من أن فريق الأمن أرسل لاحقاً مراجعة وألغى الإنذار، إلا أن مديرة المدرسة أبلغت ضابط الأمن، الذي استدعى الشرطة المحلية التي قامت بتوقيف الطالب وتقييده.
قصور تقني خطير
تاكي ألين أكد أن التوقيف حدث لمجرد حمله كيس الرقائق، ما يدل على السرعة المفرطة والاعتماد على إنذار الآلة دون تدقيق فوري ومسؤول. فيما اعتذرت الشركة عن الحادثة، لكنها أصرت على أن النظام «عمل وفقاً للإجراءات المحددة»، ما يسلط الضوء على أن الإجراءات المحددة نفسها قد تكون قاصرة وتؤدي إلى نتائج خاطئة وخطيرة.
البيانات الخاطئة
تؤكد هذه الحادثة أن أخطاء الذكاء الاصطناعي التي تنطوي على مخاطر وتهديدات جسدية أو قانونية تتزايد، لا سيما في مجالات الرؤية الحاسوبية والأنظمة الأمنية. ومن أبرز الحوادث المماثلة التي تؤكد أن الذكاء الاصطناعي يمكن أن يعطي بيانات تشكل خطراً.
تُظهر الحوادث المتكررة أن ردود أفعال الشركات المطورة للذكاء الاصطناعي، مثل الإصرار على أن «النظام عمل وفقاً للإجراءات المحددة»، لم تعد كافية. تتطلب هذه المخاطر استجابة أكثر مسؤولية وتطوراً ويجب تصميم أنظمة الأمن بالذكاء الاصطناعي ليس للعمل باستقلالية مطلقة، بل لتقديم تنبيهات ذات «درجة ثقة». إذا كانت ثقة النظام منخفضة (كما في حالة كيس «دوريتوس»)، يجب أن تكون الاستجابة البشرية إلزامية ولا تقتصر على مجرد استدعاء الشرطة.
التدقيق الأخلاقي
بات التدقيق الأخلاقي والحيادية أمراً حتمياً ويجب على المطوّرين إجراء تدقيق منتظم لبيانات التدريب لضمان أنها لا تحتوي على تحيز عنصري أو ثقافي يمكن أن يؤدي إلى تحديد خاطئ وغير عادل، خاصة في المدارس والمجتمعات المتنوعة.
كما يجب تدريب المشغلين (مديري المدارس، ضباط الأمن) على تحدي قرار الآلة إذا كان يبدو غير منطقي، وتأخير الاستجابات الخطيرة (كالتوقيف) حتى يتم التحقق البشري الكامل.
لقد أكدت حادثة ماريلاند أن «الذكاء الاصطناعي» ليس مجرد تقنية تُستخدم لتحسين الكفاءة، بل هو نظام يمكن أن يهدد حريات الأفراد وسلامتهم. ويجب أن تكون الأولوية القصوى للمطورين والمشغلين هي التحقق البعلي من أي إنذار خطير، وعدم السماح لـ«خطأ في البيانات» أن يتحول إلى «انتهاك للحقوق».