مكالمات مزيفة وخسائر بالملايين.. كيف يخدع الذكاء الاصطناعي موظفي الشركات؟

كريترنيوز /متابعات /وائل زكير
أصبحت تقنيات الذكاء الاصطناعي أداة جديدة للاحتيال على الشركات حول العالم، من خلال إنشاء مكالمات ومقاطع فيديو مزيفة تحاكي أصوات وصور الرؤساء التنفيذيين. يستخدم المحتالون هذه التقنية لخداع الموظفين وجعلهم ينفذون أوامر تحويل أموال أو مشاركة معلومات حساسة دون تحقق. تعتمد هذه الهجمات على عنصرين نفسيين رئيسيين وهما السلطة والضرورة، مما يجعل الضحية تتصرف بسرعة دون التفكير.
ولم يعد انتحال هوية الرؤساء التنفيذيين عبر تقنيات الذكاء الاصطناعي مجرد فكرة مستقبلية من أفلام الخيال العلمي، بل تحول إلى واقع يهدد الشركات عالمياً. وفي تقرير نشرته صحيفة “وول ستريت جورنال” كشف عن تصاعد خطير في عمليات الاحتيال باستخدام تقنيات “Deepfake” أو “التزييف العميق” التي تحاكي أصوات وصور كبار التنفيذيين لخداع الموظفين وسرقة ملايين الدولارات.
كيف تجري عمليات الاحتيال؟
المهاجمون يعتمدون على تسجيلات صوتية ومرئية تم إنشاؤها عبر الذكاء الاصطناعي لتمثيل وجوه وأصوات الرؤساء التنفيذيين بدقة عالية. في سيناريو معتاد، يتلقى موظف اتصالاً عاجلاً عبر مكالمة فيديو أو صوت من “مديره”، يطلب فيه تحويل أموال فورية أو مشاركة بيانات حساسة.
يبدو الصوت طبيعياً و الصورة متزامنة بشكل واقعي، وعنصر الاستعجال والسلطة يجعل الضحية تستجيب دون تحقق إضافي.
أرقام تكشف حجم الأزمة
في الولايات المتحدة وحدها، أُبلغ عن أكثر من 105,000 هجوم Deepfake في عام 2024.
الخسائر المباشرة خلال الربع الأول من 2025 فقط تجاوزت 200 مليون دولار.
في إحدى أبرز القضايا، خسر موظف في شركة الهندسة البريطانية Arup نحو 25 مليون دولار بعد أن صدّق مكالمة فيديو مزيّفة من “إدارة الشركة”.
لماذا تنجح هذه الهجمات؟
تجمع هذه الخدع بين عنصرين نفسيين قويين:
1. السلطة: الضحية يظن أنه يتلقى أوامر مباشرة من شخصية ذات نفوذ.
2. الضرورة: الطلب غالبًا ما يكون عاجلاً ومصحوبًا بتحذير من “عواقب التأخير”.
هذا المزيج يُضعف التفكير النقدي ويجعل الموظفين يتصرفون بسرعة دون التحقق من صحة الطلب.
كيف تواجه الشركات التهديد؟
الخبراء يؤكدون أن الدفاع لا يعتمد على التكنولوجيا فقط، بل يحتاج إلى نهج متعدد الطبقات:
بروتوكولات تحقق داخلية
عدم تنفيذ أي تحويل مالي إلا بعد تحقق عبر قناتين مختلفتين.
تدريب الموظفين
رفع الوعي بخدع الـ Deepfake وكيفية التعامل مع طلبات مشبوهة.
حلول تقنية
تطوير أدوات لرصد المحتوى المزيّف بالاعتماد على الذكاء الاصطناعي المضاد.
ما وراء الأرقام
يشير محللون إلى أن كثيرا من الشركات التي تتعرض لهذه الهجمات لا تعلن عنها خوفاً من الإضرار بسمعتها أو التأثير على ثقة عملائها. وهو ما يعني أن الأرقام الحقيقية قد تكون أكبر بكثير مما يظهر في الإحصاءات الرسمية.
تقنيات الذكاء الاصطناعي فتحت الباب أمام موجة جديدة من الاحتيال يصعب اكتشافها، حيث لم يعد الأمر يقتصر على رسائل البريد الاحتيالية التقليدية، بل أصبحنا نواجه مكالمات ومقاطع فيديو تبدو واقعية تماماً، لذلك فالدرس الأهم للشركات هو أن الثقة لم تعد تكفي، والتحقق الإضافي أصبح ضرورة وجودية.