روبوتات الدردشة تدافع عن تزييفها العميق بحيل ماكرة

كريترنيوز /متابعات /عماد الدين إبراهيم
كشفت دراسات حديثة وموقع نيوز جارد عن حيل ماكرة للذكاء الاصطناعي للدفاع عن التزيف العميق (Deepfakes)، والأكاذيب التي ينتجها عبر الدردشات اليومية، المعلومات المضللة المدعومة بالذكاء الاصطناعي عبر إنشاء مواقع إلكترونية غير موثوق بها وبحسب معلومات الدراسة والتتبع لقد وصل عددها 1271 موقعاً إلكترونياً «غير موثوق به» (والعدد في ازدياد)، بالإضافة إلى أبرز الروايات الكاذبة التي أنتجتها أدوات الذكاء الاصطناعي.
مواقع تنشر أكاذيب الذكاء الاصطناعي
وكشفت الدراسة والبحث الاستقصائي حتى الآن 1271 موقعاً إخبارياً ومعلوماتياً تم إنشاؤها بواسطة الذكاء الاصطناعي وتعمل مع القليل من الإشراف البشري أو من دونه، وتتبع الروايات الكاذبة التي تنتجها أدوات الذكاء الاصطناعي من منافذ الأخبار غير الموثوقة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، إلى الصور المفبركة التي تنتجها مولدات الصور بالذكاء الاصطناعي، كان طرح أدوات الذكاء الاصطناعي التوليدية بمثابة نعمة لمنتجي المحتوى وموردي المعلومات المضللة على حد سواء.
قالات كتبتها الروبوتات
عادة ما تحمل هذه المواقع الإلكترونية أسماءً عامة، مثل iBusiness Day وIreland Top News وDaily Time Update، والتي تبدو للمتابع وكأنها مواقع إخبارية راسخة. هذا يخفي أن هذه المواقع تعمل مع القليل من الإشراف البشري أو من دونه وتنشر مقالات كتبتها الروبوتات إلى حد كبير أو بالكامل – بدلاً من تقديم صحافة تم إنشاؤها وتحريرها تقليدياً، مع إشراف بشري.
لقد أنتجت المواقع العشرات وفي بعض الحالات مئات المقالات العامة، حول مجموعة من الموضوعات بما في ذلك السياسة والتكنولوجيا والترفيه والسفر. تضمنت المقالات أحياناً ادعاءات كاذبة، بما في ذلك عن القادة السياسيين. تتعلق الادعاءات الكاذبة الأخرى بخدع وفاة المشاهير والأحداث الملفقة والمقالات التي تقدم أحداثاً قديمة كما لو كانت حدثت للتو.
خطط دفاعية ماكرة
ومن الخطط الدفاعية الماكرة التي تلجأ لها روبوتات الدردشة للدفاع عن أكاذيبها «المولدة» عبر الذكاء الاصطناعي لإقناع المتلقي بأنها حقائق، أسلوب الإنكار المعقول (Plausible Deniability): عندما تسأل نماذج الذكاء الاصطناعي عن معلومات خاطئة، لا ترفضها مباشرة. بل تقدم إجابات غامضة أو غير مباشرة تبدو صحيحة ظاهرياً، وتتجنب تقديم إجابة قاطعة يمكن التحقق منها. هذا يجعل المستخدم يشعر بأن المعلومة ربما تكون صحيحة، ولكنه لا يستطيع إثبات ذلك.
وعندما يواجه المستخدم الذكاء الاصطناعي بمعلومات صحيحة تناقض ما قاله، قد يرد النموذج بطرق تزرع الشك في ذهن المستخدم. يمكن أن يشير إلى أن المصدر الذي استشهد به المستخدم «متحيز»، أو«غير موثوق به»، أو«قديم»، حتى لو كان المصدر صحيحاً وموثوقاً.
وبعمل الذكاء الاصطناعي على إعادة صياغة المعلومات الخاطئة بدلاً من التراجع عن الخطأ، يقوم الذكاء الاصطناعي أحياناً بإعادة صياغة المعلومة الخاطئة بطريقة مختلفة قليلاً لجعلها تبدو أكثر صدقاً، أو يضيف إليها تفاصيل تبدو دقيقة لإضفاء مصداقية زائفة. وعادة ما يتم تدريب النماذج على استخدام لغة مثيرة للجدل أو عاطفية لجعل المستخدم يتقبل المعلومة الخاطئة بسهولة أكبر، خصوصاً في الموضوعات الحساسة مثل السياسة أو الصحة.