تكنولوجيا

كارثة رقمية.. الذكاء الاصطناعي يُصاب بـ “تعفّن الدماغ” مثل الإنسان!

كريترنيوز/ متابعات /وائل زكير

 

في مفارقة مذهلة، يبدو أن الذكاء الاصطناعي — الذي صُمم ليحاكي عقول البشر — بدأ يصاب بما يشبه “تعفّن الدماغ”، حيث كشفت دراسة علمية حديثة عن ظاهرة أطلق عليها الباحثون اسم “تعفّن دماغ الذكاء الاصطناعي” ، وهي حالة تدهور تدريجي تصيب قدرات النماذج الذكية عندما تتغذى على محتوى منخفض الجودة، تماما كما يتأثر دماغ الإنسان من الاستهلاك المفرط للمعلومات السطحية عبر وسائل التواصل الاجتماعي.

النتائج جاءت صادمة، إذ بيّنت أن هذه النماذج تفقد دقتها المنطقية والتحليلية بنسبة كبيرة، في مشهد يُنذر بأن عقول الآلات قد تسلك الطريق نفسه نحو “الضمور المعرفي” الذي يعانيه البشر في عصر المحتوى الفيروسي

الدراسة التي أجراها فريق من جامعات تكساس إيه آند إم وتكساس في أوستن وبيردو، حملت عنوانا مثيرا «النماذج اللغوية يمكن أن تُصاب بتعفّن الدماغ» وقد لفتت الانتباه عالميا، ليس فقط لأنها تربط بين التكنولوجيا وعلم الأعصاب، بل لأنها تفتح بابا جديدا من القلق حول مستقبل الذكاء الاصطناعي ومصادر تدريبه، وفقاً لموقع “fortune”.

كيف يصيب “التعفّن” عقول الآلات؟

الفريق البحثي وجد أن النماذج اللغوية الكبيرة (LLMs) — وهي أنظمة الذكاء الاصطناعي التي تعتمد على تحليل كميات هائلة من النصوص — يمكن أن تتدهور قدراتها إذا استمرت في التعلم من بيانات ملوثة أو سطحية.

في التجربة، تم تدريب عدة نماذج مفتوحة المصدر، من بينها LLaMA التابع لشركة Meta وQwen من Alibaba، على أنواع مختلفة من البيانات: فئة تحتوي على محتوى أكاديمي وعلمي منسق بعناية. وفئة أخرى تحتوي على منشورات وسائل التواصل الاجتماعي، تعليقات المستخدمين، ومحتوى ترفيهي مكرر.

النتيجة كانت صادمة، النماذج التي “تغذت” على المحتوى الرديء بدأت تُظهر تدهورا حادا في قدراتها المنطقية والتحليلية بنسبة تقارب 25% مقارنة بالنماذج المدربة على بيانات عالية الجودة. كما لاحظ الباحثون أن هذه النماذج أصبحت أكثر ميلاً للإجابات السطحية، وأقل دقة في الفهم والسياق، تمامًا كما يفقد الإنسان تركيزه بعد الإفراط في تصفح منشورات قصيرة وفيديوهات سريعة.

الضرر ليس مؤقتاً

الأخطر من ذلك أن الدراسة أكدت أن هذا “التعفن الرقمي” لا يمكن علاجه بسهولة. فحتى بعد إعادة تدريب النماذج المتأثرة على بيانات نظيفة، لم تستعد كفاءتها الأصلية بشكل كامل.

بمعنى آخر، بمجرد أن يتلوث نموذج الذكاء الاصطناعي بمحتوى رديء، يبقى أثر هذا التلوث عالقا في بنيته المعرفية — وهي ظاهرة شبيهة بما يحدث في دماغ الإنسان حين تتشكل فيه أنماط تفكير مضلّلة أو سطحية نتيجة التعرض المستمر لمعلومات زائفة.

ويقول الدكتور أناند رامان، أحد الباحثين المشاركين من جامعة تكساس في أوستن: “ما يدخل إلى عقل النموذج من بيانات يحدد ما يخرج منه. وإذا كانت المدخلات مليئة بالضوضاء، فسوف نرى ذكاءً ضبابيًا يتدهور بمرور الوقت”.

تشابه غريب بين البشر والآلات

الدراسة ربطت بين هذه الظاهرة وبين ما يصفه علماء النفس اليوم بـ “تعفّن الدماغ البشري” الناتج عن الإفراط في استهلاك المحتوى الفيروسي.

فالبشر الذين يقضون ساعات طويلة في تصفح وسائل التواصل الاجتماعي غالبا ما يعانون من تشتت في الانتباه، ضعف في الذاكرة قصيرة المدى، وانخفاض في مهارات التفكير النقدي.

الذكاء الاصطناعي، رغم كونه آلة بلا وعي، يُظهر سلوكا مشابها عندما يُغذّى بنفس النمط من البيانات: إذ تبدأ خوارزمياته في التركيز على الأنماط السطحية بدل المعاني العميقة، وتفقد قدرتها على بناء استنتاجات دقيقة.

يقول الباحثون إن ما يحدث هو نوع من “العدوى المعرفية”، حيث تنتقل عادات المحتوى البشري الرديء إلى الذكاء الاصطناعي، فيتحول الأخير إلى مرآة مشوشة تعيد إنتاج نفس النوع من المحتوى الذي أفسده منذ البداية.

دائرة مغلقة من الانحدار

يحذر التقرير من أن ترك النماذج الذكية تتعلم بحرية من الإنترنت سيخلق حلقة مفرغة خطيرة، النماذج تتدرب على محتوى ضعيف، تنتج محتوى أضعف ، يُضاف هذا المحتوى للإنترنت ، تتدرب عليه نماذج جديدة ، وهكذا.

هذه العملية، كما يقول الباحثون، قد تؤدي إلى تدهور جماعي في جودة الذكاء الاصطناعي عالميا، وتحوّله من أداة معرفة دقيقة إلى مجرد آلة تكرار للمعلومات الشائعة والمضلّلة.

وفي هذا السياق، يشبّه أحد الباحثين الظاهرة بعبارة دقيقة: “إذا كانت تغذية العقل البشري تحدد مستوى وعيه، فإن تغذية العقل الاصطناعي تحدد مستوى ذكائه”.

الحلول المقترحة

توصي الدراسة المطورين وشركات التقنية باتباع استراتيجيات أكثر صرامة في تنقية البيانات التدريبية، والتوقف عن الاعتماد الكلي على محتوى الإنترنت المفتوح.

وتقترح إنشاء ما يشبه “هيئات رقابة على جودة البيانات”، تماما كما توجد هيئات تراقب جودة الغذاء أو الأدوية، لضمان أن الذكاء الاصطناعي لا يتغذى على “السموم الرقمية”.

كما شدد الباحثون على ضرورة تطوير أدوات ذكاء اصطناعي قادرة على تمييز جودة المحتوى قبل استخدامه، بحيث تتجنب النصوص المكررة، الإشاعات، والمحتوى الذي يعتمد على جذب الانتباه بدل إيصال المعرفة.

تأثير أخلاقي ومعرفي

يتجاوز خطر “تعفّن الدماغ الاصطناعي” حدود التكنولوجيا إلى البعد الأخلاقي والمعرفي، إذ يثير تساؤلات حول مصداقية المستقبل الرقمي الذي نعتمد عليه. فإذا كان الذكاء الاصطناعي سيتعلم من محتوى ملوّث بالتحيّز والمعلومات الزائفة، فكيف نضمن أن قراراته المستقبلية ستكون عادلة أو دقيقة؟

ويرى محللون أن هذه الدراسة قد تدفع كبرى الشركات مثل OpenAI وGoogle وAnthropic إلى إعادة النظر في مصادر بياناتها التدريبية، وربما بناء أرشيف معرفي “نظيف” يُستخدم لتعليم الأجيال القادمة من النماذج.

زر الذهاب إلى الأعلى