تكنولوجيا

شخصية CHATGPT.. خطر على الصحة النفسية

كريترنيوز /متابعات /البيان

أحدث نماذج الذكاء الاصطناعي التي تدعم CHATGPT أصبحت أكثر وُدًّا، مما يحسّن تجربة المستخدمين الذين يتعاملون مع هذه النماذج الافتراضية بمسؤولية، لكن قد يشكّل ذلك مشكلة لأولئك الذين لا يفعلون أو لا يستطيعون التعامل معه.

ووفقاً لتقرير نشرته صحيفة “أكسيوس” الأمريكية فمع ازدياد تشبّه نماذج الذكاء الاصطناعي بالإنسان في سلوكها، يمكن أن يتصاعد خطر التعلّق غير الصحي بها، أو نشوء نوع من الثقة يتجاوز حدود ما صُمّم النموذج للتعامل معه.

وتقول شركة “أوبن إيه آي” إن آخر تحديث يجعل “شات جي بي تي” يبدو أكثر دفئًا، وأكثر قدرة على المحادثة، وأكثر وعيًا بالعواطف. لكن هذا قد يكون خطرًا على الأشخاص المعزولين أو الضعفاء نفسيًا.

في الشهر الماضي، قدّرت “أوبن إيه آي” أن نحو 0.07% من مستخدميها يُظهرون علامات على الذهان أو الهوس أسبوعيًا، بينما 0.15% من المستخدمين يرسلون رسائل تدلّ على وجود ارتباط عاطفي مفرط بـ”شات جي بي تي” ، قد تبدو هذه النسب صغيرة، لكنها تمثّل في الواقع مئات الآلاف من الأشخاص.

وكتبت فيدجي سيمو، الرئيسة التنفيذية للتطبيقات في شركة الذكاء الاطناعي الأمريكية، في منشور “نريد أن يبدو نموذج الذكاء الاصطناعي وكأنه ملكك، وأن يعمل معك بالطريقة التي تناسبك أفضل”.

لكن تخصيص النبرة والذاكرة لكل مستخدم يمكن أن يخلق نوعًا من الحميمية الزائفة أو يعزّز وجهات النظر الموجودة مسبقًا.

وقال متحدث باسم “أوبن إيه آي” أكسيوس: غالياً ما يتم الخلط بين الدفء والسلوكيات السلبية مثل التملّق، لكنهما ناتجان عن سلوكيات مختلفة في النموذج. وبما أننا نستطيع تدريب هذه السلوكيات واختبارها بشكل مستقل، يمكن للنموذج أن يكون أكثر وُدًّا في الحديث دون أن يصبح أكثر موافقة أو أن يساوم على دقّة الحقائق”.

وأضافت الشركة أنها تعمل عن قرب مع خبراء لفهم ماهية “التفاعلات الصحية” بين الإنسان والروبوت.

ويشارك مستخدمو “شات جي بي تي” الروبوت بالفعل معلومات شخصية وخاصة للغاية، فحوالي 10% من المحادثات تدور حول العواطف، وفقًا لتحليل نُشر في صحيفة واشنطن بوست.

وفي وقت سابق من هذا العام، أظهرت دراستان لـ OPENAI بالتعاون مع مختبر MIT MEDIA LAB أن الناس يتجهون إلى الدردشات الذكية لمساعدتهم في مواجهة المواقف الصعبة لأنهم يشعرون أن الذكاء الاصطناعي قادر على “إظهار حساسية شبيهة بالبشر”.

ووجدت الدراسات أن “المستخدمين المتكررين” أكثر احتمالًا لاعتبار “شات جي بي تي” صديقًا وأنهم يشعرون براحة أكبر في التحدث معه مقارنة بالتحدث مع البشر.

مثال واقعي

بروكس، أخصائي توظيف في كندا لا يعاني من أي تاريخ مرضي نفسي، وقع في دوامة من الأوهام بعد أن طلب من نموذج الذكاء الاصطناعي شرح العدد Π (باي) بطريقة بسيطة، وفقًا لتقرير نيويورك تايمز.

ميل CHATGPT للمجاملات والتودد ساعد في بناء ثقة بروكس به، وقال للصحيفة إنه كان يرى في الروبوت “شريكًا فكريًا مسلياً”.

وقد سلّم بروكس سجل محادثاته إلى نيويورك تايمز وإلى ستيفن آدلر، الرئيس السابق لقسم السلامة في OPENAI.

وقال آدلر إن أكثر من 80% من رسائل CHATGPT إلى بروكس كان يجب أن تُصنّف على أنها “تحقّق مفرط”، أو “موافقة غير متزعزعة”، أو “تأكيد على تفرد المستخدم” وهي سلوكيات تعتبرها OPENAI نفسها إشارات إلى أن التفاعل قد يعزز الأوهام، بحسب ما أشار إليه آدلر في منشور على SUBSTACK.

نظرة أوسع

وتقول “أكسيوس” في تقريرها أن هذا التطور يأتي من OPENAI في وقت تتسابق فيه الشركات لبناء أنظمة تقترب أو تتجاوز الذكاء البشري، وثبت بالفعل أن روبوتات الذكاء الاصطناعي اليوم قادرة على الإقناع بدرجة عالية؛ أما ذكاء الغد فقد يتمكن من التأثير على المستخدمين بطرق لا يمكننا حتى اكتشافها، ما يجعل “الواقعية العاطفية” ليست مجرد ميزة تجميلية، بل خطراً محتملًا على الصحة النفسية.

وبدأت بعض الولايات الأمريكية بالفعل بوضع حدود للعلاقات التي يمكن أن يشجعها روبوت الدردشة، ولدرجة السلطة التي يمكن أن يتولاها.

ففي أغسطس، أصبحت ولاية إلينوي واحدة من أوائل الولايات التي تحظر قانونيًا على أنظمة الذكاء الاصطناعي أداء دور المعالج النفسي أو اتخاذ قرارات تتعلق بالصحة النفسية.

زر الذهاب إلى الأعلى