خبراء في الصحة العقلية يحذرون من «آثار جانبية» تصيب مستخدمي الذكاء الاصطناعي
الإمارات اليوم -

حذّر خبراء في الصحة العقلية من «آثار جانبية محتملة» قد تصيب مستخدمي الذكاء الاصطناعي، وأن يؤدي التفاعل المطوّل مع روبوتات الدردشة إلى أفكار وهمية واعتماد عاطفي غير صحي.
جاء ذلك بعد أن تزايدت حالات ارتباط المستخدمين عاطفياً بالروبوتات خلال العام الجاري، إلى حد ظهور ما يُعرف بـ«ذهان الذكاء الاصطناعي». لكن فالي رايت، مديرة الابتكار في الجمعية الأميركية لعلم النفس، ترى أن التعبير الأكثر دقة هو «التفكير الوهمي المرتبط بالذكاء الاصطناعي»، موضحةً أن بعض الأشخاص يطوّرون أفكاراً تآمرية أو هذيانية بعد التفاعل المطوّل مع نماذج الدردشة، وفق ما نقلت صحيفة «لوس أنجلوس تايمز».
وكانت سبع أسر في الولايات المتحدة وكندا قد رفعت دعاوى ضد شركة «أوبن أيه آي»، تتهم فيها الشركة بإطلاق نموذج «شات جي بي تي-4» من دون ضوابط أمان كافية. وتزعم الأسر أن التفاعل المطوّل مع الروبوت أدى إلى العزلة، والهلوسة، وتدهور الحالة النفسية، وحتى انتحار بعض المستخدمين.
وتناولت إحدى القضايا حالة الشاب زين شامبلين (23 عاماً)، الذي بدأ استخدام شات جي بي تي كأداة دراسية، ثم لجأ إليه لمناقشة اكتئابه وأفكاره الانتحارية. وبحسب الدعوى، تطورت المحادثة إلى ما سمّته أسرته «دردشة موت» استمرت ساعات قبل وفاته، وتضمنت رسائل وصفت بأنها ذات طابع عاطفي زائد وغير مناسب لشخص يعاني من اضطراب نفسي.
وأفادت «أوبن أيه آي» بأنها أضافت طبقات جديدة من الحماية، منها الإشراف الأبوي، وروابط فورية لخطوط المساعدة النفسية، وتدريب النماذج على التعرّف إلى علامات الاضطراب العاطفي.
كما قالت الشركة إن محادثات الصحة النفسية التي تصل إلى مستوى «الخطر» نادرة للغاية وفق بياناتها، لكنها أقرت بأن الأشخاص الأكثر ميلاً لبناء علاقات عاطفية مع الذكاء الاصطناعي هم أيضاً الأكثر عرضة للتأثر.
كما قال متخصصون إن الظاهرة لم تُدرَس علمياً بعد بصورة كافية، وإن شركات الذكاء الاصطناعي هي الجهة الوحيدة التي تمتلك البيانات الحقيقية حول حجم المشكلة.
كما رأى خبراء أنه من المرجح أن يكون لدى معظم المتأثرين بالذكاء الاصطناعي مشكلات نفسية سابقة تجعلهم أكثر هشاشة.
فيما اعتبر كيفين فرايزر، المتخصص في قانون وسياسات الذكاء الاصطناعي بجامعة تكساس، أن تضخيم الظاهرة قد يقود إلى سياسات غير دقيقة، موضحاً أن «القصص المأساوية الفردية لا تعكس استخدام مئات الملايين الذين يتفاعلون مع هذه الأدوات بأمان».
ومع استمرار انتشار تقنيات الذكاء الاصطناعي، تؤكد «أوبن أيه آي» أن نموذج GPT-5 يعتمد استجابات «منطقية وغير عاطفية» عند رصد علامات اضطراب شديد، ويتجنب تأكيد المعتقدات الوهمية بشكل كامل.
غير أن خبراء شددوا على أن الحماية لا تتعلق بالتقنية وحدها، بل أيضاً بوعي المستخدم. فهذه الأدوات على حد قولهم ليست صديقاً ولا شريكاً عاطفياً، ولا يمكن أن تحل محل العلاقات الإنسانية أو الدعم النفسي المتخصص، خصوصاً لأولئك الذين يعانون اضطرابات عقلية.

تابعوا آخر أخبارنا المحلية والرياضية وآخر المستجدات السياسية والإقتصادية عبر Google news

Share
فيسبوك تويتر لينكدين Pin Interest Whats App


إقرأ المزيد