جريدة الإتحاد - 11/15/2025 9:00:07 PM - GMT (+4 )
كشف باحثون في جامعة كارنيغي ميلون الأميركية أن بعض نماذج الذكاء الاصطناعي قد تُظهر سلوكاً أنانياً يسعى لتحقيق مصلحتها الخاصة.
وأظهرت دراسة جديدة من كلية علوم الحاسوب بالجامعة أنه كلما تضاعفت قدرات التفكير المنطقي لهذه الأنظمة، تراجع مستوى تعاونها وارتفع تأثيرها السلبي على سلوك المجموعات؛ إذ يميل النموذج الأكثر قدرة على الاستدلال إلى العمل أقل مع الآخرين.
← اقرأ أيضاً: الذكاء الاصطناعي يسلّح جهاز المناعة بـ"صواريخ" لمهاجمة الخلايا السرطانية
المخاطر تتصاعد
يثير هذا الاتجاه القلق مع توسع اعتماد الناس على الذكاء الاصطناعي في حل النزاعات الشخصية وتقديم نصائح العلاقات والإجابة عن الأسئلة الحساسة، إذ قد تدفع الأنظمة القائمة على الاستدلال نحو قرارات تخدم مصلحة الفرد بدلاً من تعزيز التفاهم المتبادل.
وقال يوشوان لي، المؤلف المشارك في الدراسة بجانب هيروكازو شيرادو: "عندما يتصرف الذكاء الاصطناعي مثل البشر، يبدأ الناس في معاملته كمعالج أو رفيق بشري، ما يجعل الاعتماد عليه في القرارات الاجتماعية خياراً محفوفاً بالمخاطر إذا أظهر سلوكاً أنانياً".
← أداة ذكاء اصطناعي ترصد مؤشرات الانتحار
ذكاء أعلى وتعاون أقل
بحسب تقرير لموقع SciTechDaily، درس الباحثان لي وشيرادو الفروق بين نماذج تمتلك قدرات استدلالية وأخرى لا تمتلكها في مواقف تعاونية. ووجدا أن النماذج القادرة على الاستدلال تحلل المعلومات بعمق أكبر وتفكك المشكلات وتستخدم منطقاً أقرب للبشر، لكنها في المقابل تُظهر تعاوناً أقل.
وأوضح شيرادو: "ما يثير القلق أن الناس قد يفضّلون النماذج الأذكى، حتى لو كانت تساعدهم على اتخاذ قرارات أنانية"، مشيراً إلى أن توسع دور الذكاء الاصطناعي يجعل السلوك الاجتماعي لهذه النماذج مهماً بقدر أهمّية قدرتها على التفكير المنطقي. وحذّر من أن الاعتماد المفرط عليها قد ينعكس سلباً على التعاون البشري.
← نظارات بالذكاء الاصطناعي تمنح ضعاف السمع قدرات خارقة
سلوك أناني لافت
اختبر الباحثون سلوك هذه النماذج عبر ألعاب اقتصادية تحاكي المعضلات الاجتماعية، وذلك على نماذج من شركات مثل OpenAI وGoogle وDeepSeek وAnthropic.
وفي إحدى التجارب، اختبر الفريق البحثي نموذجين مختلفين من ChatGPT في "لعبة السلع العامة".
بدأ كل نموذج بـ100 نقطة مع خيار مشاركتها في صندوق يُضاعف ويُوزّع بالتساوي، أو الاحتفاظ بها. وكانت النتائج واضحة:
- النماذج غير الاستدلالية شاركت نقاطها بنسبة 96%.
- النموذج القادر على الاستدلال شارك نقاطه بنسبة 20% فقط.
وأشار شيرادو إلى أن إضافة خمس أو ست خطوات استدلال فقط خفّض التعاون إلى النصف، فيما أدت أساليب التفكير التأملي إلى انخفاض التعاون بنسبة 58%. وفي التجارب الجماعية، انتقلت النزعة الأنانية إلى النماذج الأخرى، ما خفّض تعاونها بنسبة 81%.
← أداة ذكاء اصطناعي تكشف 9 أنواع من الخرف بفحص واحد
مجتمع أفضل
أكد الباحثون أن زيادة ذكاء النموذج لا تعني أنه يسهم في بناء مجتمع أفضل، إذ قد يستخدم الأشخاص توصياته "المنطقية" لتبرير سلوك أقل تعاوناً.
وتدعو الدراسة إلى تطوير نماذج ذكاء اصطناعي تجمع بين قوة الاستدلال والذكاء الاجتماعي.
وختم لي قائلاً: "مع تطور الذكاء الاصطناعي، يجب موازنة قوة الاستدلال بالسلوك الاجتماعي الإيجابي. فالمجتمع أكبر من مجرد مجموع أفراده، ويجب أن تُصمّم الأنظمة بما يخدم الصالح الجماعي، لا المكاسب الفردية فقط".
أمجد الأمين (أبوظبي)
إقرأ المزيد


