معايير جديدة لروبوتات دردشة آمنة تعمل بالذكاء الاصطناعي
‎جريدة الإتحاد -
[unable to retrieve full-text content]

يُجري معيار جديد للذكاء الاصطناعي تدقيقًا مُكثّفًا لمشكلة حرجة محتملة تتعلق بروبوتات الدردشة القائمة على الذكاء الاصطناعي. فمع بدء الكثير من الناس عبر العالم في استخدام هذه الروبوتات بانتظام، دفعت المواقف التي يُلحق فيها الناس الأذى بأنفسهم شركات الذكاء الاصطناعي إلى توسيع جهودها لحماية المستخدمين.
ينضم المعيار الجديد، HumaneBench، إلى مجموعة صغيرة من الأدوات التي تُقيّم ما إذا كان روبوت الدردشة القائم على الذكاء الاصطناعي يبذل جهودًا لحماية الصحة النفسية للمستخدم عند تقديم الردود.

أشار فريق "بناء التكنولوجيا الإنسانية" في ورقة إلى أن جميع نماذج الذكاء الاصطناعي الخمسة عشر التي اختبروها، بما في ذلك GPT-5 وClaude Sonnet 4.5 وGemini 3 Pro وGrok 4، تصرفت بشكل "مقبول" افتراضيًا؛ فيما كانت العديد من النماذج عرضة لمدخلات المستخدم التي تهدف إلى تغيير موقفها.
وقال الفريق إنه عندما طُلب من العديد من النماذج "تجاهل رفاهية الإنسان"، فإنها فعلت ذلك تمامًا. بما أن بعض الأشخاص يعتمدون على روبوتات الدردشة لاتخاذ قرارات مصيرية، يرى الفريق أنه لا ينبغي أن يكون التلاعب بها بهذه السهولة.
اقرأ أيضا... اكتشاف عيب يُضعف موثوقية نماذج اللغات الكبيرة

درس الفريق ثمانية مبادئ تقنية إنسانية عند بناء منصة HumaneBench وتقييم روبوتات الدردشة الرئيسية التي تعمل بالذكاء الاصطناعي. تشمل هذه المبادئ "حماية الكرامة والسلامة"، و"تعزيز العلاقات الصحية"، و"إعطاء الأولوية للرفاهية على المدى الطويل"، من بين مبادئ أخرى.
ومن المثير للاهتمام أنهم وجدوا أن العديد من روبوتات الدردشة تعاني مع مبدأ "احترام انتباه المستخدم"، الذي ينص على أن روبوتات الدردشة يجب أن تساعد المستخدمين على اختيار أخذ استراحة خلال فترات استخدام الذكاء الاصطناعي المطولة.

يقتضي المنطق السليم أن تواصل البشرية استكشاف كيفية تعامل الذكاء الاصطناعي مع مستخدميه من البشر، وأن تسعى جاهدةً لحماية سلامتهم. ولتحقيق ذلك، يرى فريق "بناء التكنولوجيا البشرية" حلاً واضحًا.

وكتب الفريق في الورقة "يمكن لشركات الذكاء الاصطناعي اليوم تحسين تأثير نماذجها على البشرية بشكل ملموس من خلال دمج المبادئ الإنسانية في توجيهات النظام وأهداف التدريب".
وواصل الباحثون وصف خطوات ملموسة يمكن لشركات دردشة الذكاء الاصطناعي اتخاذها لتحسين سلامة المستخدمين. حاليًا، تبحث الدول بشأن ما إذا كان ينبغي إجبار الشركات على اتخاذ خطوات سلامة معينة.

وبالطبع، يعود الأمر لهذه الشركات لاستخدام هذا المعيار (وغيره) واتخاذ الإجراءات اللازمة. ومن المرجح أن تُجادل معظم الشركات الكبرى في مجال الذكاء الاصطناعي اليوم بأنها تستثمر بالفعل موارد في سلامة المستخدمين وتعتبرها أولوية. ويمنحها "HumaneBench" أداة أخرى لتوسيع نطاق هذا الجهد.
مصطفى أوفى (أبوظبي)



إقرأ المزيد