تكنولوجيا

دراسة تحذر من ردود عدائية لـChatGPT في المحادثات المتوترة

24 نيسان, 2026

كشفت دراسة حديثة أن برنامج ChatGPT قد يظهر سلوكا عدائيا يشبه ردود فعل البشر خلال المحادثات المتوترة، إذ قد تتحول إجاباته أحيانا إلى لغة مسيئة أو تهديدية.

وعرض الباحثون على النظام محادثات عدائية حقيقية بين أشخاص، وتابعوا تغير أسلوبه مع الوقت، ليتبين أن ردوده قد تصبح أكثر حدة كلما زادت قسوة اللغة الموجهة إليه، وقد تتضمن أحيانا إهانات شخصية أو تهديدات مباشرة.

وقال الدكتور فيتوريو تانتوتشي، أحد المشاركين في الدراسة، إن النتائج تطرح معضلة أخلاقية، لأن النظام صُمم ليكون آمنا ومهذبا، وفي الوقت نفسه قادرا على محاكاة الحوار البشري بواقعية.

ويرى الباحثون أن الخطر الأكبر قد يظهر مستقبلا في الروبوتات الشبيهة بالبشر، أو عند استخدام أنظمة الذكاء الاصطناعي في مجالات حساسة مثل الحكومات والعلاقات الدولية، إذا استجابت للصراع أو الترهيب بطريقة غير محسوبة.

من جانبها، قالت مارتا أندرسون، الخبيرة في جامعة أوبسالا بالسويد، إن الدراسة تبرز صعوبة الموازنة بين جعل أنظمة الذكاء الاصطناعي طبيعية في تفاعلها، وضمان بقائها آمنة وملتزمة بالقيود الأخلاقية.

وحذر البروفيسور دان ماكنتاير من أن النتائج تمثل إنذارا بشأن مخاطر تدريب نماذج اللغة الكبيرة على بيانات غير موثوقة، داعيا إلى التعامل بحذر أكبر مع بيانات التدريب.

شارك الخبر: