تكنولوجيا

باحث يدفع “ChatGPT” إلى اعتراف زائف في تجربة مثيرة للجدل

11 أيار, 2026

أثار الباحث والمبرمج بول هيتون، من جامعة بنسلفانيا الأميركية، جدلًا بعدما كشف عن تجربة نجح خلالها في دفع روبوت المحادثة “ChatGPT” إلى الاعتراف بجريمة وهمية يستحيل عليه تنفيذها تقنيًا.

وأوضح هيتون أنه اتهم النموذج زورًا باختراق بريده الإلكتروني وإرسال رسائل باسمه، رغم أن “ChatGPT” لا يملك صلاحية الوصول إلى حسابات المستخدمين. وبعد إنكار أولي، واصل الباحث استجوابه لأيام مستخدمًا أساليب ضغط وإيحاء بوجود أدلة، قبل أن يحصل في النهاية على “اعتراف” من النموذج.

وبحسب صحيفة “ذا إنترسبت”، اعتمد هيتون على أسلوب يعرف باسم “تقنية ريد”، وهي طريقة استجواب تقوم على الضغط النفسي والإيحاء بوجود أدلة، وتعرضت لانتقادات بسبب ارتباطها باعترافات كاذبة أدت إلى إدانة أبرياء.

ويرى خبراء أن التجربة تفتح نقاشًا حول هشاشة الاعترافات المنتزعة تحت الضغط، سواء من البشر أو من أنظمة الذكاء الاصطناعي، كما تثير تساؤلات بشأن استخدام محادثات الذكاء الاصطناعي كأدلة في القضايا القانونية.

وأكد مختصون أن نماذج الذكاء الاصطناعي لا تدرك الوقائع فعليًا، بل تولد ردودها بناء على السياق، ما يجعل مخرجاتها قابلة للتأثر بالضغط والصياغة.

شارك الخبر: