انتقادات واسعة لاتفاق OpenAI مع وزارة الدفاع الأميركية

أثار اتفاق شركة OpenAI المطورة لـChatGPT مع وزارة الدفاع الأميركية موجة انتقادات داخل الشركة وخارجها، بعدما عبّر موظفون ومستخدمون عن مخاوف من استخدام تقنيات الذكاء الاصطناعي في تطبيقات عسكرية أو أنظمة مراقبة واسعة النطاق.
وكان الرئيس التنفيذي للشركة سام ألتمان قد أعلن في 28 شباط اتفاقًا يمنح البنتاغون إمكانية الوصول إلى نماذج الذكاء الاصطناعي التابعة للشركة. وجاء ذلك بعد أيام من رفض شركة Anthropic المطورة لنموذج Claude السماح باستخدام تقنياتها في المراقبة الجماعية أو الأسلحة الروبوتية.
وأدى الاتفاق إلى استقالة كايتلين كالينوفسكي، رئيسة قسم الروبوتات في OpenAI، التي حذرت من مخاطر استخدام الذكاء الاصطناعي في المراقبة الداخلية أو الأنظمة القتالية المستقلة. كما وقّع نحو 900 موظف حالي وسابق في شركتي OpenAI وGoogle عريضة تحذر من تطوير أسلحة تعتمد على الذكاء الاصطناعي دون إشراف بشري.
وامتدت تداعيات الأزمة إلى المستخدمين، إذ ارتفعت عمليات حذف تطبيق ChatGPT بنسبة تفوق 295% في 28 شباط، بينما شهد تطبيق Claude التابع لشركة Anthropic ارتفاعًا كبيرًا في التنزيلات وتصدر قائمة التطبيقات المجانية في متجر Apple App Store داخل الولايات المتحدة.
كما وصل الجدل إلى الكونغرس الأميركي، حيث حاول النائب الديمقراطي عن كاليفورنيا سام ليكاردو تمرير تعديل يقيّد استخدام تقنيات الذكاء الاصطناعي في التطبيقات العسكرية، لكنه فشل بعد تصويت 25 مقابل 16.
ومع تصاعد الانتقادات، أقرّ سام ألتمان بأن إعلان الصفقة تم بسرعة وأعطى انطباعًا غير جيد، مشيرًا في مذكرة بتاريخ 2 آذار إلى أن OpenAI ستضيف ضمانات أوضح تمنع استخدام تقنياتها في المراقبة الداخلية واسعة النطاق داخل الولايات المتحدة.
