في تطور مثير داخل العاصمة الأمريكية واشنطن، ظهرت تقارير تفيد بأن أداة الذكاء الاصطناعي “كلود” التابعة لشركة Anthropic ساهمت في تحسين تقييمات استخباراتية خلال العملية العسكرية الأمريكية ضد إيران، وذلك بعد ساعات قليلة من إصدار الرئيس الأمريكي دونالد ترامب أمراً بوقف استخدام نماذج الشركة بحجة أنها تشكل تهديداً للأمن القومي.

استعانت القيادة المركزية الأمريكية بالحوسبة السحابية لتحليل البيانات بشكل فوري، حيث شمل ذلك تقييم الأهداف المحتملة ومحاكاة السيناريوهات الميدانية في الوقت الحقيقي خلال العملية العسكرية.

تضارب أخلاقيات مع البنتاجون

الخلاف بين الإدارة الأمريكية وشركة Anthropic لا يتعلق فقط بالجوانب التقنية بل يمتد إلى ما يعرفه البعض بـ”الذكاء الاصطناعي الدستوري”، وهو مفهوم يدمج القيم الأخلاقية والديمقراطية في تصميم النماذج الخاصة بالشركة، وخلال المفاوضات السابقة مع وزارة الدفاع، رفضت الشركة السماح باستخدام تقنيتها في اتخاذ قرارات القتل التلقائية دون إشراف بشري أو في برامج المراقبة الجماعية، وهو ما اعتبرته الإدارة تمرداً على متطلبات الأمن القومي.

تنافس شديد في سوق الذكاء الاصطناعي العسكري

في الوقت نفسه، زادت شركات منافسة من وجودها في المؤسسات الأمنية الأمريكية، حيث وسعت OpenAI نطاق استخدام نماذجها في البيئات الحكومية، كما ظهرت شركة xAI بأداة “Grok” التي توصف بأنها أقل تقييداً من حيث الضوابط الأخلاقية، ويدل التقرير على أن أنظمة الذكاء الاصطناعي أصبحت مدمجة بشكل عميق في بنى تحليل البيانات التابعة لشركات متعاقدة مع البنتاغون، مما يجعل التخلي عنها عملية معقدة قد تستغرق شهوراً.

سباق عالمي على “عقل” ساحة المعركة

استخدام الذكاء الاصطناعي في المجال العسكري ليس بالأمر الجديد، حيث أطلق البنتاغون مشروع Project Maven عام 2017 لتحليل تسجيلات الطائرات المسيرة، وفي إسرائيل، طورت وحدات عسكرية أنظمة تحليل بيانات واسعة النطاق داخل الجيش، وأبرزها وحدة 8200.