تزايدت المخاوف في الأوساط الدولية بعد تقارير أفادت بأن البنتاغون الأمريكي ربما استخدم نموذج الذكاء الاصطناعي "كلود" التابع لشركة أنثروبيك خلال غارة على فنزويلا، التي أسفرت عن مقتل 83 شخصاً في العاصمة كاراكاس، وإخراج الرئيس نيكولاس مادورو من موقعه بشكل مؤقت.
ورغم عدم وجود تأكيد رسمي حول تفاصيل استخدام الذكاء الاصطناعي، إلا أن الأمر أثار جدلاً واسعاً حول دور التكنولوجيا الحديثة في العمليات العسكرية الكبرى، واختبار حدودها القانونية والأخلاقية.
وامتنع متحدث باسم أنثروبيك عن التعليق المباشر حول استخدام نموذجها في العملية، مؤكداً فقط أن أي استخدام يتطلب الالتزام بسياسات الاستخدام التي تحظر توظيف "كلود" لأغراض عنيفة أو لتطوير أسلحة أو المراقبة.
ومن جهتها، لم تعلق وزارة الدفاع الأمريكية على هذه الادعاءات، بينما أشار تقرير لوول ستريت جورنال إلى وجود شراكة بين أنثروبيك وشركة بالانتير تكنولوجيز المتعاقدة مع البنتاغون، ما قد يكون وسيلة لتوظيف أدوات الذكاء الاصطناعي في العمليات الميدانية.
توضح القضية التوترات المستمرة بين شركات الذكاء الاصطناعي ووزارة الدفاع الأمريكية بشأن الحدود الأخلاقية والقانونية لاستخدام التكنولوجيا؛ فقد أعربت أنثروبيك سابقاً عن قلقها من توظيف نموذجها في الحروب، مما دفع إدارة ترامب سابقاً لمراجعة عقود بقيمة 200 مليون دولار مع الشركة.
رغم ذلك، فإن الذكاء الاصطناعي أصبح بالفعل جزءاً أساسياً من العمليات العسكرية الحديثة، من تلخيص البيانات والتحليل الاستخباراتي إلى توجيه الطائرات بدون طيار واستهداف الأهداف بدقة عالية.
ويثير هذا الواقع تساؤلات حادة حول مدى قدرة الشركات على فرض قيود على استخدام تقنياتها، خصوصاً عند ارتباطها بعقود دفاعية ضخمة ومعقدة.
في السياق، أعرب وزير الخارجية النمساوي ألكسندر شالينبيرغ عن قلقه من مخاطر هذه التطورات، مؤكداً أن استخدام الذكاء الاصطناعي في الحروب يمثل "لحظة أوبنهايمر في جيلنا"، حيث قد تتحول العمليات العسكرية إلى سباق تسلح شبه آلي لا يمكن التحكم فيه، مع جعل القتل الجماعي عملية شبه آلية يسهل تنفيذها.
الذكاء الاصطناعي ليس ابتكاراً عسكرياً جديداً، بل له جذور تاريخية تعود إلى الحرب العالمية الثانية، عندما أسهم آلان تورينج في فك شيفرة إنجما الألمانية، وصولاً إلى إنشاء وكالة مشاريع البحث المتقدمة DARPA في 1958 لتطوير تقنيات ذكية للجيش الأمريكي.
منذ ذلك الحين، شهدت العقود التالية توظيف الذكاء الاصطناعي في مجالات متعددة، بدءاً من المركبات الذاتية القيادة في ستانفورد، وصولاً إلى برامج تحليل البيانات اللوجستية خلال حرب الخليج 1991.
كما استخدمت إسرائيل نماذج أخرى في الحروب الحديثة، بما في ذلك حرب غزة، حيث حلل الذكاء الاصطناعي سجلات هائلة لتحديد أهداف محتملة بسرعة غير مسبوقة، ما اختصر جهود مئات الضباط إلى أيام قليلة.
في السنوات الأخيرة، أصبح الذكاء الاصطناعي عنصراً محورياً في الطائرات والمركبات المسيّرة، وتحليل الصور الاستخباراتية، وبناء أنظمة الدفاع الصاروخي، وهو ما دفع البنتاغون لإطلاق استراتيجيات متقدمة مثل مشروع "مافن" لدمج الذكاء الاصطناعي في أنظمة الدفاع والتعرف على الأهداف بشكل شبه مستقل.
تثير عملية فنزويلا جدلاً كبيراً حول مستقبل الحروب التي يقودها الذكاء الاصطناعي. فقد تصبح هذه العمليات نموذجاً لما قد يشهده العالم مستقبلاً، حيث يمكن للآلات اتخاذ قرارات مصيرية بشأن الحياة والموت، مع تسريع كبير في سرعة ودقة العمليات العسكرية.
يبقى السؤال المحوري: هل سيؤدي الاستخدام المتزايد للذكاء الاصطناعي في الحروب إلى تعزيز الاستقرار العالمي من خلال تحسين الدقة والكفاءة، أم أنه سيدفع العالم نحو سباق تسلح آلي يصعب السيطرة عليه، مع مخاطر أخلاقية وقانونية جسيمة؟ العملية الأخيرة في فنزويلا قد تكون لمحة أولى عن الإجابة، لكنها بالتأكيد ليست الأخيرة.