الحرس الثوري يعلن استهداف مكتب نتانياهو ومقر قائد القوات الجوية الإسرائيلية
شهدت الأيام التي سبقت الضربات الأمريكية والإسرائيلية على إيران توتراً لافتاً بين وزارة الدفاع الأمريكية (البنتاغون) وبعض كبرى شركات الذكاء الاصطناعي، في تطور يعكس تحولات عميقة في العلاقة بين التكنولوجيا المتقدمة والمؤسسة العسكرية الأمريكية، ويثير تساؤلات متزايدة حول مستقبل ما يُعرف بـ"الذكاء الاصطناعي الأخلاقي" في ساحات القتال.
وبحسب معطيات نُشرت اليوم دخل البنتاغون في مفاوضات حساسة مع شركة Anthropic المطورة لنظام الذكاء الاصطناعي "Claude"، بشأن طبيعة استخدام تقنيات الشركة داخل المؤسسة العسكرية الأمريكية، بحبسب "theconversation".
سعت شركة Anthropic إلى الحصول على ضمانات واضحة بأن تقنياتها لن تُستخدم في عمليات حساسة مثل المراقبة الداخلية داخل الولايات المتحدة أو تشغيل أنظمة أسلحة ذاتية بالكامل دون إشراف بشري مباشر.
غير أن هذا الموقف قوبل برد حاد من الإدارة الأمريكية، حيث أصدر الرئيس الأمريكي دونالد ترامب توجيهات إلى الوكالات الفيدرالية بالتوقف عن استخدام تقنيات الشركة، متهماً إياها بمحاولة فرض قيود سياسية وأيديولوجية على الجيش الأمريكي.
وقال ترامب إن إدارته "لن تسمح لشركة يسارية متطرفة بأن تملي على الجيش الأمريكي كيف يخوض حروبه".
وبعد ساعات من هذا القرار، أعلنت شركة OpenAI المنافسة – المطورة لنظام ChatGPT – توقيع اتفاق منفصل مع وزارة الدفاع الأمريكية، يسمح باستخدام أدواتها في "جميع الأغراض القانونية"، دون وضع قيود أخلاقية محددة على الاستخدام العسكري.
تأتي هذه التطورات في سياق سياسي وتنظيمي يشهد تغيرات متسارعة في الولايات المتحدة. فقد اتخذت إدارة ترامب في العام الماضي خطوة مثيرة للجدل عندما منعت الولايات الأمريكية من سن تشريعات لتنظيم الذكاء الاصطناعي، بحجة أن القيود التنظيمية قد تعيق الابتكار التكنولوجي.
وفي الوقت نفسه، عززت العديد من شركات التكنولوجيا علاقاتها مع الإدارة الأمريكية. إذ قدم عدد من كبار التنفيذيين في قطاع الذكاء الاصطناعي تبرعات مالية لصندوق تنصيب ترامب، من بينهم سام ألتمان، الرئيس التنفيذي لشركة OpenAI.
في المقابل، اتخذت شركة Anthropic موقفاً أكثر تحفظاً، إذ حذرت مراراً من مخاطر استخدام الذكاء الاصطناعي في أنظمة الأسلحة ذاتية التشغيل، مؤكدة أن هذه الأنظمة لا تزال غير موثوقة بما يكفي لاتخاذ قرارات القتل بشكل مستقل.
يعتمد تطوير تقنيات الذكاء الاصطناعي العسكرية بدرجة كبيرة على شركات القطاع الخاص، التي تمتلك معظم القدرات التقنية والخبرات البشرية في هذا المجال.
ومن أبرز الأمثلة على ذلك مشروع "مافن" (Project Maven) الذي أطلقته وزارة الدفاع الأمريكية عام 2017 بهدف توظيف تقنيات التعلم الآلي وتحليل البيانات الضخمة في عمليات الاستخبارات العسكرية.
وأشار مجلس الابتكار الدفاعي الأمريكي في تقرير سابق إلى أن معظم البيانات والخبرات والكوادر المتخصصة في الذكاء الاصطناعي موجودة خارج المؤسسات الحكومية، داخل الشركات التكنولوجية الكبرى.
لكن مع تصاعد التنافس الجيوسياسي، بدأت المعايير الأخلاقية التي كانت تحكم تطوير هذه التقنيات تشهد تغيرات ملحوظة، سواء داخل الحكومات أو في القطاع التكنولوجي نفسه.