تتصاعد وتيرة تطوير الأسلحة ذاتية التشغيل المدعومة بالذكاء الاصطناعي، حيث تسعى شركات حول العالم لجعل الجنود الآليين حقيقة على أرض المعركة.
هذه التقنيات ليست مجرد أدوات قتالية، بل تغيّر بالكامل أساليب اتخاذ القرار في الحروب، ما يجعلها عنصرًا جذابًا للحكومات الساعية لتفوق عسكري، وتقليل الخسائر البشرية في الصراعات، وتوسيع نطاق نفوذها الجيوسياسي، بحسب مجلة "moderndiplomacy".
تثير هذه الأسلحة أسئلة حادة حول المسؤولية الأخلاقية والقانونية، فحتى مع قدراتها العالية على تحديد الأهداف والهجوم عليها بشكل آلي، يظل القرار النهائي في يد الإنسان.
ومع ذلك، فإن الشخص الذي يشغل مرتبة أقل يتحمل غالبًا المسؤولية في حال وقوع أخطاء، بينما قد ينجو الضباط الكبار من المساءلة، ما يثير انتقادات بشأن توزيع المسؤولية.
يشير خبراء مثل "تيك بوليسي برس" إلى أن هذه الأنظمة قد تختزل البشر إلى مجرد أهداف على شبكة، فيما لا تستطيع الآلات تقييم قيمة الحياة البشرية أو التمييز بين المدنيين والمقاتلين كما يفعل البشر.
ومنح هذه الأسلحة مزيدًا من الحرية التشغيلية قد يؤدي إلى تخلي الجيش عن جزء من مسؤوليته الأخلاقية أثناء النزاع، وهو ما يشكل تحديًا كبيرًا للقوانين الدولية والاتفاقيات الإنسانية.
على الرغم من هذه المخاطر، ارتفع الطلب على خدمات السحابة المدعومة بالذكاء الاصطناعي بشكل كبير، ولا سيما من قبل الدول الكبرى مثل الولايات المتحدة، التي ترى فيها أداة لتعزيز نجاح العمليات العسكرية، ومواجهة خصوم محتملين مثل الصين.
هذا السباق يترافق مع استثمارات ضخمة لتطوير هذه الأنظمة وتبنيها في الترسانات العسكرية، خوفًا من التخلف عن خصومهم في هذا المجال.
لكن البيئة الجيوسياسية المتقلبة تجعل الاستخدام غير المنضبط لهذه الأسلحة أمرًا محفوفًا بالمخاطر؛ فحتى مع وجود تقنيات متقدمة، فإن غياب توافق دولي حول معايير التشغيل، وضوابط الدور البشري، ومسؤولية الحوادث قد يؤدي إلى عواقب وخيمة، بما في ذلك التصعيد غير المقصود في النزاعات الإقليمية أو الدولية.
تسعى الدول والمجتمع المدني إلى صياغة اتفاقيات دولية تنظم استخدام الأسلحة ذاتية التشغيل، وتشمل المقترحات إلزام الإنسان بالتحكم المباشر عند استخدام القوة، وتقييد الاستقلالية القصوى لهذه الأنظمة.
كما تهدف هذه المبادرات إلى الحد من سباق التسلح المحتمل، وتفادي الاستخدام العشوائي الذي قد يضر بالمقاتلين والمدنيين على حد سواء.
مع استمرار الابتكارات في مجال الذكاء الاصطناعي، ستظل الأسلحة ذاتية التشغيل محور نقاش عالمي، يجمع بين المخاوف الأخلاقية والضغوط العملية على صانعي السياسات.
ومن دون تعاون دولي فعال ووضع معايير واضحة، من المرجح أن تستمر المخاطر المتزايدة، وأن تتحول هذه التكنولوجيا من أداة تعزيز القوة إلى مصدر تهديد حقيقي للاستقرار العالمي.