مع تصاعد دمج الذكاء الاصطناعي في الجيوش حول العالم، يزداد القلق الدولي من أن الحروب المستقبلية قد تصبح أسرع، وأكثر دقة، وأخطر، لكنها أيضًا أقل أخلاقية وأكثر تعقيدًا.
وفي محاولة لوضع حد لهذا التحدي، تسعى الأمم المتحدة لوضع قواعد عالمية واضحة تحكم استخدام الأسلحة المستقلة المدعومة بالذكاء الاصطناعي، بحسب صحيفة "يوراسيان تايمز".
وفي الـ24 من سبتمبر/أيلول، حذر الأمين العام للأمم المتحدة أنطونيو غوتيريش من أن "البشرية لا يمكن أن تسمح للروبوتات القاتلة بالسيطرة على الحروب.
وأضاف أنه يجب أن يخدم الابتكار البشرية، لا أن يُقوّضها"، مشددًا على ضرورة التوافق الدولي بشأن تنظيم استخدام هذه الأنظمة.
وقد كررت اللجنة الدولية للصليب الأحمر دعواتها بفرض قيود واضحة، مع التأكيد أن يكون الإنسان دائمًا محور اتخاذ القرارات العسكرية.
تشهد الساحة العالمية سباقًا محمومًا لتطوير أنظمة الذكاء الاصطناعي العسكرية، مع تركيز خاص على الولايات المتحدة والصين، في حين تظل روسيا متأخرة نسبيًّا.
تستخدم واشنطن الذكاء الاصطناعي لتعزيز القيادة والسيطرة المشتركة في جميع المجالات العملياتية، وتطبيق "حرب الفسيفساء" التي تعتمد على سرعة اتخاذ القرار وتكامل البيانات عبر مختلف وحدات الجيش.
في المقابل، تعمل بكين على دمج الابتكارات المدنية في مجمعها الصناعي العسكري، مستغلة الذكاء الاصطناعي كأداة لتعزيز القوة الإستراتيجية.
ويعد استخدام أنظمة دعم القرار (DSS) المدعومة بالذكاء الاصطناعي محور هذا السباق، حيث تساعد القادة على تحليل كم هائل من البيانات لاتخاذ قرارات أسرع وأكثر دقة في ساحات المعارك.
يتيح الذكاء الاصطناعي تعزيز القدرات المستقلة مثل إدارة المراقبة، وتفكيك العبوات الناسفة، وتشغيل الطائرات العسكرية دون طيار، والكشف عن التهديدات السيبرانية؛ ما يقلل المخاطر على الجنود ويحسن الكفاءة التشغيلية.
لكنه في الوقت نفسه سلاح ذو حدين: الاعتماد المفرط على الخوارزميات قد يضعف الحكم البشري، ويشوّش المساءلة، ويزيد خطر الفشل التكتيكي في حال تعطل الأنظمة أو التعرض لهجمات إلكترونية.
يبرز هنا دور الذكاء الاصطناعي في "سلسلة القتل"، حيث يمكن للنظام تحديد التهديدات، وتقييم الأضرار الجانبية، واقتراح أفضل الأسلحة للاستهداف؛ ما يجعل قرارات الحرب أسرع وأكثر دقة، لكنه يطرح تساؤلات جوهرية حول السيطرة البشرية والمسؤولية القانونية.
يواجه استخدام الذكاء الاصطناعي العسكري مجموعة من التحديات المعقدة التي تهدد فاعلية هذه الأنظمة في ساحات المعارك الحقيقية؛ ومن أبرزها تحدي البيانات والجودة التشغيلية، إذ يعتمد أداء أنظمة الذكاء الاصطناعي على دقة البيانات وموثوقيتها، وهو ما قد يكون محدودًا أو متدهورًا في ظروف العمليات العسكرية الواقعية؛ ما يقلل موثوقية القرارات المستندة إلى هذه الأنظمة.
كما يطرح الاعتماد على البنية التحتية التجارية تحديات إضافية، إذ يلجأ الجيش إلى مزودين خارجيين للبيانات والمنصات السحابية؛ ما يثير مخاطر متعلقة بالتحكم والسيطرة على المعلومات، بالإضافة إلى تهديدات الهجمات السيبرانية وانقطاعات الخدمة التي قد تعرقل الأداء السليم للأنظمة.
وعلى صعيد التكامل مع هياكل القيادة التقليدية، يواجه العسكريون صعوبة في دمج أنظمة الذكاء الاصطناعي مع أساليب صنع القرار التقليدية؛ ما قد يشوش حدود المسؤولية ويحد من فاعلية القرارات، كما يطرح تساؤلات جدية حول الالتزام بالقوانين الدولية، والحفاظ على التوازن بين التناسب والضرورة العسكرية، وضمان مساءلة القادة عن القرارات الناتجة عن دعم الذكاء الاصطناعي.
وأخيرًا، يشكل الاعتماد الإستراتيجي على المنصات التجارية تحديًا طويل الأمد، إذ قد يؤدي تكييف هذه الأنظمة بسرعة إلى فقدان السيطرة على القدرات الأساسية للجيش وزيادة نقاط ضعفه التشغيلية؛ ما يجعل تحقيق التفوق العسكري المستدام أكثر صعوبة في ظل تسارع الابتكار التكنولوجي وتطور التهديدات.
هذه التحديات تؤكد أن الابتكار التكنولوجي وحده لا يكفي لتحقيق التفوق الإستراتيجي، بل يجب أن يصاحبه فهم عميق وإدارة دقيقة لضمان دمج الذكاء الاصطناعي في العمليات العسكرية بشكل مسؤول وآمن.
في نهاية المطاف، يشدد الأمين العام للأمم المتحدة على أن الهدف ليس منع استخدام الذكاء الاصطناعي في الحروب، بل التأكد من أن القرارات تبقى تحت السيطرة البشرية، وأن أي نظام يُستخدم بشكل قانوني وأخلاقي.
وسيحدد النجاح في وضع هذه الإرشادات الدولية ليس فقط فاعلية الحروب المستقبلية، بل أيضًا شرعية استخدام الذكاء الاصطناعي في النزاعات المسلحة على نطاق عالمي.
ويتمثل التحدي الحالي في كيفية تحقيق ميزة تشغيلية حقيقية مع الحفاظ على المساءلة والالتزام بالقوانين، وهو اختبار عالمي لـ ما إذا كان الابتكار العسكري يمكن أن يخدم الإنسانية دون أن يقوضها؟.