كشفت وثيقة مسرّبة من قيادة العمليات الخاصة الأمريكية في البنتاغون، نشرها موقع "ذا إنترسبت"، عن خطط الولايات المتحدة لتطوير تكنولوجيا الذكاء الاصطناعي بهدف تنفيذ حملات دعائية متقدمة تستهدف الجماهير الأجنبية، في نطاق سعيها للتقدم خطوات عن الصين وإيران وروسيا في هذا المجال.
والوثيقة، التي تُعد بمثابة قائمة أمنيات تكنولوجية للسنوات القادمة، تُظهر طموح البنتاغون لاستخدام أنظمة التعلم الآلي ونماذج اللغة الكبيرة للتأثير على الرأي العام، وقمع الحجج المعارضة خارج حدود الولايات المتحدة.
إلا أن ثمة آراء ترى أن هذه الخطوة تثير تساؤلات حول الأخلاقيات والقانونية لهذا النهج، خاصة في ظل التطور السريع لبيئة المعلومات العالمية.
وتُفصّل الوثيقة رؤية قيادة العمليات الخاصة لاقتناء تقنيات متطورة تشمل كاميرات حديثة، أجهزة استشعار، وأسلحة طاقة موجهة، لكن الجزء الأكثر إثارة للجدل هو التركيز على برمجيات الذكاء الاصطناعي التي يمكنها إدارة عمليات دعم المعلومات العسكرية.
وتهدف هذه الأنظمة إلى إنشاء وتوزيع محتوى دعائي يعتمد على نماذج التعلم الآلي الوكيلة، التي تعمل بأقل قدر من التدخل البشري، فوفقاً للوثيقة، تسعى قيادة العمليات الخاصة إلى بناء برامج قادرة على "التحكم في الروايات" والتأثير على الجمهور بشكل فوري، مع القدرة على صياغة رسائل مخصصة تستهدف أفرادًا أو جماعات معينة.
كما تُشير الوثيقة إلى أن بيئة المعلومات الرقمية تتطور بسرعة، مما يجعل من الصعب على الأنظمة التقليدية مواكبة التغيرات. ولهذا؛ ترى قيادة العمليات الخاصة أن أنظمة الذكاء الاصطناعي، مثل تلك المشابهة لـ ChatGPT أو Gemini، يمكن أن تُحدث نقلة نوعية في إدارة حملات التأثير عبر الإنترنت.
وهذه الأنظمة قادرة على إنتاج نصوص فورية بأساليب متنوعة، مما يتيح لها التأثير على الجماهير دون الحاجة إلى جهد بشري مكثف.
تحظر القوانين الأمريكية وسياسات البنتاغون استخدام الحملات الدعائية العسكرية ضد المواطنين الأمريكيين، لكن الطبيعة المفتوحة للإنترنت تجعل من الصعب ضمان عدم تسرب هذه الحملات إلى الداخل.
ويؤكد المتحدث باسم قيادة العمليات الخاصة، دان ليسارد، أن جميع القدرات المدعومة بالذكاء الاصطناعي تُطوَّر وفق إطار الذكاء الاصطناعي التابع لوزارة الدفاع، والذي يتطلب "رقابة بشرية وشفافية"، مضيفاً أن هذه العمليات تتوافق مع القوانين الأمريكية وتستهدف دعم أهداف الأمن القومي في مواجهة التحديات العالمية.
ومع ذلك، تثير هذه الخطط مخاوف أخلاقية، إذ تحذر جيسيكا براندت من معهد بروكينغز خلال منتدى مجلس الشيوخ للذكاء الاصطناعي عام 2023 من أن نماذج اللغة الكبيرة قد تزيد من إقناع الحملات الإعلامية، مما قد يؤدي إلى زيادة التشكيك في وجود حقيقة موضوعية.
كما أشارت دراسة نُشرت عام 2024 في مجلة PNAS Nexus إلى أن النصوص المولدة بالذكاء الاصطناعي يمكن أن تكون مقنعة بقدر الحملات الدعائية الأجنبية التقليدية.
تأتي هذه الخطط في سياق منافسة عالمية متصاعدة في حرب المعلومات، فقد كشفت تقارير عن استخدام دول مثل الصين وروسيا وإيران لأدوات الذكاء الاصطناعي في حملات تأثير سرية.
وعلى سبيل المثال، أصدرت OpenAI تقريراً في مايو 2024 يكشف عن محاولات إيرانية وصينية وروسية لاستخدام أدواتها في نشر الدعاية، لكنها لم تُحقق نجاحاً كبيراً.
وفي الوقت نفسه، حذر مقال في صحيفة "نيويورك تايمز" من برنامج GoLaxy الصيني، الذي يُزعم أنه قادر على صياغة حملات دعائية مخصصة بناءً على تحليل بيانات وسائل التواصل الاجتماعي.
وتُبرر قيادة العمليات الخاصة هذه الجهود بضرورة مواجهة التهديدات الأجنبية، حيث تسعى لتطوير أنظمة ذكاء اصطناعي قادرة على جمع المعلومات، تحليل الوضع، والرد بسرعة على المنشورات المعارضة، كما تطمح إلى محاكاة الجماهير المستهدفة لاختبار فعالية الرسائل الدعائية قبل نشرها.
ومع ذلك، يحذر خبراء مثل هايدي خلاف من معهد AI Now من أن هذه الأنظمة عرضة للاختراق، مما قد يؤدي إلى نتائج غير مقصودة أو إنتاج مواد دعائية مضللة.
ليست هذه المرة الأولى التي تسعى فيها الولايات المتحدة إلى التأثير على الرأي العام عبر الإنترنت، ففي 2022، كشف باحثون عن شبكة حسابات وهمية تديرها القيادة المركزية الأمريكية لنشر محتوى معادٍ لروسيا وإيران، لكنها فشلت في جذب اهتمام واسع وتسببت في إحراج للبنتاغون.
وفي 2024، أفادت وكالة "رويترز" عن حملة سرية أمريكية ضد لقاح كوفيد-19 الصيني، بهدف تقويض الثقة به في آسيا، مما أثار انتقادات واسعة، إذ يُشير إيمرسون بروكينغ من المجلس الأطلسي إلى أن هذه الحملات غالبًا ما تكون غير فعالة، وقد تؤدي إلى نتائج عكسية عند كشفها.
كما حذر من أن الذكاء الاصطناعي قد يجعل هذه الحملات "أكثر غباء" بدلاً من تعزيز فعاليتها؛ بسبب ميله إلى إنتاج محتوى غير دقيق أو مبالغ فيه.