حذر خبراء صينيون وأمريكيون، من أن الذكاء الاصطناعي قد يفتح أبواب الجحيم على مصراعيها أمام الإرهابيين، وهو ما يطرح تساؤلًا مفاده: كيف يمكن لتقنية صُممت لتحسين البشرية أن تصبح أداة لتدميرها؟.
وعلى الرغم من أن الذكاء الاصطناعي يقوم بثورة في كل مجالات الحياة، فإنه يحمل في طياته خطرًا وجوديًا قد يغير وجه الإرهاب للأبد. بحسب صحيفة "لوفيغارو" الفرنسية، فإن الذكاء الاصطناعي يثير الآمال والمخاوف في آن واحد، وفقًا للخبراء، الذين ينتمون إلى لجنتين من عالمين مختلفين تمامًا في 2025.
فبينما يشيد بعض المتخصصين بتأثيراته الإيجابية في مجالات عديدة كالرقابة الصناعية والصحة، يشعر آخرون بالقلق العميق، الذي يتركز حول احتمال استخدام الإرهابيين للأسلحة النووية والإشعاعية والبيولوجية والكيميائية.
وجاء أول تحذير من الصين، الرائدة في مجال الذكاء الاصطناعي، لكنها أيضًا قوة عظمى يحكمها الحزب الشيوعي بقبضة حديدية، حيث نُشر "إطار حوكمة سلامة الذكاء الاصطناعي 2.0"، ورغم اللغة البيروقراطية، فإن قراءة الوثيقة مثيرة للقلق.
وتضمنت الوثيقة فقرات حول "المخاطر في العالم الحقيقي"، التي تعبر عن القلق بشكل خاص من "فقدان السيطرة على المعرفة والأداء المتعلق بالأسلحة النووية والبيولوجية والكيميائية والصواريخ".
وفي عملية "التدريب"، يستخدم الذكاء الاصطناعي بالوقت الراهن "مجموعة واسعة من البيانات" بما في ذلك "المعرفة النظرية الأساسية" المتعلقة بهذه المجالات شديدة الحساسية، وفي حالة فشل التحكم في هذه البيانات، قد تكتسب "الجماعات المتطرفة والإرهابية" القدرة على "تصميم وتصنيع وتركيب واستخدام" هذه الأسلحة.
وتسلط الوثيقة الصينية الضوء على "استخدام الذكاء الاصطناعي للأنشطة الإجرامية مثل الإرهاب وغير القانونية "التقليدية" من القمار إلى الاتجار بالمخدرات، خاصة من خلال تسهيل "تعلم" التقنيات الإجرامية، أو إخفاء الأفعال الإجرامية، أو إنشاء أدوات "ذكاء اصطناعي إجرامي".
وتثير الوثيقة الصينية صراحة شبح فقدان السيطرة البشرية على أنظمة الذكاء الاصطناعي المتقدمة، وفقًا للصحيفة.
وذكرت أنه "يجب إنشاء نظام للتحكم البشري في المراحل الحرجة لأنظمة الذكاء الاصطناعي لضمان احتفاظ البشر بسلطة اتخاذ القرار النهائية"، وللاستجابة لهذا الخطر، تدعو بكين إلى "استجابة منسقة" لمواجهة خطر فقدان السيطرة هذا.
والمبدأ الأول من "المبادئ الأساسية للذكاء الاصطناعي الجدير بالثقة" سيكون بالتالي "ضمان السيطرة البشرية النهائية" لتجنب أن تتمكن "أنظمة الذكاء الاصطناعي" من العمل "بشكل لا يمكن السيطرة عليه دون مراقبة بشرية".
وشارك القلق الصيني، العديد من الخبراء من خلال تصريحاتهم في آخر مؤتمر ميونيخ للأمن، الذي عُقد العام الماضي مباشرة بعد قمة باريس "للعمل بشأن الذكاء الاصطناعي".
واجتمع متخصصون بمبادرة من منظمة "Nuclear Threat Initiative" الأمريكية غير الحكومية، وأثاروا المخاطر المرتبطة بالتقارب بين الذكاء الاصطناعي وعلوم الحياة.
وجمع تمرين محاكاة خبراء في مكافحة الإرهاب والتكنولوجيا حول سيناريو كابوس، يتمثل في "جائحة عالمية يطلقها إرهابيون من سلالة جديدة من فيروس الأمعاء تم إنشاؤها من الصفر بفضل الذكاء الاصطناعي"، يُصيب 850 مليون حالة، ويسجل 60 مليون وفاة.
وخلال المؤتمر، أكد سناتور أمريكي في جلسة بعنوان "حماية العالم من مسببات الأمراض: الأمن البيولوجي في عصر التقنيات التحويلية"، أن مجال الأمن البيولوجي، هو المكان الذي يكون فيه الخطر المحتمل لنشر الذكاء الاصطناعي هو الأكبر.
وبيّنت الصحيفة أن الذكاء الاصطناعي يخفض عتبة الوصول إلى المعرفة، مما "يسمح لمزيد من الناس بالوصول إلى المعرفة اللازمة لإنشاء مسببات الأمراض، وتخزينها" وجعلها أيضًا "أكثر قابلية للانتقال، أكثر فتكًا، مقاومة للقاحات والأدوية".
لكن لا يوجد فقط خفض للعتبة بل أيضًا زيادة في الإمكانيات، فأدوات التصميم البيولوجي يمكن أن تساعد في تصور أنواع أخرى من مسببات الأمراض الجديدة. لكن الفيروسات القديمة، التي تسببت في أوبئة في الماضي، يمكن أيضًا "إحياؤها".
وأشارت الصحيفة إلى أنه يمكن لباحث عادي اليوم طلب عنصر "DNA" عبر الإنترنت واستلامه لاستخدامه في أبحاثه، على الرغم من وجود أجهزة لمنع إرسال عناصر خطرة إلى أي شخص، لكن الذكاء الاصطناعي قد يساعد في تجاوز هذه الحواجز.