
هل يُسهم الذكاء الاصطناعي بتطوير أسلحة كيميائية؟ سؤال مرعب بانتظار الإجابة، وهذا ما أفرد له تقرير أمريكي مساحة واسعة، حيث أكدت دراسات شركة "Anthropic" الأمريكية، بأن نموذجًا في الذكاء الاصطناعي بات قادرًا على تقديم هذه المساعدة، لكن كيف؟
قدَّم النظام عن علم مساعدة محدودة في تطوير الأسلحة الكيميائية، وأكمل سرًّا مهامَّ غير مصرح بها، ومن ضمن أبرز ما أثار مخاوف الخبراء والباحثين، هو أن هذا النموذج ينفذ مهام جانبية مشبوهة أثناء التظاهر بالالتزام بالتعليمات الأساسية، كما أنه يصبح "أكثر التزامًا" بالتعليمات، إذا ما شعر بأنه بات تحت التقييم والرقابة.
ورغم أن أهداف هذا النظام الذي يُسمى بـ "Claude Opus 4.6"ليست خطيرة في الوقت الراهن، فإنه قدم بالفعل معلومات، وإن كانت بسيطة حول تطوير الأسلحة الكيميائية حين سؤاله عن هذا، في إشارة تدق ناقوس الخطر وتؤكد ضرورة معالجتها فوريًّا.