ترامب يوقع أمرا تنفيذيا يجيز فرض عقوبات على دول متواطئة في احتجاز أمريكيين "بشكل غير قانوني"
كشفت مجموعة من الباحثين الأمنيين عن طريقة لاختراق الذكاء الاصطناعي "جيميني"؛ ما يتيح للمخترق التحكم في الأجهزة المنزلية المتصلة به.
وبحسب ما أورده الباحثون، يمكن استخدام هذه الثغرة لتعطيل الأضواء، وفتح الأبواب الذكية، والتسبب في فوضى داخل المنزل. وتُعد هذه المرة الأولى التي يُظهر فيها باحثون إمكانية استغلال الذكاء الاصطناعي "جيميني" بهذا الشكل.
وكشف باحثون أنه يمكن اختراق نظام "جيميني"، روبوت الذكاء الاصطناعي الرائد من "غوغل". وأشاروا إلى أن جميع الهجمات تبدأ بدعوة مضللة من تقويم "غوغل"، تتضمن تعليمات لتشغيل منتجات المنزل الذكي في وقت محدد.
ويتم ذلك عبر الطلب من "جيميني" تلخيص أحداث التقويم القادمة، حيث يتم تفعيل هذه التعليمات الخاملة، ويضعها "جيميني" على جدوله للتحكم بها.
ويعتقد الباحثون أنها المرة الأولى التي يتم فيها اختراق نظام ذكاء اصطناعي توليدي، وأن ذلك يمكن أن يسبب عواقب وخيمة في العالم الحقيقي، خاصة أنه يمكن استخدام الطريقة نفسها في السيارات ذاتية القيادة، حيث ستكون النتائج كارثية في بعض الحالات ليس فقط على الخصوصية، بل على الحياة أيضا.
يذكر أنه في السابق كانت هناك عدة محاولات لاختراق "جيميني" عبر رسالة حقن فوري غير مباشرة، ستدفع الذكاء الاصطناعي إلى القيام ببعض الإجراءات الضارة. ورسائل الحقن الفوري، التي تسمى أحيانا عمليات كسر الحماية، وهي رسائل مصممة لإقناع الذكاء الاصطناعي بتجاهل إعدادات الأمان الخاصة به والقيام بما تنص عليه الرسالة، مثل إنشاء خطاب كراهية أو محتوى غير مناسب للعمل أو القيام بأشياء لم تطلب منه.
من جهتها، قالت "غوغل" إنه على الرغم من عدم استغلال هذه الثغرات الأمنية من قبل قراصنة خبثاء، إلا أن الشركة تأخذها على محمل الجد، وقد قدمت العديد من الإصلاحات وعملت على سد الكثير من الثغرات خلال الأشهر الأخيرة.
وأكدت أن الأبحاث التي تكشف نقاط الضعف تسهم بشكل مباشر في تسريع طرح المزيد من الدفاعات ضد هجمات اختراق الذكاء الاصطناعي، بما في ذلك استخدام التعلم الآلي للكشف عن الهجمات المحتملة والرسائل المشبوهة، وطلب تأكيد أكبر من المستخدم عند اتخاذ الذكاء الاصطناعي للإجراءات.