ترامب يوقع أمرا تنفيذيا يجيز فرض عقوبات على دول متواطئة في احتجاز أمريكيين "بشكل غير قانوني"

logo
علوم وتقنية

باحثون يخترقون "جيميني" للتحكم في المنزل.. و"غوغل" ترد

باحثون يخترقون "جيميني" للتحكم في المنزل.. و"غوغل" ترد
تعبيريةالمصدر: forbes.com
07 أغسطس 2025، 10:33 ص

كشفت مجموعة من الباحثين الأمنيين عن طريقة لاختراق الذكاء الاصطناعي "جيميني"؛ ما يتيح للمخترق التحكم في الأجهزة المنزلية المتصلة به.

وبحسب ما أورده الباحثون، يمكن استخدام هذه الثغرة لتعطيل الأضواء، وفتح الأبواب الذكية، والتسبب في فوضى داخل المنزل. وتُعد هذه المرة الأولى التي يُظهر فيها باحثون إمكانية استغلال الذكاء الاصطناعي "جيميني" بهذا الشكل.

أخبار ذات علاقة

تعبيرية

تأليف قصص وكتب.. "جيميني" يحصل على قدرات جديدة خارقة

تعبيرية

عواقب وخيمة

وكشف باحثون أنه يمكن اختراق نظام "جيميني"، روبوت الذكاء الاصطناعي الرائد من "غوغل". وأشاروا إلى أن جميع الهجمات تبدأ بدعوة مضللة من تقويم "غوغل"، تتضمن تعليمات لتشغيل منتجات المنزل الذكي في وقت محدد.

ويتم ذلك عبر الطلب من "جيميني" تلخيص أحداث التقويم القادمة، حيث يتم تفعيل هذه التعليمات الخاملة، ويضعها "جيميني" على جدوله للتحكم بها.

ويعتقد الباحثون أنها المرة الأولى التي يتم فيها اختراق نظام ذكاء اصطناعي توليدي، وأن ذلك يمكن أن يسبب عواقب وخيمة في العالم الحقيقي، خاصة أنه يمكن استخدام الطريقة نفسها في السيارات ذاتية القيادة، حيث ستكون النتائج كارثية في بعض الحالات ليس فقط على الخصوصية، بل على الحياة أيضا. 

يذكر أنه في السابق كانت هناك عدة محاولات لاختراق "جيميني" عبر رسالة حقن فوري غير مباشرة،  ستدفع الذكاء الاصطناعي إلى القيام ببعض الإجراءات الضارة. ورسائل الحقن الفوري، التي تسمى أحيانا عمليات كسر الحماية، وهي رسائل مصممة لإقناع الذكاء الاصطناعي بتجاهل إعدادات الأمان الخاصة به والقيام بما تنص عليه الرسالة، مثل إنشاء خطاب كراهية أو محتوى غير مناسب للعمل أو القيام بأشياء لم تطلب منه.

أخبار ذات علاقة

 جيميني

احذروا منها.. ثغرة خطيرة في جيميل عبر جيميني

سد الثغرات

من جهتها، قالت "غوغل" إنه على الرغم من عدم استغلال هذه الثغرات الأمنية من قبل قراصنة خبثاء، إلا أن الشركة تأخذها على محمل الجد، وقد قدمت العديد من الإصلاحات وعملت على سد الكثير من الثغرات خلال الأشهر الأخيرة.

وأكدت أن الأبحاث التي تكشف نقاط الضعف تسهم بشكل مباشر في تسريع طرح المزيد من الدفاعات ضد هجمات اختراق الذكاء الاصطناعي، بما في ذلك استخدام التعلم الآلي للكشف عن الهجمات المحتملة والرسائل المشبوهة، وطلب تأكيد أكبر من المستخدم عند اتخاذ الذكاء الاصطناعي للإجراءات.

logo
تابعونا على
جميع الحقوق محفوظة © 2024 شركة إرم ميديا - Erem Media FZ LLC