أظهرت دراسة حديثة أن حوالي ثلث مستخدمي تطبيقات الذكاء الاصطناعي يُجرون محادثات شخصية عميقة مع روبوتات الدردشة، إلا أن جزءاً كبيراً من هذه المحادثات يتضمن معلومات من البيانات الشخصية.
وكشفت دراسة منفصلة أجرتها جامعة ستانفورد أن ست شركات أمريكية رائدة في مجال الذكاء الاصطناعي تعيد إدخال بيانات المستخدمين إلى نماذجها لتدريبها مستقبلاً، ما قد يُعرض خصوصية المستخدمين للخطر.
ويؤكد خبراء أن اتباع خطوات محددة لإدارة ملفات الذكاء الاصطناعي أصبح أمراً ضرورياً لحماية بيانات المستخدمين.
ويستخدم عدد كبير من الأشخاص برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي كبديل عن المعالج النفسي؛ ما قد يؤدي، إلى مشاركة معلومات شخصية بالغة الحساسية.
وتشير التحليلات إلى أن الشروط القياسية لتطبيقات الذكاء الاصطناعي تمنح هذه التطبيقات الحق في استخدام المحادثات كبيانات تدريب لإصدارات مستقبلية من النماذج، وهو ما قد يؤدي إلى تضمين بيانات المستخدمين في الردود على استفسارات مماثلة في المستقبل.
وتزداد المخاطر بعد سماح العديد من نماذج الذكاء الاصطناعي بتحميل المستندات لتحليلها؛ إذ يمكن استخدام محتويات هذه المستندات أيضاً كمواد تدريبية.
وتوفر جميع تطبيقات الذكاء الاصطناعي الرئيسة إمكانية إلغاء الاشتراك في استخدام بيانات المستخدمين كمواد تدريبية.
ورغم إمكانية تغيير الإعدادات داخل التطبيقات، تواصل شركات جمع البيانات جمع معلومات المستخدمين من السجلات العامة وإتاحتها لإعادة بيعها، أو استخدامها في إرسال رسائل مزعجة أو ارتكاب عمليات احتيال وسرقة هوية.
كما يمكن طلب حذف البيانات يدوياً، لكن هذه عملية شاقة ومستهلكة للوقت نظراً لكثرة وسطاء البيانات، وهي صالحة فقط خلال فترة تقديم الطلب، ولا تمنع الوسطاء من إعادة إضافة البيانات لاحقاً.