أكسيوس: اتصال هاتفي بين ترامب والرئيس اللبناني
كشفت دراسة حديثة أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، مثل ChatGPT وGemini، لا تكتفي بالإجابة على استفسارات المستخدمين، بل تقوم أيضاً بإصدار أحكام عليهم بطرق قد تكون غير واضحة للمستخدمين أنفسهم.
ويأتي ذلك في وقت تتزايد فيه استخدامات هذه الأنظمة في مجالات حساسة مثل التوظيف والخدمات المالية والرعاية الصحية، ما يثير تساؤلات حول طبيعة قراراتها وتأثيرها على حياة الأفراد.
اعتمدت الدراسة على تحليل نحو 43 ألف قرار اتخذتها نماذج ذكاء اصطناعي، إلى جانب حوالي ألف قرار بشري للمقارنة. وأظهرت النتائج أن هذه الأنظمة لا تتعامل مع البيانات بشكل محايد فقط، بل تطوّر ما يشبه الثقة تجاه الأشخاص بناءً على صفاتهم مثل الكفاءة والصدق وحسن النية.
لكن الفارق الجوهري يكمن في طريقة التقييم، إذ يميل البشر إلى تكوين انطباع شامل ومترابط، بينما تعتمد الأنظمة الذكية على تقسيم الصفات إلى معايير منفصلة بطريقة منظمة تشبه الجداول الرقمية، ما يجعل أحكامها أكثر صرامة وأقل مرونة.
وتشير الدراسة إلى أن هذا الأسلوب المنهجي قد يؤدي إلى تضخيم التحيز بدلاً من تقليله. ففي بعض الحالات، أظهرت النتائج اختلافات ملحوظة في القرارات بناءً على عوامل ديموغرافية مثل العمر، حيث حصل الأشخاص الأكبر سناً على تقييمات أكثر إيجابية في سيناريوهات مالية.
ويرى الباحثون أن خطورة هذا التحيز تكمن في صعوبة اكتشافه، لأن النظام يبدو منطقياً ومتسقاً في قراراته، حتى عندما تكون تلك القرارات منحازة بشكل غير مباشر.

ومن اللافت أيضاً أن الدراسة وجدت عدم وجود رأي موحد بين أنظمة الذكاء الاصطناعي المختلفة، إذ يمكن لنموذجين متشابهين ظاهرياً أن يتخذا قرارات مختلفة تماماً تجاه الشخص نفسه. وهذا يعزز الحاجة إلى فهم أعمق لكيفية عمل هذه النماذج، بدلاً من التعامل معها كأنها أدوات متطابقة.
ويحذر الباحثون من أن السؤال لم يعد ما إذا كان يمكن الوثوق بالذكاء الاصطناعي، بل ما إذا كنا نفهم الطريقة التي يثق بها هو فينا. ويؤكدون أن هذه الأنظمة، رغم قوتها وقدرتها على محاكاة التفكير البشري، لا تزال تختلف جذرياً عن البشر في طريقة تقييمها للأفراد.
ومع استمرار انتشار الذكاء الاصطناعي في مختلف جوانب الحياة، يبدو أن التحدي الأكبر في المرحلة المقبلة سيكون ضمان استخدام هذه التقنيات بشكل عادل وشفاف، مع تقليل مخاطر التحيز الخفية التي قد تؤثر على قرارات مصيرية.