logo
علوم وتقنية

لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT

لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT
تعبيرية
08 مايو 2025، 8:57 ص

لطالما اعتُبر الذكاء الاصطناعي رمزًا للدقة والموضوعية، لكن دراسة حديثة كشفت أن حتى أكثر أنظمته تطورًا، مثل GPT-3.5 وGPT-4 من شركة OpenAI، قد تقع في فخاخ التفكير البشري نفسها، بما في ذلك التحيزات المعرفية والأخطاء المنطقية.

الدراسة، التي أجراها باحثون من جامعات كندية وأسترالية، أظهرت أن روبوت الدردشة ChatGPT أظهر في 47% من الحالات سلوكيات مشابهة للتحيزات البشرية، مثل: تجنب المخاطرة، والثقة المفرطة، والتأثر بالنجاح.
ورغم تفوقه في حل المسائل الرياضية الواضحة، فإنه واجه صعوبة في المواقف التي تتطلب حكمًا ذاتيًّا، حيث ظهرت ردوده أحيانًا غير عقلانية، كما يحدث مع البشر.

أخبار ذات علاقة

توضيحية

بينما أصبح أقوى.. "هلوسات" الذكاء الاصطناعي تزداد سوءًا

ورغم أن GPT-4 أظهر مستوى أعلى من الاتساق مقارنة بالبشر، فقد أظهر أيضًا نزعة للتنبؤية الزائدة؛ ما يجعله أقل عرضة للقرارات العشوائية. لكن هذا الاتساق قد يكون سلاحًا ذا حدين، وفقًا للباحثين.

وقد علّق البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا، قائلًا: "للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريًّا".

أخبار ذات علاقة

لحظة هجوم الروبوت على مبرمجيه

روبوت صيني بشري يهاجم مبرمجيه بشراسة في اختبار أداء (فيديو)

ويشير الخبراء إلى أن هذه النتائج تؤكد أن الذكاء الاصطناعي ليس مجرد أداة محايدة، بل يحمل بصمات بشرية في طريقة تفكيره؛ ما يثير تساؤلات حول استخدامه في القرارات المهمة.

logo
تابعونا على
جميع الحقوق محفوظة © 2024 شركة إرم ميديا - Erem Media FZ LLC