أصبح الذكاء الاصطناعي مُدمج في حياتنا اليومية، حيث يُشغّل آخر تحديثات أنظمة التشغيل، أو يُصمّم توصيات شخصية على نتفليكس، أو يُستخدم في كتابة طلبات التوظيف والتنبؤ بالمستقبل.
وبالنسبة للبعض، يُستخدم لإنشاء صور ومقاطع فيديو للمحتوى، بينما يكون بمثابة رفيق رومانسي للآخرين. ولكن بأي ثمن؟ فقد بدأت البصمة الكربونية المتزايدة للذكاء الاصطناعي تُثير تساؤلات كبيرة حول تكلفتها البيئية.
لقد سمعنا بالفعل من رئيس "OpenAI" سام ألتمان، أن مجرد التحلي باللباقة مع مُطالبات ChatGPT يُكلّف الشركة عشرات الملايين من الدولارات. في تلك الأثناء، حذّر الخبراء من أن استهلاك الطاقة في استفسار "ChatGPT" يفوق، على الأرجح، استهلاك الطاقة بعشرة إلى 100 مرة مقارنةً بإرسال بريد إلكتروني.
في هذا السياق، قام الفريق من الخبراء بقياس احتياجات الذكاء الاصطناعي من الطاقة، وراجعوا مئات الصفحات من الوثائق والتوقعات الفنية، وطرحوا أسئلة على شركات الذكاء الاصطناعي الكبرى حول كيفية بناء نماذجها وتشغيلها.
ويبدو أن المفهوم الشائع لاستهلاك الذكاء الاصطناعي للطاقة، على الأقل بالطريقة التي تُسوّقه بها شركات التكنولوجيا الكبرى خاطئ تماماً.
فقد أكد الخبراء أن استهلاك الذكاء الاصطناعي سنويًا للطاقة بحلول عام 2028 سيصل إلى 330 تيراواط/ساعة من الكهرباء. وهذا يفوق إجمالي الكهرباء التي تستخدمها مراكز البيانات الأمريكية حاليًا لجميع الأغراض، ويكفي لتشغيل 22% من المنازل الأمريكية. ولتوضيح ذلك، يمكن أن تُولّد هذه الكمية من الطاقة نفس الانبعاثات الناتجة عن قيادة أكثر من 1600 رحلة ذهابًا وإيابًا إلى الشمس من الأرض.
بحسب الخبراء تُشكّل روبوتات الدردشة، مثل: ChatGPT، وGemini، من غوغل جزءًا كبيرًا من استهلاك الطاقة، حيث يستقبل "ChatGPT" بالفعل مليار رسالة يوميًا، ويقوم بإنشاء 78 مليون صورة يوميًا. ويحتاج كل ذلك إلى طاقة مستمرة على مدار الساعة طوال أيام السنة.
وتأتي معظم هذه الطاقة من الوقود الأحفوري التي لا تزال شبكات الكهرباء تعتمد عليه بشكل كبير.
وأشار الخبراء إلى أنه مع تزايد الطلب على تبني الذكاء الاصطناعي، أصبح من الصعب تجاهل التأثير البيئي. وحذّروا بالفعل من أن تغير المناخ يتسارع بوتيرة قد لا نتمكن من السيطرة عليها. إذا استمر هذا الاتجاه، فقد ينتهي الأمر بهذه التكلفة الخفية إلى إحداث ضرر أكبر مما توقعه أي شخص.