أعلنت شركة غوغل كلاود أن الجيل الثامن من رقائق الذكاء الاصطناعي المصممة خصيصاً، أو وحدات معالجة الموترات (TPUs)، سيتم تقسيمه إلى قسمين، ستكون إحدى الرقائق، المسماة TPU 8t، مخصصة لتدريب النماذج، بينما ستكون الأخرى TPU 8i، مخصصة للاستدلال.
وتُروّج الشركة لمواصفات أداء مُذهلة لهذه الوحدات الجديدة من نوع TPU مقارنة بالأجيال السابقة: تدريب أسرع بثلاث مرات لنماذج الذكاء الاصطناعي، وأداء أفضل بنسبة 80% لكل دولار، وإمكانية تشغيل أكثر من مليون وحدة TPU معاً في مجموعة واحدة.
والنتيجة المتوقعة هي قدرة حاسوبية أكبر بكثير باستهلاك طاقة أقل بكثير، وبالتالي تكلفة أقل على العملاء، مقارنة بالإصدارات السابقة.
وتستخدم غوغل هذه الرقائق لدعم أنظمة إنفيديا التي تُقدمها في بنيتها التحتية، وتعد الشركة بتوفير أحدث رقائق إنفيديا، فيرا روبين، في منصتها السحابية في وقت لاحق من هذا العام.
ومستقبلاً، قد يقل اعتماد الشركات العملاقة التي تبني رقائق الذكاء الاصطناعي الخاصة بها (والتي تشمل أمازون ومايكروسوفت وغوغل) على إنفيديا، حيث تنقل المؤسسات احتياجاتها من الذكاء الاصطناعي إلى سحاباتها وتقوم بنقل تطبيقاتها إلى هذه الرقائق.
وإذا سارت الأمور وفقًا لخطة إنفيديا، فإن نمو غوغل كمزود لخدمات الذكاء الاصطناعي السحابية سيؤدي إلى زيادة أعمال شركة تصنيع الرقائق وليس تقليلها، حتى لو تم تشغيل العديد من أحمال العمل على رقائق غوغل.
وصرّحت غوغل أيضاً بأنها اتفقت مع إنفيديا على تطوير شبكات حاسوبية تُمكّن الأنظمة القائمة على إنفيديا من العمل بكفاءة أعلى في بيئتها السحابية، وعلى وجه الخصوص، تعمل الشركتان العملاقتان في مجال التكنولوجيا على تعزيز تقنية الشبكات البرمجية المعروفة باسم فالكون، والتي ابتكرتها غوغل ونشرتها كمصدر مفتوح في عام 2023.