٢٨ أبريل ٢٠٢٦
© بوابة الذكاء الاصطناعي
أعلنت Google رسميًا عن إنهاء شريحة الذكاء الاصطناعي “الموحدة”. مع إطلاق الجيل الثامن من TPU 8t و8i، إلى جانب إعادة تسمية شاملة لـ Vertex AI، تراهن Google على أن التكامل الرأسي المتطرف هو الطريقة الوحيدة للتفوق على OpenAI وNVIDIA.
الملخص التنفيذي
- تقسيم الأجهزة: قدمت Google شريحتين متميزتين من الجيل الثامن: TPU 8t (محسنة لتدريب النماذج الضخمة) وTPU 8i (محسنة لاستدلال الوكلاء منخفض التأخير).
- إعادة تسمية Vertex: تم دمج وإعادة تسمية Vertex AI رسميًا لتصبح منصة Gemini Enterprise Agent، مع تحويل التركيز من التعلم الآلي السلبي إلى الأتمتة المؤسسية النشطة.
- الاقتصاد على نطاق واسع: تدعي Google تحسينًا بنسبة ٨٠٪ في الأداء لكل دولار لأعباء عمل الاستدلال، مستهدفة المتطلبات الباهظة للوكلاء المستقلين المتكررين.
ما الذي حدث
خلال الكلمة الرئيسية في ٢٢ أبريل في Cloud Next ٢٠٢٦ في لاس فيغاس، وضع الرئيس التنفيذي لـ Google Cloud توماس كوريان بنية أساسية جديدة لاستراتيجية الشركة في مجال الذكاء الاصطناعي. معترفًا بأن الصناعة قد انتقلت بالكامل إلى “عصر الوكيل”، أعلنت Google رسميًا عن التحول بعيدًا عن بناء السيليكون العام.
تاريخيًا، كان من المتوقع أن تتعامل الشرائح مع كل من تدريب النماذج الضخمة ذات التريليونات من المعلمات والاستدلال عالي السرعة المطلوب لخدمتها. تراهن Google بجرأة على أن هذا الافتراض قد انتهى. من خلال تقديم شريحتين متخصصتين – TPU 8t وTPU 8i – تم تصميمهما بالتعاون مع Google DeepMind وتستضيفهما معالجات Axion القائمة على ARM، تقوم Google بمواءمة أجهزة مراكز البيانات الخاصة بها بدقة مع المتطلبات الحسابية الفريدة لوكلاء الذكاء الاصطناعي المستقلين.
تفصيل البنية
| الأجهزة | المواصفات والقدرات | الغرض الاستراتيجي |
|---|---|---|
| TPU 8t (التدريب) | يتوسع إلى ٩٦٠٠ شريحة عبر التوصيلات بين الشرائح. ٣ أضعاف قوة المعالجة و٢ ضعف كفاءة الطاقة مقارنة بالجيل السابق. | مصمم لتقليل وقت التدريب المسبق بشكل كبير للنماذج الرائدة الضخمة. |
| TPU 8i (الاستدلال) | ١١٥٢ شريحة لكل وحدة. يتميز بثلاثة أضعاف سعة SRAM على الشريحة مقارنة بالسابق (Ironwood). | مصمم خصيصًا للتنفيذ المتوازي منخفض التأخير لملايين الوكلاء المستقلين. |
لماذا يهم هذا: عنق الزجاجة لتكلفة الوكيل
التحول من روبوتات الدردشة التوليدية إلى تدفقات العمل الوكيلة قد كسر الاقتصاديات التقليدية للسحابة. يتطلب روبوت الدردشة مكالمة استدلال واحدة لكل مطالبة من المستخدم. قد يتطلب وكيل الذكاء الاصطناعي مئات المكالمات الاستدلالية المتكررة لتنفيذ تدفق عمل واحد (مثل تصفح قاعدة بيانات، التحقق من الكود، تصحيح الأخطاء ذاتيًا).
إذا تم فرض رسوم على الشركات بمعدلات الاستدلال القياسية لتدفقات العمل الوكيلة، يصبح النشر المؤسسي غير مستدام ماليًا. تحل TPU 8i من Google هذه المشكلة. من خلال زيادة كبيرة في SRAM على الشريحة، يمكن لـ 8i الاحتفاظ بكميات هائلة من سياق الوكيل مباشرة في الذاكرة عالية السرعة، مما يوفر تحسينًا مزعومًا بنسبة ٨٠٪ في الأداء لكل دولار. هذا يسمح للمؤسسات بنشر التفكير على نطاق واسع دون إفلاس ميزانيات تكنولوجيا المعلومات الخاصة بها.
طبقة البرمجيات: وداعًا، Vertex AI
الأجهزة بلا فائدة بدون طبقة تنظيمية. مع الاعتراف بذلك، أعلنت Google رسميًا عن إنهاء علامة Vertex AI التجارية، ودمج مجموعة التعلم الآلي الواسعة في منصة Gemini Enterprise Agent الموحدة.
هذا ليس مجرد تغيير في الاسم؛ إنه إشارة إلى السوق. لم تعد Google تبيع “أدوات التعلم الآلي” لعلماء البيانات. إنهم يبيعون منصة تحكم شاملة من البداية إلى النهاية لنشر وتأمين وكلاء الذكاء الاصطناعي محليًا جنبًا إلى جنب مع Google Workspace وأدوات الطرف الثالث مثل Salesforce وWorkday.
رأينا
إعلانات Google في Cloud Next ٢٠٢٦ هي إعلان مباشر عن حرب شاملة ضد كل من OpenAI وNVIDIA. بينما تظل NVIDIA الملك بلا منازع لوحدات معالجة الرسومات الخام، فإن عرض Google يتعلق بالكامل بـ التكامل الرأسي.
تراهن Google على أن مديري التكنولوجيا في المؤسسات لا يريدون تجزئة بنيتهم التحتية. إنهم يريدون مزودًا واحدًا حيث يتم تصميم السيليكون (TPU 8i)، النموذج الأساسي (Gemini 3.x)، بيئة التنظيم (منصة Gemini Enterprise Agent)، وحزمة الإنتاجية (Workspace) جميعها من قبل نفس الشركة لتعمل بسلاسة معًا. إنه رهان طموح للغاية، ولكن إذا كانت تخفيضات التكلفة بنسبة ٨٠٪ صحيحة في الإنتاج، فقد تكون Google قد حلت للتو أكبر مشكلة في توسيع الصناعة.