كشفت مصادر مطلعة لوكالة "رويترز" أن شركة OpenAI، المطوّرة لـ ChatGPT، بدأت مؤخراً بالاعتماد على شرائح الذكاء الاصطناعي الخاصة بشركة غوغل لتشغيل منصتها ومنتجاتها التقنية.
ورغم أن OpenAI تُعد من أبرز عملاء Nvidia، حيث تعتمد على وحدات معالجة الرسومات (GPU) في تدريب نماذج الذكاء الاصطناعي وتشغيل العمليات الاستدلالية، إلا أن هذا التعاون الجديد مع غوغل يعكس تحولاً في استراتيجيتها التقنية.
وحسب تقرير نشرته CNBC عربية فقد كانت الشركة قد خططت مسبقاً لاستخدام خدمات الحوسبة السحابية الخاصة بغوغل لتلبية النمو الكبير في طلبات المعالجة، وفقاً لما نُشر في تقرير سابق لرويترز، ما يجعل هذا التعاون مفاجئاً في ظل التنافس الحاد بين الشركتين في قطاع الذكاء الاصطناعي.
في المقابل، تواصل غوغل التوسّع في توفير معالجاتها الخاصة (TPUs) للاستخدام التجاري، بعدما كانت مقتصرة على الاستخدام الداخلي، وهو ما ساعدها على جذب عملاء كبار، مثل Apple وشركات ناشئة منافسة مثل Anthropic وSafe Superintelligence.
وتمثل خطوة OpenAI في استئجار معالجات غوغل للمرة الأولى استخداماً حقيقياً لشرائح غير تابعة لـ Nvidia، وتشير إلى سعي الشركة بقيادة سام ألتمان لتقليل اعتمادها على البنية التحتية التابعة لمايكروسوفت وفتح مراكز بيانات جديدة.
وتُظهر هذه الخطوة أن وحدات غوغل يمكن أن تشكّل بديلاً أقل تكلفة مقارنةً بشرائح Nvidia، وفقاً لما أورده موقع "The Information"، الذي أشار إلى أن هذه التقنية قد تساعد OpenAI في تقليل تكلفة عمليات الاستدلال.
مع ذلك، فإن غوغل لا تتيح أقوى شرائحها لشركة OpenAI بسبب التنافس المباشر بينهما، كما أوضح مصدر من داخل Google Cloud.
ويعكس إدراج OpenAI ضمن عملاء غوغل كيف استفادت الأخيرة من تطوير تقنياتها الخاصة في الذكاء الاصطناعي، سواء من حيث العتاد أو البرمجيات، لتعزيز نمو خدماتها السحابية على المستوى العالمي.

