تعد Google شركة رائدة في مجال الذكاء الاصطناعي، وقد طور موظفوها بعضًا من أهم التطورات في هذا المجال على مدار العقد الماضي. لكن يعتقد البعض أنها تخلفت عن الركب فيما يتعلق بتسويق اختراعاتها، وداخليًا كانت الشركة تتسابق لإطلاق المنتجات وإثبات أنها لم تفقد تقدمها، حسبما ذكرت CNBC سابقًا. تتطلب نماذج ومنتجات الذكاء الاصطناعي مثل Google Bard أو OpenAI's ChatGPT - المدعومة بشرائح A100 من Nvidia - الكثير من أجهزة الكمبيوتر ومئات أو آلاف الرقائق للعمل معًا لتدريب النماذج، مع تشغيل أجهزة الكمبيوتر على مدار الساعة لأسابيع أو شهور. قالت جوجل إنها قامت ببناء نظام به أكثر من 4000 TPU مرتبطة بمكونات مخصصة مصممة لتشغيل وتدريب نماذج الذكاء الاصطناعي. يتم تشغيله منذ عام 2020، وقد تم استخدامه لتدريب نموذج PaLM من Google، والذي يتنافس مع نموذج OpenAI's GPT على مدار 50 يومًا. كتب باحثو Google أن الحاسب الفائق المستند إلى TPU من Google ، والمسمى TPU v4 ، "أسرع بـ 1.2x–1.7xويستخدم طاقة أقل بمقدار 1.3x–1.9x من Nvidia A100". تعتبر الكمية الكبيرة من طاقة الكمبيوتر اللازمة للذكاء الاصطناعي باهظة الثمن ، ويركز الكثيرون في الصناعة على تطوير رقائق جديدة أو مكونات مثل التوصيلات الضوئية أو تقنيات البرامج التي تقلل من كمية طاقة الحواسب المطلوبة.
مشاركة :