تكنولوجيا

لا تشكل شريحة الذكاء الاصطناعي الجديدة من Microsoft أي تهديد لـ Nvidia ، ولكن الحاجة المتزايدة إلى LLM تدفع السيليكون المخصص

[ad_1]

انضم إلى كبار المسؤولين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو لتعرف كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح.. يتعلم أكثر


تعمل Microsoft على تطوير شريحة ذكاء اصطناعي (AI) جديدة ، تحمل الاسم الرمزي داخليًا أثينا ، منذ عام 2019 ، وفقًا لتقارير المعلومات اليوم. يمكن أن تجعل الشركة أثينا متاحة على نطاق واسع للاستخدام داخل الشركة نفسها و OpenAI ابتداء من العام المقبل.

يقول الخبراء إن Nvidia لن تتعرض للتهديد من هذه التحركات ، لكنها تشير إلى الحاجة إلى فائق التقوية لتطوير السيليكون المخصص الخاص بهم.



تطوير شرائح الذكاء الاصطناعي استجابة لأزمة وحدة معالجة الرسومات

تم تصميم الشريحة ، مثل تلك التي تم تطويرها داخليًا بواسطة Google (TPU) و Amazon (معماريات معالج Trainium و Inferentia) ، للتعامل مع تدريب نموذج اللغة الكبير (LLM). هذا أمر ضروري لأن حجم نماذج الذكاء الاصطناعي التوليدية المتقدمة ينمو بشكل أسرع من قدرات الحوسبة اللازمة لتدريبها ، كما قال تشيراغ ديكيت ، المحلل في شركة Gartner لـ VentureBeat عبر البريد الإلكتروني.

Nvidia هي الشركة الرائدة في السوق على بعد ميل عندما يتعلق الأمر بتزويد رقائق الذكاء الاصطناعي ، بحصة سوقية تبلغ حوالي 88 ٪ ، وفقًا لأبحاث John Peddie. تتنافس الشركات فقط لحجز الوصول إلى وحدات معالجة الرسومات A100 و H100 المتطورة التي تكلف كل واحدة عشرات الآلاف من الدولارات ، مما يتسبب في ما يمكن وصفه بأزمة وحدة معالجة الرسومات.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

وأوضح أن “نماذج الذكاء الاصطناعي التوليدية المتطورة تستخدم الآن مئات المليارات من المعلمات التي تتطلب قدرات حسابية واسعة النطاق”. “مع اختلاف نماذج الجيل التالي في تريليونات من المعلمات ، فليس من المستغرب أن يستكشف مبتكرو التكنولوجيا الرائدون العديد من المسرعات الحاسوبية لتسريع التدريب وتقليل وقت التدريب وتكلفته.”

نظرًا لأن Microsoft تسعى إلى تسريع إستراتيجيتها التوليدية للذكاء الاصطناعي مع خفض التكاليف ، فمن المنطقي أن تطور الشركة استراتيجية تسريع ذكاء اصطناعي متمايزة ومخصصة ، كما أضاف ، “يمكن أن تساعدهم على تحقيق اقتصاديات مدمرة في الحجم تتجاوز ما هو ممكن باستخدام الأساليب التكنولوجية التقليدية السلعية . “

تلبي رقائق الذكاء الاصطناعي المخصصة الحاجة إلى سرعة الاستدلال

تنطبق الحاجة إلى التسريع أيضًا ، بشكل مهم ، على شرائح الذكاء الاصطناعي التي تدعم استدلال التعلم الآلي ، أي عندما يتم تقليل النموذج إلى مجموعة من الأوزان التي تستخدم بعد ذلك البيانات الحية لإنتاج نتائج قابلة للتنفيذ. تُستخدم البنية الأساسية للحوسبة للاستدلال عندما يولد ChatGPT استجابات لمدخلات اللغة الطبيعية ، على سبيل المثال.

تنتج Nvidia رقائق AI قوية للغاية للأغراض العامة وتقدم منصة CUDA للحوسبة المتوازية (ومشتقاتها) كطريقة للقيام بتدريب ML على وجه التحديد ، كما قال المحلل Jack Gold من J Gold Associates في رسالة بريد إلكتروني إلى VentureBeat. لكن الاستدلال يتطلب عادةً أداءً أقل ، كما أوضح ، ويرى أصحاب الفروق الدقيقة طريقة للتأثير أيضًا على احتياجات استدلال عملائهم باستخدام السيليكون المخصص.

قال: “في النهاية ، سيكون الاستدلال سوقًا أكبر بكثير من ML ، لذلك من المهم أن يقدم جميع البائعين المنتجات هنا”.

لا تمثل أثينا من Microsoft تهديدًا كبيرًا لـ Nvidia

قال جولد إنه لا يرى أن أثينا من مايكروسوفت تشكل تهديدًا كبيرًا لمكانة Nvidia في AI / ML ، حيث سيطرت منذ أن ساعدت الشركة في تغذية “ثورة” التعلم العميق قبل عقد من الزمان ؛ بناء استراتيجية منصة قوية ونهج يركز على البرامج ؛ وشهدت ارتفاع أسهمها في عصر الذكاء الاصطناعي التوليدي الثقيل GPU.

وقال: “مع زيادة الاحتياجات وتنوع الاستخدامات ، من المهم أن تبحث Microsoft وغيرها من أجهزة القياس الفائقة عن إصداراتهم المُحسَّنة من رقائق الذكاء الاصطناعي الخاصة بهم (غير الخاصة بـ CUDA) البنى والخوارزميات المُحسَّنة”.

وأوضح أن الأمر يتعلق بتكاليف تشغيل السحابة ، ولكنه يتعلق أيضًا بتوفير خيارات منخفضة التكلفة لمجموعة متنوعة من العملاء الذين قد لا يحتاجون أو يرغبون في خيار Nvidia عالي التكلفة. “أتوقع أن تستمر جميع أجهزة القياس الفائقة في تطوير السيليكون الخاص بهم ، ليس فقط للتنافس مع Nvidia ، ولكن أيضًا للتنافس مع Intel في الحوسبة السحابية للأغراض العامة.”

أكد ديكيت أيضًا أن Nvidia لا تظهر أي علامات على التباطؤ. قال: “تواصل Nvidia ريادتها لتقنية GPU التي تقود التطوير والهندسة التوليدية للذكاء الاصطناعي على نطاق واسع”. “يجب أن تتوقع الشركات أن تواصل Nvidia البناء على ابتكاراتها الرائدة في فئتها ودفع التمايز التنافسي مع ظهور ASICs المخصصة للذكاء الاصطناعي.”

لكنه أشار إلى أن “الابتكار في المرحلة الأخيرة من قانون مور سيكون مدفوعًا بتسريع غير متجانس يشمل وحدات معالجة الرسومات والرقائق المخصصة الخاصة بالتطبيقات”. وأوضح أن هذا له آثار على صناعة أشباه الموصلات ككل ، لا سيما “مزودي التكنولوجيا الذين لم يشاركوا بعد بشكل هادف لتلبية احتياجات سوق الذكاء الاصطناعي سريع التطور”.

مهمة VentureBeat هو أن تكون ساحة عامة رقمية لصناع القرار التقنيين لاكتساب رؤى حول تكنولوجيا الأعمال التحويلية والمعاملات. اكتشف جلساتنا التثقيفية.

[ad_2]
Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى