13 نوفمبر (رويترز) – أضافت شركة إنفيديا (NVDA.O) يوم الاثنين ميزات جديدة إلى أفضل شريحة للذكاء الاصطناعي، قائلة إن العرض الجديد سيبدأ في طرحه العام المقبل مع موقع Amazon.com (AMZN.O). ) والأبجدية (GOOGL.O) وجوجل وأوراكل (ORCL.N).
سوف تتفوق شريحة H200، كما تسمى الشريحة، على شريحة H100 الأعلى حاليًا من Nvidia. الترقية الأساسية هي المزيد من الذاكرة ذات النطاق الترددي العالي، وهي واحدة من أغلى أجزاء الشريحة التي تحدد مقدار البيانات التي يمكنها معالجتها بسرعة.
تهيمن Nvidia على سوق رقائق الذكاء الاصطناعي وتدعم خدمة ChatGPT الخاصة بـ OpenAI والعديد من خدمات الذكاء الاصطناعي التوليدية المماثلة التي تستجيب للاستفسارات من خلال الكتابة الشبيهة بالإنسان. إن إضافة المزيد من الذاكرة ذات النطاق الترددي العالي والاتصال الأسرع بعناصر معالجة الشريحة يعني أن مثل هذه الخدمات ستكون قادرة على تقديم إجابة بسرعة أكبر.
يحتوي جهاز H200 على 141 غيغابايت من الذاكرة ذات النطاق الترددي العالي، مقارنة بـ 80 غيغابايت في جهاز H100 السابق. ولم تكشف Nvidia عن مورديها للذاكرة الموجودة على الشريحة الجديدة، لكن Micron Technology (MU.O) قالت في سبتمبر إنها تعمل لتصبح موردًا لـ Nvidia.
وتشتري Nvidia أيضًا الذاكرة من شركة SK Hynix الكورية (000660.KS)، التي قالت الشهر الماضي إن رقائق الذكاء الاصطناعي تساعد في إنعاش المبيعات.
قالت Nvidia يوم الأربعاء إن Amazon Web Services وGoogle Cloud وMicrosoft Azure وOracle Cloud Infrastructure سيكونون من بين مقدمي الخدمات السحابية الأوائل الذين يوفرون الوصول إلى شرائح H200، بالإضافة إلى موفري خدمات السحابة المتخصصة في الذكاء الاصطناعي CoreWeave وLambda وVultr.
تقرير ستيفن نيليس في سان فرانسيسكو. تحرير سام هولمز.
معاييرنا: مبادئ الثقة في طومسون رويترز.
اترك ردك