سان فرانسيسكو ، 13 يونيو (رويترز) – تفكر أمازون ويب سيرفيسز (AMZN.O) ، أكبر مزود للحوسبة السحابية في العالم ، في استخدام رقائق ذكاء اصطناعي جديدة من شركة Advanced Micro Devices Inc (AMD.O) ، على الرغم من أنها لم تكن نهائية. بالقرار ، قال مسؤول تنفيذي في AWS لرويترز.
جاءت هذه التصريحات خلال حدث AMD حيث حددت شركة الرقائق استراتيجيتها لسوق الذكاء الاصطناعي ، الذي تهيمن عليه منافستها Nvidia Corp (NVDA.O).
على الرغم من كشف AMD عن بعض المواصفات الفنية لشريحة AI التي ستصدر في وقت لاحق من هذا العام والتي يمكن أن تتفوق بطريقة ما على أفضل عروض Nvidia الحالية في بعض المقاييس ، فقد أدت الأخبار إلى انخفاض الأسهم بعد أن لم تكشف AMD عن عميل رئيسي للشريحة.
في مقابلات مع رويترز ، حددت ليزا سو ، الرئيس التنفيذي لشركة AMD ، نهجًا لكسب عملاء الحوسبة السحابية الرئيسيين من خلال تقديم قائمة بجميع القطع اللازمة لبناء أنواع الأنظمة لتشغيل الخدمات المشابهة لـ ChatGPT ، مع السماح للعملاء باختيار واختيار أي منهم. تريد ، باستخدام اتصالات الصناعة القياسية.
قال سو: “نراهن على أن الكثير من الناس يريدون الاختيار ، وأنهم يريدون القدرة على تخصيص ما يحتاجون إليه في مركز البيانات الخاص بهم”.
بينما لم تقدم AWS أي التزامات عامة لاستخدام رقائق MI300 الجديدة من AMD في خدماتها السحابية ، قال Dave Brown ، نائب رئيس سحابة الحوسبة المرنة في Amazon ، إن AWS تدرسها.
قال براون: “ما زلنا نعمل معًا على المكان الذي سيصل إليه ذلك بالضبط بين AWS و AMD ، لكنه شيء تعمل فرقنا معًا عليه”. “هذا هو المكان الذي استفدنا فيه من بعض العمل الذي قاموا به حول التصميم الذي يتم توصيله بالأنظمة الحالية.”
تبيع Nvidia رقائقها مجزأة ولكنها تطلب أيضًا من موفري السحابة ما إذا كانوا على استعداد لتقديم نظام كامل صممته Nvidia في منتج يسمى DGX Cloud. Oracle Corp (ORCL.N) هي الشريك الأول لشركة Nvidia لهذا النظام.
قال براون إن AWS رفضت العمل مع Nvidia في عرض DGX Cloud.
قال براون: “لقد اقتربوا منا ، نظرنا إلى نموذج العمل ، ولم يكن له معنى كبير”.
قال براون إن AWS تفضل تصميم خوادمها الخاصة من الألف إلى الياء. بدأت AWS في بيع شريحة H100 من Nvidia في مارس ، ولكن كجزء من أنظمة من تصميمها الخاص.
معاييرنا: مبادئ الثقة في Thomson Reuters.
اترك ردك