AMD مجموعه مراکز داده را برای تقویت هوش مصنوعی مولد گسترش می دهد


AMD محصولات، استراتژی و شرکای اکوسیستمی را اعلام کرد که ادعا میکنند «آینده محاسبات را شکل میدهند و مرحله بعدی نوآوری مرکز داده را برجسته میکنند» در «مرکز داده و اولین نمایشگاه فناوری هوش مصنوعی» شرکت. مدیرانی از خدمات وب آمازون (AWS)، Citadel، Hugging Face، به این شرکت روی صحنه پیوستند. متا، مایکروسافت آژور و PyTorch برای به نمایش گذاشتن مشارکت های فناوری برای ارائه نسل بعدی راه حل های بهبود یافته CPU و شتاب دهنده هوش مصنوعی به بازار.
زیرساخت محاسباتی بهینه شده برای مرکز داده
AMD از یک سری به روز رسانی برای خانواده نسل چهارم EPYC خود رونمایی کرد. این طراحی شده است تا تخصص حجم کاری مورد نیاز برای رفع نیازهای منحصر به فرد کسب و کار را به مشتریان ارائه دهد. این شرکت همچنین نشان داد که چگونه پردازنده نسل چهارم AMD EPYC به افزایش عملکرد و بهره وری انرژی ادامه خواهد داد. AMD توسط AWS ملحق شد تا پیشنمایش نمونههای M7a ابر محاسباتی الاستیک آمازون (Amazon EC2) که توسط پردازندههای نسل چهارم AMD EPYC (“جنووا”) ارائه میشوند را برجسته کند. خارج از مراسم، اوراکل اعلام کرد که قصد دارد نمونههای جدید زیرساخت محاسباتی Oracle (OCI) E5 را با پردازندههای نسل چهارم AMD EPYC در دسترس قرار دهد.
این شرکت همچنین نسل چهارم پردازنده های AMD EPYC 97X4 را با نام قبلی “برگامو” معرفی کرد. با 128 هسته Zen 4c در هر سوکت، این پردازنده ها ادعا می کنند که بالاترین تراکم vCPU، کارایی انرژی و عملکرد را برای برنامه هایی که در فضای ابری اجرا می شوند، ارائه می دهند.
متا نیز به AMD ملحق شد، جایی که غول رسانههای اجتماعی در مورد اینکه چگونه این پردازندهها برای برنامههای اصلی خود مانند اینستاگرام، واتساپ و موارد دیگر مناسب هستند، صحبت کرد. متا همچنین شاهد افزایش عملکرد با پردازنده های نسل چهارم AMD EPYC 97×4 در مقایسه با نسل سوم AMD EPYC در بارهای کاری مختلف بود. آخرین پردازنده بهبودهای TCO را ارائه می دهد و همچنین شرکت توضیح داد که چگونه AMD و Meta CPU های EPYC را برای بازده انرژی و نیازهای چگالی محاسباتی متا بهینه کردند.
AMD قصد دارد محصولات بهتری را با محاسبات فنی فعال کند
AMD پردازنده های نسل چهارم AMD EPYC را با فناوری AMD 3D V-Cache معرفی کرد که بالاترین عملکرد CPU سرور x86 جهان برای محاسبات فنی است. مایکروسافت در دسترس بودن کلی نمونههای Azure HBv4 و HX با پردازندههای نسل چهارم AMD EPYC با فناوری AMD 3D V-Cache اعلام شد.
پلتفرم هوش مصنوعی AMD چشم انداز هوش مصنوعی خود را منتقل می کند
این شرکت همچنین مجموعهای از اطلاعیهها را منتشر کرد که استراتژی پلتفرم هوش مصنوعی خود را به نمایش گذاشت و به مشتریان برتری ابری نسبت به سبد محصولات سختافزاری نقطه پایانی داد. برای توسعه راهحلهای هوش مصنوعی مقیاسپذیر و فراگیر، به همکاری نرمافزار صنعتی عمیق نیاز است.
AMD همچنین پیشرفته ترین شتاب دهنده جهان را برای هوش مصنوعی مولد معرفی کرده است. این شرکت همچنین جزئیات جدیدی از خانواده شتاب دهنده های سری MI300 AMD Instinct را فاش کرد. این شامل معرفی شتابدهنده AMD Instinct MI300X، پیشرفتهترین شتابدهنده جهان برای هوش مصنوعی مولد است.
MI300X مبتنی بر معماری نسل بعدی شتاب دهنده CDNA 3 AMD است و تا 192 گیگابایت حافظه HBM3 را پشتیبانی می کند. این ادعا میکند که کارایی محاسباتی و حافظه مورد نیاز برای آموزش مدلهای زبان بزرگ و استنتاج برای بارهای کاری هوش مصنوعی تولیدی را فراهم میکند.
با حافظه بزرگ AMD Instinct MI300X، مشتریان اکنون می توانند مدل های زبان بزرگ مانند Falcon-40، مدل پارامتر 40B را روی یک شتاب دهنده MI300X قرار دهند. AMD نیز AMD را معرفی کرد بستر غریزی، که هشت شتاب دهنده MI300X را در یک طراحی استاندارد صنعتی برای راه حل ایده آل برای استنتاج و آموزش هوش مصنوعی گرد هم می آورد.
AMD از سه ماهه سوم MI300X را برای مشتریان اصلی خود نمونه برداری خواهد کرد. این شرکت همچنین اعلام کرد که AMD Instinct MI300A، اولین شتاب دهنده APU در جهان برای بارهای کاری HPC و AI، اکنون در حال نمونه گیری برای مشتریان است.
این شرکت همچنین اکوسیستم نرم افزاری ROCm را برای شتاب دهنده های مراکز داده به نمایش گذاشت. AMD همچنین بر آمادگی و همکاری با رهبران صنعت برای گردآوری یک اکوسیستم نرم افزاری هوش مصنوعی باز تاکید کرد.
PyTorch کار بین AMD و خودش را برای بالادستی پشته نرم افزار ROCm مورد بحث قرار داد و پشتیبانی فوری “روز صفر” را برای PyTorch 2.0 با نسخه ROCm نسخه 5.4.2 در تمام شتاب دهنده های AMD Instinct ارائه کرد.
این ادغام به توسعه دهندگان با طیف گسترده ای از مدل های هوش مصنوعی مجهز می شود
PyTorch که سازگار و آماده استفاده از “خارج از جعبه” در شتاب دهنده های AMD هستند.
Hugging Face، پلتفرم باز برای سازندگان هوش مصنوعی نیز اعلام کرد که بهینه سازی خواهد کرد
هزاران مدل در پلتفرم های AMD، از شتاب دهنده های AMD Instinct گرفته تا پردازنده های AMD Ryzen و AMD EPYC، پردازنده های گرافیکی Radeon AMD و ورسای و پردازنده های تطبیقی Alveo.
یک نمونه کار شبکه برای ابر و سازمانی
AMD همچنین یک نمونه کار شبکه از جمله AMD را به نمایش گذاشت فكر كردن DPU، NIC های AMD Ultra Low Latency و AMD Adaptive NIC. علاوه بر این، DPU های AMD Pensando یک پشته نرم افزار را با “امنیت صفر اعتماد” و یک پردازنده بسته قابل برنامه ریزی رهبری ترکیب می کنند تا هوشمندترین و کارآمدترین DPU جهان را ایجاد کنند.
AMD Pensando DPU در مقیاس در سراسر شرکای ابری مانند IBM Cloud، Microsoft Azure و Oracle Compute Infrastructure مستقر شده است. در شرکت، در سوئیچ هوشمند HPE Aruba CX 10000 و با مشتریانی مانند شرکت پیشرو خدمات فناوری اطلاعات DXC و به عنوان بخشی از موتور خدمات توزیع شده VMware vSphere مستقر شده و عملکرد برنامه را برای مشتریان تسریع می کند.
AMD حتی نسل بعدی نقشه راه DPU خود را با نام رمز “Giglio” برجسته کرده است که هدف آن ارائه عملکرد و بهره وری انرژی برای مشتریان در مقایسه با محصولات نسل فعلی است، زمانی که انتظار می رود تا پایان سال 2023 در دسترس باشد.
این شرکت همچنین کیت توسعهدهنده نرمافزار در سیلیکون AMD Pensando (SSDK) را معرفی کرد که به مشتریان این امکان را میدهد تا به سرعت خدمات را توسعه دهند یا انتقال دهند تا در DPU قابل برنامهریزی AMD Pensando P4 در هماهنگی با مجموعه غنی از ویژگیهای موجود که قبلاً در پلتفرم پنساندو AMD AMD Pensando SSDK مشتریان را قادر میسازد تا قدرت رهبری AMD Pensando DPU را به کار ببندند و مجازیسازی شبکه و ویژگیهای امنیتی را در زیرساخت خود، هماهنگ با مجموعهای از ویژگیهای موجود که قبلاً در پلتفرم Pensando پیادهسازی شدهاند، تنظیم کنند.
فیس بوکتوییترلینکدین
پایان مقاله