شبکه های اجتماعی

AMD مجموعه مراکز داده را برای تقویت هوش مصنوعی مولد گسترش می دهد

AMD مجموعه مراکز داده را برای تقویت هوش مصنوعی مولد گسترش می دهد

AMD محصولات، استراتژی و شرکای اکوسیستمی را اعلام کرد که ادعا می‌کنند «آینده محاسبات را شکل می‌دهند و مرحله بعدی نوآوری مرکز داده را برجسته می‌کنند» در «مرکز داده و اولین نمایشگاه فناوری هوش مصنوعی» شرکت. مدیرانی از خدمات وب آمازون (AWS)، Citadel، Hugging Face، به این شرکت روی صحنه پیوستند. متا، مایکروسافت آژور و PyTorch برای به نمایش گذاشتن مشارکت های فناوری برای ارائه نسل بعدی راه حل های بهبود یافته CPU و شتاب دهنده هوش مصنوعی به بازار.

زیرساخت محاسباتی بهینه شده برای مرکز داده
AMD از یک سری به روز رسانی برای خانواده نسل چهارم EPYC خود رونمایی کرد. این طراحی شده است تا تخصص حجم کاری مورد نیاز برای رفع نیازهای منحصر به فرد کسب و کار را به مشتریان ارائه دهد. این شرکت همچنین نشان داد که چگونه پردازنده نسل چهارم AMD EPYC به افزایش عملکرد و بهره وری انرژی ادامه خواهد داد. AMD توسط AWS ملحق شد تا پیش‌نمایش نمونه‌های M7a ابر محاسباتی الاستیک آمازون (Amazon EC2) که توسط پردازنده‌های نسل چهارم AMD EPYC (“جنووا”) ارائه می‌شوند را برجسته کند. خارج از مراسم، اوراکل اعلام کرد که قصد دارد نمونه‌های جدید زیرساخت محاسباتی Oracle (OCI) E5 را با پردازنده‌های نسل چهارم AMD EPYC در دسترس قرار دهد.

این شرکت همچنین نسل چهارم پردازنده های AMD EPYC 97X4 را با نام قبلی “برگامو” معرفی کرد. با 128 هسته Zen 4c در هر سوکت، این پردازنده ها ادعا می کنند که بالاترین تراکم vCPU، کارایی انرژی و عملکرد را برای برنامه هایی که در فضای ابری اجرا می شوند، ارائه می دهند.

متا نیز به AMD ملحق شد، جایی که غول رسانه‌های اجتماعی در مورد اینکه چگونه این پردازنده‌ها برای برنامه‌های اصلی خود مانند اینستاگرام، واتس‌اپ و موارد دیگر مناسب هستند، صحبت کرد. متا همچنین شاهد افزایش عملکرد با پردازنده های نسل چهارم AMD EPYC 97×4 در مقایسه با نسل سوم AMD EPYC در بارهای کاری مختلف بود. آخرین پردازنده بهبودهای TCO را ارائه می دهد و همچنین شرکت توضیح داد که چگونه AMD و Meta CPU های EPYC را برای بازده انرژی و نیازهای چگالی محاسباتی متا بهینه کردند.

AMD قصد دارد محصولات بهتری را با محاسبات فنی فعال کند
AMD پردازنده های نسل چهارم AMD EPYC را با فناوری AMD 3D V-Cache معرفی کرد که بالاترین عملکرد CPU سرور x86 جهان برای محاسبات فنی است. مایکروسافت در دسترس بودن کلی نمونه‌های Azure HBv4 و HX با پردازنده‌های نسل چهارم AMD EPYC با فناوری AMD 3D V-Cache اعلام شد.

پلتفرم هوش مصنوعی AMD چشم انداز هوش مصنوعی خود را منتقل می کند
این شرکت همچنین مجموعه‌ای از اطلاعیه‌ها را منتشر کرد که استراتژی پلتفرم هوش مصنوعی خود را به نمایش گذاشت و به مشتریان برتری ابری نسبت به سبد محصولات سخت‌افزاری نقطه پایانی داد. برای توسعه راه‌حل‌های هوش مصنوعی مقیاس‌پذیر و فراگیر، به همکاری نرم‌افزار صنعتی عمیق نیاز است.

AMD همچنین پیشرفته ترین شتاب دهنده جهان را برای هوش مصنوعی مولد معرفی کرده است. این شرکت همچنین جزئیات جدیدی از خانواده شتاب دهنده های سری MI300 AMD Instinct را فاش کرد. این شامل معرفی شتاب‌دهنده AMD Instinct MI300X، پیشرفته‌ترین شتاب‌دهنده جهان برای هوش مصنوعی مولد است.

MI300X مبتنی بر معماری نسل بعدی شتاب دهنده CDNA 3 AMD است و تا 192 گیگابایت حافظه HBM3 را پشتیبانی می کند. این ادعا می‌کند که کارایی محاسباتی و حافظه مورد نیاز برای آموزش مدل‌های زبان بزرگ و استنتاج برای بارهای کاری هوش مصنوعی تولیدی را فراهم می‌کند.

با حافظه بزرگ AMD Instinct MI300X، مشتریان اکنون می توانند مدل های زبان بزرگ مانند Falcon-40، مدل پارامتر 40B را روی یک شتاب دهنده MI300X قرار دهند. AMD نیز AMD را معرفی کرد بستر غریزی، که هشت شتاب دهنده MI300X را در یک طراحی استاندارد صنعتی برای راه حل ایده آل برای استنتاج و آموزش هوش مصنوعی گرد هم می آورد.

AMD از سه ماهه سوم MI300X را برای مشتریان اصلی خود نمونه برداری خواهد کرد. این شرکت همچنین اعلام کرد که AMD Instinct MI300A، اولین شتاب دهنده APU در جهان برای بارهای کاری HPC و AI، اکنون در حال نمونه گیری برای مشتریان است.

این شرکت همچنین اکوسیستم نرم افزاری ROCm را برای شتاب دهنده های مراکز داده به نمایش گذاشت. AMD همچنین بر آمادگی و همکاری با رهبران صنعت برای گردآوری یک اکوسیستم نرم افزاری هوش مصنوعی باز تاکید کرد.

PyTorch کار بین AMD و خودش را برای بالادستی پشته نرم افزار ROCm مورد بحث قرار داد و پشتیبانی فوری “روز صفر” را برای PyTorch 2.0 با نسخه ROCm نسخه 5.4.2 در تمام شتاب دهنده های AMD Instinct ارائه کرد.

این ادغام به توسعه دهندگان با طیف گسترده ای از مدل های هوش مصنوعی مجهز می شود
PyTorch که سازگار و آماده استفاده از “خارج از جعبه” در شتاب دهنده های AMD هستند.

Hugging Face، پلتفرم باز برای سازندگان هوش مصنوعی نیز اعلام کرد که بهینه سازی خواهد کرد
هزاران مدل در پلتفرم های AMD، از شتاب دهنده های AMD Instinct گرفته تا پردازنده های AMD Ryzen و AMD EPYC، پردازنده های گرافیکی Radeon AMD و ورسای و پردازنده های تطبیقی ​​Alveo.

یک نمونه کار شبکه برای ابر و سازمانی
AMD همچنین یک نمونه کار شبکه از جمله AMD را به نمایش گذاشت فكر كردن DPU، NIC های AMD Ultra Low Latency و AMD Adaptive NIC. علاوه بر این، DPU های AMD Pensando یک پشته نرم افزار را با “امنیت صفر اعتماد” و یک پردازنده بسته قابل برنامه ریزی رهبری ترکیب می کنند تا هوشمندترین و کارآمدترین DPU جهان را ایجاد کنند.

AMD Pensando DPU در مقیاس در سراسر شرکای ابری مانند IBM Cloud، Microsoft Azure و Oracle Compute Infrastructure مستقر شده است. در شرکت، در سوئیچ هوشمند HPE Aruba CX 10000 و با مشتریانی مانند شرکت پیشرو خدمات فناوری اطلاعات DXC و به عنوان بخشی از موتور خدمات توزیع شده VMware vSphere مستقر شده و عملکرد برنامه را برای مشتریان تسریع می کند.

AMD حتی نسل بعدی نقشه راه DPU خود را با نام رمز “Giglio” برجسته کرده است که هدف آن ارائه عملکرد و بهره وری انرژی برای مشتریان در مقایسه با محصولات نسل فعلی است، زمانی که انتظار می رود تا پایان سال 2023 در دسترس باشد.

این شرکت همچنین کیت توسعه‌دهنده نرم‌افزار در سیلیکون AMD Pensando (SSDK) را معرفی کرد که به مشتریان این امکان را می‌دهد تا به سرعت خدمات را توسعه دهند یا انتقال دهند تا در DPU قابل برنامه‌ریزی AMD Pensando P4 در هماهنگی با مجموعه غنی از ویژگی‌های موجود که قبلاً در پلتفرم پنساندو AMD AMD Pensando SSDK مشتریان را قادر می‌سازد تا قدرت رهبری AMD Pensando DPU را به کار ببندند و مجازی‌سازی شبکه و ویژگی‌های امنیتی را در زیرساخت خود، هماهنگ با مجموعه‌ای از ویژگی‌های موجود که قبلاً در پلتفرم Pensando پیاده‌سازی شده‌اند، تنظیم کنند.

فیس بوکتوییترلینکدین



پایان مقاله

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا