AMD پشتیبانی کامل از مدل‌های هوش مصنوعی Llama 3.1 را در سراسر پردازنده‌های EPYC، شتاب‌دهنده‌های Instinct، NPUهای هوش مصنوعی Ryzen و پردازنده‌های گرافیکی Radeon اعلام کرد.

AMD پشتیبانی کامل از مدل‌های هوش مصنوعی Llama 3.1 را در سراسر پردازنده‌های EPYC، شتاب‌دهنده‌های Instinct، NPUهای هوش مصنوعی Ryzen و پردازنده‌های گرافیکی Radeon اعلام کرد.

AMD دارای اعلام کرد پشتیبانی کامل از مدل هوش مصنوعی Llama 3.1 در کل مجموعه خود از جمله EPYC، Instinct، Ryzen و Radeon.

مدل‌های Llama 3.1 پشتیبانی Day-0 را در تمامی سخت‌افزارهای AMD دریافت می‌کنند: پردازنده‌های EPYC، پردازنده‌های Ryzen، شتاب‌دهنده‌های Instinct و پردازنده‌های گرافیکی Radeon.

اعلامیه مطبوعاتی: استراتژی هوش مصنوعی ما در AMD بر فعال کردن اکوسیستم هوش مصنوعی با مجموعه گسترده ای از موتورهای محاسباتی بهینه آموزشی و استنتاج، قابلیت های نرم افزاری باز و اثبات شده و نوآوری مشترک ریشه دار متمرکز شده است. با شرکا و مشتریان ما عملکرد بالا، نوآوری‌ها و سازگاری گسترده، بردارهای اساسی هستند که این استراتژی را با تکامل جهان هوش مصنوعی هدایت می‌کنند. تمرکز مهم ما این است که نسل بعدی مدل‌های هوش مصنوعی را برای همه فعال کنیم و مزایای هوش مصنوعی را فراگیر کنیم.

با Llama 3.1، LLM طول زمینه را به 128K افزایش می‌دهد، پشتیبانی از 8 زبان را اضافه می‌کند و Llama 3.1 405B را معرفی می‌کند که به گفته متا، بزرگترین مدل پایه در دسترس است. با Llama 3.1 405B، جامعه را قادر می‌سازد تا قابلیت‌های جدیدی مانند تولید داده‌های مصنوعی و تقطیر مدل را باز کند.

ما از انتشار اخیر مدل‌های Llama 3.1 از متا دلگرم شده‌ایم و آنها را در آزمایشگاه‌های AMD در مجموعه گسترده موتورهای محاسباتی خود که نتایج مثبتی نشان می‌دهند راه‌اندازی و اجرا می‌کنیم. در عین حال، ما می خواهیم برخی از کارهای چشمگیر تیم ما با Llama 3 و معنای Llama 3.1 برای مشتریان AMD AI را به نمایش بگذاریم.

AMD Instinct MI300X GPU Accelerators و Llama 3.1

هر نسل از مدل‌ها قابلیت‌ها و عملکرد جدیدی را برای جامعه کاربران خود به ارمغان می‌آورند و Llama 3.1 تفاوتی ندارد، مکالمات پیچیده با درک متنی بی‌نظیر، استدلال و تولید متن را متحول می‌کند و از همان روز به‌طور یکپارچه بر روی شتاب‌دهنده و پلتفرم GPU AMD Instinct MI300X اجرا می‌شود. 0.

GPUهای AMD Instinct MI300X همچنان ظرفیت حافظه و پهنای باند پیشرو را ارائه می‌کنند که به کاربران امکان می‌دهد یک نمونه از Llama 3 70B را روی یک MI300X و حداکثر 8 نمونه موازی را به طور همزمان روی یک سرور اجرا کنند.

اما، با مدل جدید پارامتر 405B، بزرگترین مدل پایه در دسترس، نیاز به ظرفیت حافظه بیش از همیشه مهم است. ما تأیید کرده‌ایم که یک سرور با هشت شتاب‌دهنده AMD Instinct MI300X می‌تواند با کل مدل پارامتر Llama 3.1 405B با استفاده از نوع داده FP16 مطابقت داشته باشد. این بدان معناست که سازمان ها می توانند از صرفه جویی قابل توجه در هزینه ها، مدیریت زیرساخت ساده و افزایش بهره وری بهره مند شوند. این امر با قابلیت‌های حافظه پیشرو در صنعت پلتفرم AMD Instinct MI300X امکان‌پذیر شده است.

در نهایت، متا از آخرین نسخه‌های ROCm Open Ecosystem و پردازنده‌های گرافیکی AMD Instinct MI300X در بخش‌هایی از فرآیند توسعه Llama 3.1 استفاده کرد. این ادامه همکاری مداوم ما با متا است و ما مشتاقانه منتظر ادامه این همکاری سازنده هستیم.

CPU های AMD EPYC و Llama 3.1

فراتر از پردازنده‌های گرافیکی مرکز داده، AMD یک پلت فرم سرور پیشرو را برای محاسبات مرکز داده، ارائه عملکرد بالا، کارایی انرژی، و سازگاری x86 برای انواع بارهای کاری مرکز داده با پردازنده‌های AMD EPYC ما، فعال می‌کند. هوش مصنوعی یک بخش حیاتی فزاینده در بسیاری از برنامه‌های مرکز داده است که خلاقیت، بهره‌وری و کارایی را در حجم‌های کاری بی‌شمار افزایش می‌دهد.

از آنجایی که اکثر مراکز داده مدرن بارهای کاری مختلفی را پشتیبانی می‌کنند، استفاده از پردازنده‌های AMD EPYC به مشتریان عملکرد بار کاری سازمانی، بهره‌وری انرژی، و توانایی اجرای AI و LLM برای استنتاج، توسعه مدل‌های کوچک، آزمایش و آموزش دسته‌ای را می‌دهد.< /p>

خروج از نسخه موبایل