اخبار روزفناوری

سس مخفی هوش مصنوعی اپل ظاهرا از پردازنده‌های گرافیکی NVIDIA صرف نظر می‌کند و از تراشه‌های گوگل برای آموزش استفاده می‌کند. 

سس مخفی هوش مصنوعی اپل ظاهرا از پردازنده‌های گرافیکی NVIDIA صرف نظر می‌کند و از تراشه‌های گوگل برای آموزش استفاده می‌کند. 

این توصیه سرمایه گذاری نیست. نویسنده در هیچ یک از سهام ذکر شده هیچ سمتی ندارد. Wccftech.com یک خط مشی اخلاقی و افشای اطلاعات دارد.

به نظر می‌رسد اپل غول فناوری کوپرتینویی در یک مقاله تحقیقاتی جدید که قابلیت‌های آموزش هوش مصنوعی خود را برای آیفون و سایر محصولات اعلام شده در سال جاری اعلام کرد، به جای انویدیا رهبر بازار، بر تراشه‌های گوگل تکیه کرده است. صعود NVIDIA به صدر زنجیره غذایی ارزش بازار مبتنی بر تقاضای شدید برای پردازنده‌های گرافیکی آن است که درآمد و درآمد را با درصدهای سه رقمی بالاتر برده است.

با این حال، اپل در مقاله خود به اشتراک می‌گذارد که 2.73 میلیارد پارامتر Apple Foundation Model (AFM) به خوشه‌های ابری واحد پردازش تانسور v4 و v5p (TPU) که ​​معمولاً توسط Google Alphabet Inc ارائه می‌شوند، متکی است.

رویکرد هوش مصنوعی اپل متکی به استفاده از TPU به جای پردازنده گرافیکی مقاله تحقیقاتی را نشان می دهد

مقاله تحقیقاتی اپل که اوایل امروز منتشر شد، زیرساخت‌های آموزشی و سایر جزئیات مربوط به مدل‌های هوش مصنوعی را پوشش می‌دهد که ویژگی‌های اعلام‌شده در WWDC در اوایل سال جاری را تقویت می‌کنند. اپل هم در زمینه پردازش هوش مصنوعی دستگاه و هم در پردازش ابری اعلام کرد، و در قلب این ویژگی های هوش مصنوعی، مدل بنیاد اپل با نام AFM قرار دارد.

برای AFM روی سرور، یا مدلی که ویژگی‌های هوش مصنوعی ابری به نام Apple Cloud Compute را تقویت می‌کند، اپل به اشتراک گذاشت که یک مدل هوش مصنوعی ۶.۳ تریلیون رمزی “از ابتدا” در “ آموزش می‌دهد. تراشه های 8192 TPUv4.” تراشه‌های TPUv4 Google در غلاف‌هایی از 4096 تراشه در دسترس هستند.

اپل اضافه کرد که مدل‌های AFM (هم روی دستگاه و هم در فضای ابری) بر روی تراشه‌های TPUv4 و کلاسترهای v5p Cloud TPU آموزش داده شده‌اند. v5p بخشی از ابر رایانه هوش مصنوعی گوگل است و در دسامبر سال گذشته معرفی شد.

هر غلاف v5p از 8960 تراشه ساخته شده است و به گفته گوگل، دو برابر عملیات ممیز شناور در ثانیه (FLOPS) و سه برابر حافظه نسبت به TPU v4 برای آموزش مدل‌ها تقریباً سه برابر سریع‌تر ارائه می‌کند.

توضیحات اپل در مورد دستگاه آن و ویژگی های هوش مصنوعی ابری هر دو به تکنیک های آموزشی AFM یا AFM متکی هستند. تصویر: Apple Intelligence Foundation Language Models/Apple

برای مدل هوش مصنوعی روی دستگاه برای ویژگی‌هایی مانند نوشتن و انتخاب تصویر، اپل از مدل 6.4 میلیارد پارامتری استفاده می‌کند که “از ابتدا با استفاده از همان دستور العمل سرور AFM آموزش داده شده است.” اپل همچنین تصمیم گرفت برای مدل سرور AFM به تراشه های قدیمی تر V4 TPU تکیه کند. همانطور که در بالا مشخص شد، از تراشه‌های 8092 v4 TPU استفاده می‌کرد، اما برای مدل AFM روی دستگاه، شرکت تصمیم گرفت بر روی تراشه‌های جدیدتر تکیه کند. به گفته اپل، این مدل بر روی تراشه های 2048 TPU v5p آموزش داده شده است.

سایر جزئیات به اشتراک گذاشته شده در مقاله شامل ارزیابی مدل برای پاسخ های مضر، موضوعات حساس، صحت واقعی، عملکرد ریاضی و رضایت انسان از خروجی های مدل است. به گفته اپل، سرورهای AFM و مدل‌های روی دستگاه، در زمینه سرکوب خروجی‌های مضر همتایان خود در صنعت پیشرو هستند.

برای مثال، سرور AFM، در مقایسه با OpenAI’s GPT-4 دارای نرخ نقض مضر خروجی 6.3٪ است که به طور قابل توجهی کمتر از GPT-4 28.8٪ است، داده های اپل نشان می دهد. به طور مشابه، در دستگاه AFM نرخ تخلف 7.5% کمتر از امتیاز Llama-3-8B (آموزش داده شده توسط متای مادر فیسبوک) 21.8% بود.

برای خلاصه‌سازی ایمیل، پیام و اعلان، AFM روی دستگاه به ترتیب 71.3 درصد، 63 درصد و 74.9 درصد رضایت داشت. مقاله تحقیقاتی به اشتراک گذاشت که اینها مدل های Llama، Gemma و Phi-3 را هدایت کردند.

این داستان را به اشتراک بگذارید

< استفاده از xlink:href="#icn-shareFacebook"/> فیس بوک

< استفاده از xlink:href="#icn-shareTwitter"/> توییتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا