پردازندههای گرافیکی NVIDIA، AMD، Apple و Qualcomm با آسیبپذیری جدیدی مواجه شدهاند که به پاسخهای LLM گوش میدهد
به نظر میرسد پردازندههای گرافیکی مصرفکننده از AMD، NVIDIA، Apple و Qualcomm از آسیب پذیری ها در امان نیستند، زیرا طبق گزارش ها کارشناسان تهدیدی به نام “LeftoverLocals” که میتواند دادهها را از حافظه GPU استخراج کند.
آسیبپذیری جدید GPU “LeftoverLocals” بر فروشندگان اصلی تأثیر گذاشته است، بر پردازندههای گرافیکی NVIDIA، Apple، AMD، Qualcomm تأثیر میگذارد و تأثیری مخرب بالقوه ایجاد میکند
ظهور یک آسیبپذیری در هر قطعه سختافزاری چیزی است که صنعت فناوری اغلب شاهد آن است، و معمولاً مقیاس آن زمانی که تعداد افرادی که تحت تأثیر آن قرار میگیرند بسیار زیاد است. یک مثال برجسته در این مورد، آسیبپذیری Downfall اینتل است که اخیراً فاش شده است، که هزاران کاربر CPU این شرکت را در معرض خطر قرار داده است. با این حال، این بار، مصرفکنندگان GPU، کسانی که در تمامی پلتفرمها مانند موبایل و دسکتاپ هستند، باید با احتیاط عمل کنند، زیرا Trail of Bits محقق امنیتی آسیبپذیری را کشف کرده است که میتواند «دادههای کلیدی» را از حافظه داخلی شما حذف کند.
این آسیبپذیری «LeftoverLocals» نام دارد و به جای هدف قرار دادن برنامههای کاربردی مصرفکننده، این کار را با نفوذ به پردازندههای گرافیکی مورد استفاده در مدلهای LLM و ML انجام میدهد، که منطقهای است که استخراج دادهها اهمیت بیشتری دارد، زیرا آموزش مدل شامل استفاده از داده های حساس LeftoverLocals توسط کارشناسان دانشگاه کارنگی ملون ردیابی میشود و گفته میشود که این اطلاعات قبلاً توسط فروشندگان اصلی پردازندههای گرافیکی که تحت تأثیر آن قرار گرفتهاند، مانند NVIDIA، Apple، AMD، Arm، Intel، Qualcomm و Imagination به اشتراک گذاشته شده است.
کشف شد که LeftoverLocals میتواند حدود 5.5 مگابایت به ازای هر فراخوانی GPU داده در Radeon RX 7900 XT AMD هنگام اجرای یک مدل پارامتر هفت میلیاردی، نشت کند. به گفته Trail of Bits، میزان نشت داده ها به اندازه ای است که حتی مدل کامل را بازسازی کند، به همین دلیل است که این آسیب پذیری خطر بالایی در زمینه هوش مصنوعی ایجاد می کند زیرا می تواند برای شرکت های فردی، به ویژه آنهایی که مخرب باشد. حول محور آموزش LLM می چرخد. بهرهبرداران به طور بالقوه میتوانند از پیشرفتهای گسترده در هوش مصنوعی استفاده کنند، که به طور بالقوه منجر به تأثیر بسیار بزرگتری میشود.
LeftoverLocals به یک چیز بستگی دارد، و آن این است که چگونه یک GPU حافظه خود را جدا می کند، که کاملاً با چارچوب CPU متفاوت است. بنابراین یک بهرهبردار که از طریق یک رابط قابل برنامهریزی به یک GPU دسترسی مشترک دارد، میتواند دادههای حافظه را در داخل یک GPU بدزدد که پیامدهای امنیتی متعددی دارد. LeftoverLocals به دو فرآیند مختلف تقسیم می شود، یک Linder و یک Writer، و در اینجا نحوه کار هر دوی آنها آمده است:
به طور کلی، این آسیبپذیری را میتوان با استفاده از دو برنامه ساده نشان داد: یک Linder و یک Writer، که در آن نویسنده مقادیر قناری را در حافظه محلی ذخیره میکند، در حالی که یک شنونده حافظه محلی غیر اولیه را میخواند تا وجود آن را بررسی کند. ارزش های قناری شنونده بارها و بارها یک هسته GPU را راه اندازی می کند که از حافظه محلی غیر اولیه می خواند. Writer بارها و بارها یک هسته GPU راه اندازی می کند که مقادیر قناری را در حافظه محلی می نویسد.
برای یک مصرفکننده معمولی، LeftoverLocals احتمالاً جای نگرانی نیست، اما برای کسانی که با صنایعی مانند محاسبات ابری یا استنباط مرتبط هستند، این آسیبپذیری میتواند کشنده باشد، بهویژه از نظر امنیت چارچوبهای LLM و ML.
منبع خبر: رد بیت ها