فناوری

پردازنده‌های گرافیکی NVIDIA، AMD، Apple و Qualcomm با آسیب‌پذیری جدیدی مواجه شده‌اند که به پاسخ‌های LLM گوش می‌دهد

پردازنده‌های گرافیکی NVIDIA، AMD، Apple و Qualcomm با آسیب‌پذیری جدیدی مواجه شده‌اند که به پاسخ‌های LLM گوش می‌دهد

به نظر می‌رسد پردازنده‌های گرافیکی مصرف‌کننده از AMD، NVIDIA، Apple و Qualcomm از آسیب پذیری ها در امان نیستند، زیرا طبق گزارش ها کارشناسان تهدیدی به نام “LeftoverLocals” که می‌تواند داده‌ها را از حافظه GPU استخراج کند.

آسیب‌پذیری جدید GPU “LeftoverLocals” بر فروشندگان اصلی تأثیر گذاشته است، بر پردازنده‌های گرافیکی NVIDIA، Apple، AMD، Qualcomm تأثیر می‌گذارد و تأثیری مخرب بالقوه ایجاد می‌کند

ظهور یک آسیب‌پذیری در هر قطعه سخت‌افزاری چیزی است که صنعت فناوری اغلب شاهد آن است، و معمولاً مقیاس آن زمانی که تعداد افرادی که تحت تأثیر آن قرار می‌گیرند بسیار زیاد است. یک مثال برجسته در این مورد، آسیب‌پذیری Downfall اینتل است که اخیراً فاش شده است، که هزاران کاربر CPU این شرکت را در معرض خطر قرار داده است. با این حال، این بار، مصرف‌کنندگان GPU، کسانی که در تمامی پلتفرم‌ها مانند موبایل و دسکتاپ هستند، باید با احتیاط عمل کنند، زیرا Trail of Bits محقق امنیتی آسیب‌پذیری را کشف کرده است که می‌تواند «داده‌های کلیدی» را از حافظه داخلی شما حذف کند.

این آسیب‌پذیری «LeftoverLocals» نام دارد و به جای هدف قرار دادن برنامه‌های کاربردی مصرف‌کننده، این کار را با نفوذ به پردازنده‌های گرافیکی مورد استفاده در مدل‌های LLM و ML انجام می‌دهد، که منطقه‌ای است که استخراج داده‌ها اهمیت بیشتری دارد، زیرا آموزش مدل شامل استفاده از داده های حساس LeftoverLocals توسط کارشناسان دانشگاه کارنگی ملون ردیابی می‌شود و گفته می‌شود که این اطلاعات قبلاً توسط فروشندگان اصلی پردازنده‌های گرافیکی که تحت تأثیر آن قرار گرفته‌اند، مانند NVIDIA، Apple، AMD، Arm، Intel، Qualcomm و Imagination به اشتراک گذاشته شده است.

کشف شد که LeftoverLocals می‌تواند حدود 5.5 مگابایت به ازای هر فراخوانی GPU داده در Radeon RX 7900 XT AMD هنگام اجرای یک مدل پارامتر هفت میلیاردی، نشت کند. به گفته Trail of Bits، میزان نشت داده ها به اندازه ای است که حتی مدل کامل را بازسازی کند، به همین دلیل است که این آسیب پذیری خطر بالایی در زمینه هوش مصنوعی ایجاد می کند زیرا می تواند برای شرکت های فردی، به ویژه آنهایی که مخرب باشد. حول محور آموزش LLM می چرخد. بهره‌برداران به طور بالقوه می‌توانند از پیشرفت‌های گسترده در هوش مصنوعی استفاده کنند، که به طور بالقوه منجر به تأثیر بسیار بزرگ‌تری می‌شود.

LeftoverLocals به یک چیز بستگی دارد، و آن این است که چگونه یک GPU حافظه خود را جدا می کند، که کاملاً با چارچوب CPU متفاوت است. بنابراین یک بهره‌بردار که از طریق یک رابط قابل برنامه‌ریزی به یک GPU دسترسی مشترک دارد، می‌تواند داده‌های حافظه را در داخل یک GPU بدزدد که پیامدهای امنیتی متعددی دارد. LeftoverLocals به دو فرآیند مختلف تقسیم می شود، یک Linder و یک Writer، و در اینجا نحوه کار هر دوی آنها آمده است:

به طور کلی، این آسیب‌پذیری را می‌توان با استفاده از دو برنامه ساده نشان داد: یک Linder و یک Writer، که در آن نویسنده مقادیر قناری را در حافظه محلی ذخیره می‌کند، در حالی که یک شنونده حافظه محلی غیر اولیه را می‌خواند تا وجود آن را بررسی کند. ارزش های قناری شنونده بارها و بارها یک هسته GPU را راه اندازی می کند که از حافظه محلی غیر اولیه می خواند. Writer بارها و بارها یک هسته GPU راه اندازی می کند که مقادیر قناری را در حافظه محلی می نویسد.

برای یک مصرف‌کننده معمولی، LeftoverLocals احتمالاً جای نگرانی نیست، اما برای کسانی که با صنایعی مانند محاسبات ابری یا استنباط مرتبط هستند، این آسیب‌پذیری می‌تواند کشنده باشد، به‌ویژه از نظر امنیت چارچوب‌های LLM و ML.

منبع خبر: رد بیت ها

این داستان را به اشتراک بگذارید

فیس بوک

توییتر

این نوشته به صورت خودکار نوشته شده اگر مشکلی در کلمه اعم از همه چیز باشد ما را حتما از طریق نظرات باخبر کنید تا رسانه بتواند بهترین اطلاعات عمومی را بدهد

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا