فناوری

به گفته محققان، تصاویر کودک آزاری از منبع آموزشی تولید کننده تصویر هوش مصنوعی حذف شده است

به گفته محققان، تصاویر کودک آزاری از منبع آموزشی تولید کننده تصویر هوش مصنوعی حذف شده است

< /picture>

LAION مخفف شبکه باز غیرانتفاعی هوش مصنوعی در مقیاس بزرگ [فایل]
| اعتبار عکس: AP

محققان هوش مصنوعی روز جمعه گفتند که بیش از 2000 وب پیوندهایی به تصاویر سوء استفاده جنسی مشکوک از کودکان از مجموعه داده‌ای که برای آموزش ابزارهای تولیدکننده تصویر با هوش مصنوعی استفاده می‌شود.

مجموعه داده‌های تحقیقاتی LAION فهرست عظیمی از تصاویر و زیرنویس‌های آنلاین است که منبعی برای پیشرو بوده است. سازندگان تصویر هوش مصنوعی مانند Stable Diffusion و Midjourney.

اما گزارشی که سال گذشته توسط رصدخانه اینترنتی استنفورد انجام شد نشان داد که حاوی پیوندهایی به تصاویر جنسی صریح از کودکان است که به آسانی برخی از ابزارهای هوش مصنوعی قادر به تولید دیپ فیک های واقعی واقعی است که کودکان را به تصویر می کشد.

آن گزارش دسامبر باعث شد LAION که مخفف شبکه باز هوش مصنوعی غیرانتفاعی مقیاس بزرگ است، بلافاصله مجموعه داده خود را حذف کند. هشت ماه بعد، LAION در یک پست وبلاگ گفت که با گروه ناظر دانشگاه استنفورد و سازمان‌های ضد سوء استفاده در کانادا و بریتانیا برای رفع مشکل و انتشار مجموعه داده پاک‌سازی شده برای تحقیقات آینده هوش مصنوعی همکاری کرده است.

 

 

 

چنانچه در این نوشته کلمه ای یا متنی باعث ناراحتی شما شده به ما در قسمت نظرات اطلاع دهید

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا