به گفته محققان، تصاویر کودک آزاری از منبع آموزشی تولید کننده تصویر هوش مصنوعی حذف شده است
به گفته محققان، تصاویر کودک آزاری از منبع آموزشی تولید کننده تصویر هوش مصنوعی حذف شده است
محققان هوش مصنوعی روز جمعه گفتند که بیش از 2000 وب پیوندهایی به تصاویر سوء استفاده جنسی مشکوک از کودکان از مجموعه دادهای که برای آموزش ابزارهای تولیدکننده تصویر با هوش مصنوعی استفاده میشود.
مجموعه دادههای تحقیقاتی LAION فهرست عظیمی از تصاویر و زیرنویسهای آنلاین است که منبعی برای پیشرو بوده است. سازندگان تصویر هوش مصنوعی مانند Stable Diffusion و Midjourney.
اما گزارشی که سال گذشته توسط رصدخانه اینترنتی استنفورد انجام شد نشان داد که حاوی پیوندهایی به تصاویر جنسی صریح از کودکان است که به آسانی برخی از ابزارهای هوش مصنوعی قادر به تولید دیپ فیک های واقعی واقعی است که کودکان را به تصویر می کشد.
آن گزارش دسامبر باعث شد LAION که مخفف شبکه باز هوش مصنوعی غیرانتفاعی مقیاس بزرگ است، بلافاصله مجموعه داده خود را حذف کند. هشت ماه بعد، LAION در یک پست وبلاگ گفت که با گروه ناظر دانشگاه استنفورد و سازمانهای ضد سوء استفاده در کانادا و بریتانیا برای رفع مشکل و انتشار مجموعه داده پاکسازی شده برای تحقیقات آینده هوش مصنوعی همکاری کرده است.
محقق دانشگاه استنفورد، دیوید تیل، نویسنده گزارش دسامبر، LAION را به دلیل پیشرفت های قابل توجه تحسین کرد، اما گفت گام بعدی این است که «مدل های آلوده» را که هنوز هم قادر به تولید تصاویر سوء استفاده از کودکان هستند، از توزیع کنار بگذارند. /p>
یکی از ابزارهای مبتنی بر LAION که استنفورد آن را بهعنوان «محبوبترین مدل برای تولید تصاویر واضح» معرفی کرد – نسخه قدیمیتر و کمی فیلتر شده Stable Diffusion – تا روز پنجشنبه، زمانی که نیویورک مستقر شد، به راحتی قابل دسترسی بود. شرکت Runway ML آن را از مخزن مدل هوش مصنوعی Hugging Face حذف کرد. Runway در بیانیهای که روز جمعه منتشر کرد، گفت که این یک «مقدمسازی برنامهریزیشده مدلها و کدهای تحقیقاتی است که به طور فعال حفظ نشدهاند.»
نسخه پاکشده مجموعه دادههای LAION در حالی ارائه میشود که دولتها در سرتاسر جهان در حال استفاده از آن هستند. نگاهی دقیق تر به نحوه استفاده از برخی ابزارهای فناوری برای ساخت یا توزیع تصاویر غیرقانونی کودکان.
دادستان شهر سانفرانسیسکو در اوایل این ماه شکایتی را به منظور بستن گروهی از وب سایت هایی که امکان ایجاد هوش مصنوعی را فراهم می کنند تنظیم کرد. برهنه زنان و دختران تولید شده است. انتشار ادعایی تصاویر سوء استفاده جنسی از کودکان در اپلیکیشن پیام رسان تلگرام بخشی از آن چیزی است که مقامات فرانسوی را در روز چهارشنبه علیه پاول دوروف موسس و مدیر عامل این پلتفرم متهم کرد.
دستگیری دوروف «نشانهای از یک تغییر واقعاً بزرگ است. دیوید ایوان هریس، محقق دانشگاه کالیفرنیا در برکلی که اخیراً با Runway تماس گرفت و پرسید که چرا مولد تصویر مشکلساز هوش مصنوعی هنوز به صورت عمومی منتشر شده است، گفت: در کل صنعت فناوری که بنیانگذاران این پلتفرمها را میتوان مسئول دانست. قابل دسترس چند روز بعد حذف شد.