Модели с AI използват снимки с насилие за генериране на изображения

В основата на популярни инструменти за генериране на изображения с изкуствен интелект стоят хиляди снимки със сексуално насилие над деца.

Това установява ново проучване на Станфордската интернет обсерватория.

Същите тези изображения улесняват системите за изкуствен интелект да създават реалистични и явни изображения на фалшиви деца, както и да превръщат снимки в социалните мрежи на напълно облечени истински тийнейджъри в голи тела, обяснява Euronews.

Доскоро изследователите на злоупотреби, смятаха, че единственият начин, по който някои AI инструменти произвеждат изображения на деца, е като комбинират порнография за възрастни с обикновeни снимки на деца.

Но Станфордската интернет обсерватория открива над 3200 изображения на предполагаеми сексуални злоупотреби с деца в гигантската база данни на LAION – индекс на онлайн изображения, използван за обучение на водещи създатели на изображения с AI като Stable Diffusion.

Групата за наблюдение работи с Канадския център за закрила на детето и други благотворителни организации за борба със сексуалното насилие, за да идентифицира незаконните материали и да съобщи за оригиналните връзки към снимките на правоприлагащите органи.

Реакцията е незабавна. След публикуването на доклада, LAION заяви, че временно премахва своите набори от данни.

LAION – съкращение от нестопанската организация Large-scale Artificial Intelligence Open Network (Отворена мрежа за широкомащабен изкуствен интелект), заяви, че „има политика на нулева толерантност към незаконно съдържание и от съображения за сигурност свалихме наборите от данни на LAION, за да се уверим, че те са безопасни, преди да ги публикуваме отново“.

„Не можем да върнем това назад“

Макар че изображенията представляват само малка част от индекса на LAION, съдържащ около 5,8 милиарда изображения, групата от Станфорд твърди, че те вероятно оказват влияние върху способността на инструментите на изкуствения интелект да генерират вредни резултати и да засилват насилието над реални жертви.

Този проблем не е лесен за решаване и води началото си от това, че много проекти за генеративен изкуствен интелект са „ефективно изстреляни на пазара“ и са направени широко достъпни, тъй като областта е толкова конкурентна, смяра главният технолог на Станфордската интернет обсерватория Дейвид Тийл, автор на доклада.

„Вземането на цял набор от данни от интернет и използването му за обучение на модели е нещо, което би трябвало да бъде ограничено до изследователска дейност, ако изобщо е имало такава.“, казва Тийл.

Докладът на Станфорд също така поставя под въпрос дали снимки на деца – дори и най-обикновените, трябва да се въвеждат в системи за изкуствен интелект без съгласието на семейството им поради федералния Закон за защита на личната информация на децата в интернет.

Ребека Портноф, директор на отдела за данните в организацията за борба със сексуалното насилие над деца Thorn, заяви, че нейната организация е провела проучване, което показва, че разпространението на изображения, генерирани от изкуствен интелект, сред насилниците е малко, но постоянно нараства.

Разработчиците могат да намалят тези вреди, като се уверят, че наборите от данни, които използват за модели с AI, са чисти от злоупотреби.

„В момента това не се случва, но е нещо, което според мен може и трябва да се направи“, допълва Портноф.

 

Източник

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *