Световни новини без цензура!
Проучване показва, че генераторите на AI изображения се обучават на явни снимки на деца
Снимка: independent.co.uk
Independent News | 2023-12-20 | 18:43:37

Проучване показва, че генераторите на AI изображения се обучават на явни снимки на деца

Доскоро изследователите за борба със злоупотребите смятаха, че единственият начин, по който някои непроверени AI инструменти създават злоупотребяващи изображения на деца, е като по същество комбинират това, от което са научили две отделни кофи с онлайн изображения — порнография за възрастни и доброкачествени снимки на деца.

Но Станфордската интернет обсерватория откри повече от 3200 изображения на предполагаемо сексуално малтретиране на деца в гигантската AI база данни LAION, индекс на онлайн изображения и надписи, който е бил използван за обучение на водещи производители на AI изображения като Stable Diffusion . Групата за наблюдение, базирана в Станфордския университет, работи с Канадския център за закрила на детето и други благотворителни организации за борба със злоупотребите, за да идентифицира незаконния материал и да докладва оригиналните връзки към снимки на правоприлагащите органи.

Отговорът беше незабавен. В навечерието на публикуването в сряда на доклада на Станфордската интернет обсерватория LAION каза на Асошиейтед прес, че временно премахва своите набори от данни.

LAION, което означава неправителствената широкомащабна отворена мрежа за изкуствен интелект, каза изявление, че „има политика на нулева толерантност към незаконно съдържание и с голяма предпазливост, ние свалихме наборите от данни LAION, за да гарантираме, че са безопасни, преди да ги публикуваме повторно.“

Въпреки че изображенията представляват само част от индекса на LAION от около 5,8 милиарда изображения, групата от Станфорд казва, че вероятно влияе върху способността на AI инструментите да генерират вредни резултати и засилва предишната злоупотреба с реални жертви, които се появяват многократно.

Не е лесен за отстраняване проблем и се връща към много генеративни AI проекти, които са „ефективно изстреляни на пазара“ и са направени широко достъпни, защото областта е толкова конкурентна, каза главният технолог на Станфордската интернет обсерватория Дейвид Тийл, който е автор на доклада.

„Вземането на цялостно изчерпване в интернет и създаването на този набор от данни за обучение на модели е нещо, което трябваше да бъде ограничено до изследователска операция, ако не друго, и не е нещо, което трябваше да бъде с отворен код без много по-строго внимание ”, каза Тийл в интервю.

Виден потребител на LAION, който помогна за оформянето на развитието на набора от данни, е базираната в Лондон стартираща компания Stability AI, производител на моделите Stable Diffusion текст към изображение. Новите версии на Stable Diffusion направиха много по-трудно създаването на вредно съдържание, но една по-стара версия, представена миналата година – която Stability AI казва, че не е пуснала – все още е включена в други приложения и инструменти и остава „най-популярният модел за генериране на изрични изображения“, според доклада на Станфорд.

„Не можем да върнем това обратно. Този модел е в ръцете на много хора на техните локални машини,” каза Лойд Ричардсън, директор на отдела за информационни технологии в Канадския център за закрила на детето, който управлява канадската гореща линия за докладване на онлайн сексуална експлоатация.

Stability AI в сряда заяви, че хоства само филтрирани версии на Stable Diffusion и че „откакто пое изключителната разработка на Stable Diffusion, Stability AI предприе проактивни стъпки за намаляване на риска от злоупотреба.“

>

„Тези филтри премахват опасното съдържание от достигането до моделите“, каза компанията в подготвено изявление. „Като премахнем това съдържание, преди изобщо да достигне до модела, можем да помогнем да предотвратим генерирането на опасно съдържание от модела.“

LAION е плод на въображението на германски изследовател и учител Кристоф Шуман, който каза пред AP по-рано тази година част от причината да направим такава огромна визуална база данни обществено достъпна беше да се гарантира, че бъдещето на развитието на ИИ няма да се контролира от шепа мощни компании.

„Ще бъде много по-безопасно и много по-справедливо, ако можем да го демократизираме, така че цялата изследователска общност и цялата широка общественост да могат да се възползват от него“, каза той.

Голяма част от данните на LAION идват от друг източник, Common Crawl, хранилище данни, които се търсят постоянно от отворения интернет, но изпълнителният директор на Common Crawl, Рич Скрента, каза, че е „задължение на“ LAION да сканира и филтрира това, което е необходимо, преди да го използва.

LAION каза тази седмица той разработи „строги филтри“ за откриване и премахване на незаконно съдържание, преди да пусне своите набори от данни и все още работи за подобряване на тези филтри. Докладът на Станфорд признава, че разработчиците на LAION са направили някои опити да филтрират изрично съдържание за „непълнолетни“, но може би щяха да свършат по-добра работа, ако се консултираха по-рано с експерти по безопасност на децата.

Много генератори на текст към изображение са получени в по някакъв начин от базата данни LAION, въпреки че не винаги е ясно кои. OpenAI, производител на DALL-E и ChatGPT, каза, че не използва LAION и е прецизирал своите модели, за да отхвърля заявки за сексуално съдържание, включващо непълнолетни.

Google изгради своя модел Imagen от текст към изображение въз основа на набор от данни LAION, но реши да не го прави публичен през 2022 г., след като одит на базата данни „разкри широк спектър от неподходящо съдържание, включително порнографски изображения, расистки обиди и вредни социални стереотипи.“

Опитвайки се да изчистя събирането на данните със задна дата е трудно, така че Станфордската интернет обсерватория призовава за по-драстични мерки. Единият е за всеки, който е изградил комплекти за обучение от LAION‐5B — кръстен на повече от 5 милиарда двойки изображение-текст, които съдържа — да ги „изтрие или да работи с посредници за почистване на материала“. Друг е ефективно да накарате по-стара версия на Stable Diffusion да изчезне от всички, освен от най-тъмните ъгли на интернет.

„Легитимните платформи могат да спрат да предлагат нейни версии за изтегляне,“ особено ако често се използват за генериране на злоупотребяващи изображения и нямат предпазни мерки, за да ги блокират, каза Тийл.

Като пример Тийл посочи CivitAI, платформа, която е предпочитана от хората, създаващи порнография, генерирана от изкуствен интелект, но за която според него липсват мерки за безопасност, за да се претегли срещу правенето на изображения на деца. Докладът също така призовава компанията за изкуствен интелект Hugging Face, която разпространява данните за обучение на модели, да приложи по-добри методи за докладване и премахване на връзки към обидни материали.

Hugging Face каза, че редовно работи с регулаторите и безопасността на децата групи за идентифициране и премахване на обидни материали. CivitAI не върна искания за коментар, изпратени до неговата уеб страница.

Докладът на Станфорд също поставя под въпрос дали всякакви снимки на деца – дори и най-безобидни – трябва да бъдат въвеждани в системи с изкуствен интелект без съгласието на семейството им поради защитата във федералния Закон за защита на поверителността на децата онлайн.

p>Ребека Портноф, директор на науката за данните в организацията за борба със сексуалното насилие над деца Thorn, каза, че нейната организация е провела изследване, което показва, че разпространението на изображения, генерирани от изкуствен интелект сред насилниците, е малко, но расте постоянно.

Разработчиците могат да смекчат тези вреди, като се уверят, че наборите от данни, които използват за разработване на AI модели, са чисти от материали за злоупотреби. Портноф каза, че има и възможности за смекчаване на вредните употреби надолу по линията, след като моделите вече са в обращение.

Технологичните компании и групите за безопасност на децата в момента присвояват на видеоклипове и изображения „хеш“ – уникални цифрови подписи – за проследяване и премахване на материали за малтретиране на деца. Според Портноф същата концепция може да се приложи към AI модели, с които се злоупотребява.

„В момента това не се случва“, каза тя. „Но това е нещо, което според мен може и трябва да се направи.“

Източник: independent.co.uk


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!