Световни новини без цензура!
Стотици изображения на сексуално малтретиране на деца, намерени в набор от данни, използван за обучение на инструменти за генериране на AI изображения
Снимка: cnn.com
CNN News | 2023-12-21 | 20:40:41

Стотици изображения на сексуално малтретиране на деца, намерени в набор от данни, използван за обучение на инструменти за генериране на AI изображения

Повече от хиляда изображения на материали за сексуално малтретиране на деца бяха открити в огромен публичен набор от данни, използван за обучение на популярни модели за генериране на AI изображения, казаха изследователи от Станфордската интернет обсерватория в проучване, публикувано по-рано тази седмица.

Наличието на тези изображения в данните за обучението може да улесни моделите на AI да създават нови и реалистични изображения, генерирани от AI, на съдържание за злоупотреба с деца или „дълбоко фалшиви“ изображения на деца, които са експлоатирани.

Констатациите също повдигат множество нови опасения около непрозрачния характер на данните за обучение, които служат като основа на нова реколта от мощни генеративни инструменти за ИИ.

Масивният набор от данни, който изследваха изследователите от Станфорд, известен като LAION 5B, съдържа милиарди изображения, които са били извлечени от интернет, включително от социални медии и уебсайтове за забавление за възрастни.

От повече от пет милиарда изображения в набора от данни, изследователите от Станфорд казаха, че са идентифицирали най-малко 1008 случая на материал за сексуално насилие над деца.

LAION, германската организация с нестопанска цел зад набора от данни, каза в изявление на уебсайта си, че има „политика на нулева толерантност към незаконното съдържание“.

Организацията каза, че е получила копие от доклада от Станфорд и е в процес на оценка на своите констатации. Той също така отбеляза, че наборите от данни преминават през „интензивни инструменти за филтриране“, за да се гарантира, че са безопасни и отговарят на закона.

„С голяма предпазливост ние изключихме LAION 5B офлайн“, добави организацията, като каза, че работи с базираната в Обединеното кралство Internet Watch Foundation „за намиране и премахване на връзки, които все още могат да сочат към подозрително, потенциално незаконно съдържание в обществото уеб.”

LAION заяви, че планира да завърши пълен преглед на безопасността на LAION 5B до втората половина на януари и планира да публикува отново набора от данни по това време.

Междувременно екипът на Станфорд каза, че в момента се извършва премахване на идентифицираните изображения, след като изследователите са докладвали URL адресите на изображенията на Националния център за изчезнали и експлоатирани деца и Канадския център за защита на детето.

В доклада изследователите казват, че докато разработчиците на LAION 5B са се опитвали да филтрират определено изрично съдържание, по-ранна версия на популярния модел за генериране на изображения Stable Diffusion в крайна сметка е била обучена на „широк набор от съдържание, както изрично, така и друго“.

Говорител на Stability AI, базираната в Лондон стартираща компания зад Stable Diffusion, каза пред CNN в изявление, че тази по-ранна версия, Stable Diffusion 1.5, е пусната от отделна компания, а не от Stability AI.

Изследователите от Станфорд отбелязват, че Stable Diffusion 2.0 до голяма степен е филтрирала резултати, които са били счетени за опасни, и в резултат на това е имало малко или никакъв явен материал в набора за обучение.

„Този ​​доклад се фокусира върху набора от данни LAION-5b като цяло“, каза говорителят на Stability AI в изявление на CNN. „Моделите на AI за стабилност бяха обучени на филтрирано подмножество от този набор от данни. Освен това впоследствие прецизирахме тези модели, за да смекчим остатъчното поведение.“

Говорителят добави, че Stability AI хоства само версии на Stable Diffusion, които включват филтри, които премахват опасно съдържание от достигане до моделите.

„Като премахнем това съдържание, преди изобщо да достигне до модела, можем да помогнем да предотвратим генерирането на опасно съдържание от модела“, каза говорителят, добавяйки, че компанията забранява използването на своите продукти за незаконна дейност.

Но изследователите от Станфорд отбелязват в доклада, че Stable Diffusion 1.5, който все още се използва в някои кътчета на интернет, остава „най-популярният модел за генериране на ясни изображения“.

Като част от препоръките си изследователите казаха, че моделите, базирани на Stable Diffusion 1.5, трябва да бъдат „отхвърлени и разпространението да бъде прекратено, когато е възможно“.

По-общо казано, в доклада на Станфорд се казва, че масивните набори от данни в уеб мащаб са силно проблематични поради редица причини, дори и с опитите за безопасно филтриране, поради възможното им включване не само на материали за сексуално малтретиране на деца, но и поради други поверителност и авторски права притеснения, произтичащи от употребата им.

Докладът препоръчва такива набори от данни да бъдат ограничени до „само настройки за изследвания“ и че само „по-подбрани набори от данни с добри източници“ трябва да се използват за публично разпространявани модели.

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!