Световни новини без цензура!
Материали за сексуално насилие над деца, генерирани от изкуствен интелект, може да затрупат Tip Line
Снимка: nytimes.com
New York Times | 2024-04-22 | 15:37:20

Материали за сексуално насилие над деца, генерирани от изкуствен интелект, може да затрупат Tip Line

Нов поток от материали за сексуално насилие над деца, създадени от изкуствен интелект, заплашва да затрупа властите, които вече са задържани от остарелите технологии и закони, според нов доклад, публикуван в понеделник от Интернет обсерваторията на Станфордския университет.

През последната година новият ИИ. технологиите улесниха престъпниците да създават явни изображения на деца. Сега изследователите от Станфорд предупреждават, че Националният център за изчезнали и експлоатирани деца, организация с нестопанска цел, която действа като централна координираща агенция и получава по-голямата част от финансирането си от федералното правителство, няма ресурсите да се бори с нарастващата заплаха.

CyberTipline на организацията, създадена през 1998 г., е федералната клирингова къща за всички доклади за материали за сексуално малтретиране на деца или CSAM онлайн и се използва от правоприлагащите органи за разследване на престъпления. Но много от получените съвети са непълни или изпълнени с неточности. Неговият малък персонал също се бори да поддържа обема.

„Почти сигурно през идните години CyberTipline ще бъде наводнен с изключително реалистично изглеждащ ИИ. съдържание, което ще направи още по-трудно за правоприлагащите органи да идентифицират истински деца, които трябва да бъдат спасени“, каза Шелби Гросман, един от авторите на доклада. , някои законодатели предприемат действия, за да гарантират, че такова съдържание се счита за незаконно.

Генерираните от изкуствен интелект изображения на CSAM са незаконни, ако съдържат истински деца или ако се използват изображения на действителни деца за обучение на данни, казват изследователите. Но синтетично направените, които не съдържат реални изображения, могат да бъдат защитени като свобода на словото, според един от авторите на доклада.

Обществено възмущение от разпространението на онлайн изображения на сексуално насилие броя на децата експлодира при скорошно изслушване с главните изпълнителни директори на Meta, Snap, TikTok, Discord и X, които бяха укорени от законодателите, че не правят достатъчно, за да защитят малките деца онлайн.

Центърът за изчезнали и експлоатирани деца, който събира съвети от лица и компании като Facebook и Google, се застъпи за законодателство, което да увеличи финансирането му и да му даде достъп до повече технологии. Изследователи от Станфорд казаха, че организацията е предоставила достъп до интервюта на служители и нейните системи за доклада, за да покаже уязвимостите на системите, които се нуждаят от актуализиране.

„През годините сложността на докладите и тежестта на престъпленията срещу деца продължават да се развиват“, се казва в изявление на организацията. „Следователно, използването на нововъзникващи технологични решения в целия процес на CyberTipline води до защита на повече деца и подвеждане под отговорност на нарушителите.“

Изследователите от Станфорд установиха, че организацията трябва да се промени начина, по който работи линията на съвета, за да гарантира, че правоприлагащите органи могат да определят кои доклади включват съдържание, генерирано от изкуствен интелект, както и да гарантира, че компаниите, докладващи за потенциални материали за злоупотреба на своите платформи, попълват формулярите изцяло.

По-малко от половината от всички доклади, подадени до CyberTipline, са били „действащи“ през 2022 г. или защото компаниите, докладващи за злоупотребата, не са предоставили достатъчно информация, или защото изображението в съвета се е разпространило бързо онлайн и е докладвано твърде много пъти. Редът със съвети има опция за проверка дали съдържанието в съвета е потенциален мем, но много хора не го използват.

В един ден по-рано тази година, рекордните един милион съобщения за материали със сексуално насилие над деца наводниха федералната клирингова къща. В продължение на седмици следователите работиха, за да отговорят на необичайния скок. Оказа се, че много от докладите са свързани с изображение в мем, който хората споделят в различни платформи, за да изразят възмущение, а не злонамерени намерения. Но все пак изяде значителни ресурси за разследване.

Тази тенденция ще се влоши с ускоряването на генерираното от AI съдържание, каза Алекс Стамос, един от авторите на доклада на Станфорд.

„Един милион идентични изображения е достатъчно трудно, един милион отделни изображения, създадени от ИИ. ще ги счупи“, каза г-н Стамос.

Центърът за изчезнали и експлоатирани деца и неговите изпълнители са ограничени да използват доставчици на облачни изчисления и са задължени да съхраняват изображения локално в компютри. Това изискване затруднява изграждането и използването на специализиран хардуер, използван за създаване и обучение на ИИ. модели за своите разследвания, установиха изследователите.

Организацията обикновено не разполага с технологията, необходима за широко използване на софтуер за разпознаване на лица за идентифициране на жертви и нарушители. Голяма част от обработката на отчетите все още е ръчна.

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!