Световни новини без цензура!
Дълбокото фалшифициране на гласа на директора е най-новият случай на AI, използван за нараняване
Снимка: apnews.com
AP News | 2024-04-29 | 19:16:51

Дълбокото фалшифициране на гласа на директора е най-новият случай на AI, използван за нараняване

Най-скорошният криминален случай, включващ изкуствен интелект, се появи миналата седмица от гимназия в Мериленд, където полицията казва, че директор е бил оформен като расист чрез фалшив запис на неговия глас.

Случаят е още една причина, поради която всички — не само политици и знаменитости — трябва да се тревожат за тази все по-мощна технология за дълбоко фалшифициране, казват експерти.

„Всеки е уязвим на атаки и всеки може да извърши атаката“, каза Хани Фарид, професор в Калифорнийския университет в Бъркли, който се фокусира върху дигиталната криминалистика и дезинформацията.

Ето какво трябва да знаете за някои от най-новите употреби на ИИ за причиняване на вреда:

ИИ СТАНА МНОГО ДОСТЪПЕН

< /h2>

Манипулирането на записани звуци и изображения не е нещо ново. Но лекотата, с която някой може да промени информацията, е скорошен феномен. Както и способността му да се разпространява бързо в социалните медии.

Фалшивият аудио клип, който се представя за директора, е пример за подгрупа от изкуствен интелект, известен като генеративен ИИ. Може да създава хиперреалистични нови изображения, видеоклипове и аудио клипове. През последните години е по-евтино и по-лесно за използване, намалявайки бариерата пред всеки с интернет връзка.

„Особено през последната година всеки – и наистина имам предвид всеки – може да посети онлайн услуга“, каза Фарид, професор от Бъркли. „И безплатно или срещу няколко долара на месец те могат да качат 30 секунди от нечий глас.“

Тези секунди могат да дойдат от гласова поща, публикация в социални медии или таен запис, каза Фарид. Алгоритмите за машинно обучение улавят как звучи човек. След това клонираната реч се генерира от думи, въведени на клавиатура.

Технологията ще става все по-мощна и по-лесна за използване, включително за видео манипулация, каза той.

КАКВО СЕ СЛУЧИ В МЕРИЛЕНД?

Властите в окръг Балтимор казаха, че Дажон Дариен, спортният директор на Pikesville High, е клонирал гласа на директора Ерик Айсверт.

Фалшивият запис съдържа расистки и антисемитски коментари, каза полицията. Звуковият файл се появи в имейл във входящите кутии на някои учители, преди да се разпространи в социалните медии.

Записът се появи, след като Айсверт изрази загриженост относно работата на Дариен и предполагаемото злоупотреба с училищни средства, каза полицията.

Фалшивото аудио принуди Айсверт да излезе в отпуск, докато полицията охраняваше къщата му, казаха властите. Гневни телефонни обаждания заляха училището, докато в социалните медии се натрупаха изпълнени с омраза съобщения.

Детективите помолиха външни експерти да анализират записа. Един каза, че „съдържа следи от съдържание, генерирано от изкуствен интелект с човешко редактиране след факта“, се посочва в съдебните протоколи.

Второ мнение от Фарид, професор от Бъркли, установи, че „множество записи са били свързани заедно“, според записите.

Фарид каза на Асошиейтед прес, че остават въпроси за това как точно е създаден този запис и той не е потвърдил, че е бил изцяло генериран от AI.

Но предвид нарастващите възможности на AI, Фарид каза, че случаят с Мериленд все още служи като „канарче във въгледобивната мина“, относно необходимостта от по-добро регулиране на тази технология.

ЗАЩО АУДИОТО Е ТАКАВО ПРИТЕСНИТЕЛНО?

Много случаи на дезинформация, генерирана от AI, са аудио.

Това отчасти се дължи на факта, че технологията се е подобрила толкова бързо. Човешките уши също не винаги могат да идентифицират издайнически признаци на манипулация, докато несъответствията във видеоклипове и изображения са по-лесни за забелязване.

Някои хора са клонирали гласовете на предполагаемо отвлечени деца по телефона, за да получат пари за откуп от родителите, казват експерти. Друг се преструваше, че е главен изпълнителен директор на компания, която спешно се нуждаеше от средства.

По време на тазгодишните първични избори в Ню Хемпшир, генерирани от изкуствен интелект автоматични обаждания имитираха гласа на президента Джо Байдън и се опитаха да разубедят избирателите на Демократическата партия да гласуват. Експертите предупреждават за скок в генерираната от AI дезинформация, насочена към изборите тази година.

Но смущаващите тенденции надхвърлят аудиото, като например програми, които създават фалшиви голи изображения на облечени хора без тяхното съгласие, включително непълнолетни, предупреждават експерти. Певицата Тейлър Суифт наскоро стана мишена.

КАКВО МОЖЕ ДА СЕ НАПРАВИ?

Повечето доставчици на AI технология за генериране на глас казват, че забраняват вредното използване на техните инструменти. Но самоналагането варира.

Някои доставчици изискват вид гласов подпис или искат от потребителите да рецитират уникален набор от изречения, преди гласът да може да бъде клониран.

По-големите технологични компании, като компанията майка на Facebook Meta и създателят на ChatGPT OpenAI, позволяват само на малка група доверени потребители да експериментират с технологията поради рисковете от злоупотреба.

Фарид каза, че трябва да се направи повече. Например, всички компании трябва да изискват от потребителите да предоставят телефонни номера и кредитни карти, за да могат да проследят файлове до тези, които злоупотребяват с технологията.

Друга идея е да се изисква записите и изображенията да носят цифров воден знак.

„Вие модифицирате аудиото по начини, които са незабележими за човешката слухова система, но по начин, който може да бъде идентифициран от част от софтуера надолу по веригата“, каза Фарид.

Александра Рийв Гивънс, главен изпълнителен директор на Центъра за демокрация и технологии, каза, че най-ефективната намеса е действието на правоприлагащите органи срещу престъпното използване на ИИ. Необходимо е и повече образование на потребителите.

Друг фокус трябва да бъде призоваването за отговорно поведение сред компаниите за изкуствен интелект и социалните медийни платформи. Но не е толкова просто като забраната на Generative AI.

„Може да бъде сложно да се добави правна отговорност, защото в толкова много случаи може да има положителни или потвърждаващи употреби на технологията“, каза Гивънс, цитирайки програми за превод и четене на книги.

Още едно предизвикателство е намирането на международно споразумение относно етиката и насоките, каза Кристиан Матман, директор на групата за извличане на информация и наука за данни в Университета на Южна Калифорния.

„Хората използват AI по различен начин в зависимост от това в коя държава се намират“, каза Матман. „И това не са само правителствата, а хората. Така че културата има значение.

___

Репортерите на Associated Press Али Суенсън и Мат О’Брайън допринесоха за тази статия.

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!