Световни новини без цензура!
Аудио дийпфейковете се появяват като предпочитано оръжие при дезинформацията на изборите
Снимка: ft.com
Financial Times | 2024-01-23 | 15:13:52

Аудио дийпфейковете се появяват като предпочитано оръжие при дезинформацията на изборите

Аудио дийпфейковете се очертават като нов мощен инструмент в информационната война по време на година на големи избори по света, тъй като инструментите за гласово клониране, захранвани с изкуствен интелект, се разпространяват онлайн.

В понеделник офисът на главния прокурор на Ню Хемпшир заяви, че разследва възможно потискане на гласоподаватели, след като получи оплаквания, че „изкуствено генериран“ глас в подобие на президента на САЩ Джо Байдън автоматично се обажда на гласоподаватели, като ги насърчава да не да гласува на първичните избори за президент на щата.

Изследователите също така предупредиха, че използването на реалистични, но фалшиви гласови клипове, които имитират политици и лидери, вероятно ще се разпространи след случаите през 2023 г. на предполагаемо синтетично аудио, създадено за влияние върху политиката и изборите в Обединеното кралство, Индия , Нигерия, Судан, Етиопия и Словакия.

Аудио фалшификатите стават все по-популярна форма на дезинформация, според експертите, поради появата на евтини и ефективни AI инструменти от стартиращи фирми като ElevenLabs, Resemble AI, Respeecher и Replica Studios. Междувременно изследователският отдел на Microsoft обяви миналата година разработването на нов фирмен AI модел, VALL-E, който може да клонира глас от само три секунди записи.

„Когато става дума за визуална манипулация, всеки е свикнал с Photoshop или поне знае, че съществува“, Хенри Айдер, експерт по AI и deepfakes и съветник на Adobe, Meta и EY. „Има много по-малко осъзнаване за това как аудио материалът може да бъде манипулиран, така че според мен това наистина ни кара да бъдем уязвими.“

През септември NewsGuard, който оценява качеството и надеждността на новинарските сайтове, разкри мрежа от акаунти в TikTok, които се представят за легитимни новинарски издания, включващи генерирани от AI гласове зад кадър, разпространяващи теории на конспирацията и политическа дезинформация. Това включваше симулиран глас на бившия президент на САЩ Барак Обама, защитаващ се срещу неоснователни твърдения, свързващи го със смъртта на неговия личен готвач.

Фалшивите гласове зад кадър изглежда са били генерирани от инструмент, предоставен от ElevenLabs, подкрепена от Andreessen Horowitz, докато клиповете натрупаха стотици милиони гледания, каза NewsGuard.

„Над 99 процента от потребителите на нашата платформа създават интересно, иновативно и полезно съдържание, но ние осъзнаваме, че има случаи на злоупотреба и непрекъснато разработваме и пускаме предпазни мерки, за да ги ограничим, “, каза ElevenLabs по време на доклада.

ElevenLabs, основана преди две години от бившите служители на Google и Palantir Пьотр Дабковски и Мати Станишевски, предлага безплатни рудиментарни инструменти за генериране на аудио с изкуствен интелект с едно щракване на мишката. Абонаментите варират от $1 на месец до $330 на месец и повече за тези, които търсят по-сложни предложения.

Извършителите на дезинформация бяха насърчени от инструментите за изкуствен интелект, разработени от ElevenLabs, които промениха качеството на синтетичното аудио от несвързано и роботизирано към по-естествено с правилната интонация, интонация и емоции, според Айдер.

„Фундаментално [ElevenLabs] промени играта както по отношение на реализма, който може да бъде постигнат, особено с малко количество данни“, каза той.

Пазарът на инструменти за синтезиран говор експлодира през последната година. Някои, като Voice AI, предлагат безплатни приложения и рекламират своята технология за използване като дублаж за шеги. Други, като Replica Studios и Respeecher, начисляват номинални такси за създатели, създатели на филми или разработчици на игри.

Често не е ясно кои компании се използват за създаване на политически мотивирани deepfakes, тъй като повечето инструменти за откриване не могат да идентифицират оригинала източник. Но нарастващото разпространение на такива захранвани с AI продукти води до безпокойство относно потенциални злоупотреби в нерегулирано пространство.

Миналата година американските разузнавателни агенции предупредиха в доклад, че „има огромно увеличение на персонализирания AI измами предвид пускането на сложни и добре обучени модели за гласово клониране с изкуствен интелект“.

Отвъд финансово мотивираните измами, политическите експерти сега бият тревога за вирусни дълбоки фалшиви аудио клипове, както и за използването на дълбоки фалшиви съобщения за роботизирани разговори или кампании. „Можете много евтино да изградите силна, широка кампания за дезинформация чрез насочване към хора, насочени към телефони“, каза Ей Джей Неш, вицепрезидент и изтъкнат сътрудник на разузнаването в групата за киберсигурност ZeroFox.

Някои от тези компании проактивно са търсили други начини за противодействие на дезинформацията. Microsoft издаде етична декларация, призовавайки потребителите да докладват за всякакви злоупотреби с неговия AI аудио инструмент, заявявайки, че говорещият трябва да одобри използването на гласа си с инструмента. ElevenLabs изгради свои собствени инструменти за откриване, за да идентифицира аудиозаписи, направени от неговите системи. Други, като Resemble, изследват щамповането на генерирано от AI съдържание с нечуваеми водни знаци.

По време на изборите през 2023 г. в Нигерия клип, манипулиран с изкуствен интелект, се разпространи в социалните медии, „като се предполага, че замесва опозиционен кандидат за президент в планове за манипулиране на гласуване“, според правозащитната група Freedom House.

В Словакия фалшиво аудио на опозиционния кандидат Михал Шимечка, който изглежда планира да фалшифицира изборите, стана вирусно само дни преди президентския вот в страната през септември.

Посявайки допълнително объркване, групи и отделни лица в Индия и Етиопия заклеймиха аудиозаписите като фалшиви само за други независими изследователи и проверяващи фактите да твърдят, че са автентични.

Експертите предупредиха свързаният проблем е, че аудиото, създадено от AI, често е по-трудно за откриване от видеото. „Просто имате много по-малко контекстуални улики, които можете да опитате да отработите“, казва Кейти Харбат, служител по глобалните въпроси в Duco Experts и бивш директор на обществената политика на Meta.

Често има издайническа визуална информация индикатори, че видеоклипът е неавтентичен, като проблеми в качеството, странни сенки, замъгляване или неестествени движения.

„Предимствата на аудиото [за лошите актьори] са, че можете да бъдете по-малко прецизни“, каза Наш. „За недостатъците можете да ги прикриете с фонов шум, приглушена музика.“ Дийпфейк на лидера на опозицията в Обединеното кралство сър Кийр Стармър, за който се твърди, че ругае служител, например, прозвуча така, сякаш е записан в оживен ресторант.

Появява се пазар за технологично подпомагано откриване, за да се противопостави на проблема. Групата за киберсигурност McAfee този месец обяви Project Mockingbird, инструмент, който търси аномалии в звукови модели, честоти и амплитуда, преди да даде на потребителите вероятност дали аудиото е истинско или фалшиво. Главният технологичен директор на McAfee Стив Гробман каза, че неговият инструмент за откриване има около 90 процента ефективност.

Николас Мюлер, изследовател в областта на машинното обучение във Fraunhofer AISEC, отбеляза, че умишленото добавяне на музика или влошаване на качеството на звука също пречи на точността на инструментите за откриване.

Онлайн платформи се борят да овладеят проблема. Meta се сблъска с критики, защото изрично забранява манипулирано видео, предназначено да подвежда, но същите правила изглежда не се прилагат за аудио. Мета каза, че аудио фалшификатите отговарят на условията за проверка на фактите и ще бъдат етикетирани и понижавани в емисиите на потребителите, когато бъдат открити. TikTok също инвестира в възможности за етикетиране и откриване.

„Дийпфейкът в Ню Хемпшир напомня за многото начини, по които дийпфейковете могат да всеят объркване и да увековечат измамите“, каза Робърт Вайсман, президент на групата за защита на потребителите с нестопанска цел Public Citizen. „Моментът на политическия deepfake е тук. Политиците трябва да побързат да въведат защита или сме изправени пред изборен хаос.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!