Световни новини без цензура!
Евроизгледи.
            
Наистина ли генеративният AI влошава дезинформацията?
Снимка: euronews.com
Euro News | 2024-03-14 | 18:06:59

Евроизгледи. Наистина ли генеративният AI влошава дезинформацията?

Без да се справяме със съществуващите недостатъци в настоящата ни екосистема, ние създаваме плодородна почва, където дезинформацията и други вредни явления ще продължат да процъфтяват, пише Калим Ахмед.

През последните години AI доминира дискусиите в различни сектори.

Неговата бърза интеграция и растеж изпреварват способността на широката публика да бъде в крак с развитието.

Това принуди журналисти, изследователи и организации на гражданското общество непрекъснато да подчертават недостатъците на тези нововъзникващи технологии и те са прави в това.

Дискусията беше предизвикана от най-новите пускане на Sora, AI модел за преобразуване на текст към видео, като мнозина обсъждат дали инструменти като тези имат някакви полезни приложения или по своята същност отрицателно въздействие върху света.

Някои избраха по-премерен подход и се опитаха да проучат набора от данни, използван в модели за обучение като Sora. Те решиха да пуснат подканите, демонстрирани от OpenAI чрез Midjourney, съвременник на Sora, и откриха поразителни прилики между резултатите на двата модела.

Технически колумнист разкри, че хиперреалистичен клип, генериран от Sora, който придоби значителна популярност в социалните медии, е бил обучен с помощта на кадри от Shutterstock, компания, която си партнира с OpenAI. Това подчертава ограничената наличност на висококачествени набори от данни за обучение на такива модели.

Едно от значителните опасения, които многократно възникват в публичния дискурс, е вредното въздействие на кампаниите за дезинформация, подпомагани от AI, особено като се има предвид широко разпространената наличност на инструменти за създаване на измамно съдържание като изображения, текст, дълбоки фалшификати и клониране на глас.

Основното безпокойство е, че тези инструменти позволяват производството на подвеждащо съдържание в мащаб, което потенциално изкривява обществените възприятия и дори влияе върху поведението.

Въпреки това, прекомерното изтъкване на потенциала на дезинформацията, подпомагана от ИИ, отклонява вниманието от две важни реалности.

Първо, традиционните методи за дезинформация продължават да бъдат ефективни и участниците в заплахите могат да експлоатират днешните модели на ИИ, за да разпространяват дезинформация не само поради тяхната сложност, а по-скоро защото сегашните ни инфраструктури са погрешни, което позволява на дезинформацията да процъфтява независимо от участие на AI.

Второ, прилагането на генеративен AI може да не е непременно достатъчно полезно за дезинформация, а по-скоро обхваща други злонамерени дейности, които се пренебрегват поради нашия изключителен фокус върху дезинформацията.

Недостатъкът в нашата информационна екосистема

Прекомерното внимание, което се отделя на опасностите от дезинформация, поддържана от AI, донякъде достигна нивата на научната фантастика.

Това до голяма степен се дължи на начина, по който публичният дискурс, особено в популярните новинарски медии, има тенденция да прави сензация на темата, вместо да подхожда към нея от обоснована, реалистична гледна точка.

Изявен случай, който си струва проучва се инцидентът от миналата година, в който се твърди, че е имало взрив близо до Пентагона, подкрепен от генерирано от AI изображение, което уж изобразява събитието.

Първоначалните твърдения произхождат от ненадеждни източници като RT и бързо се разширяват от телевизионни канали в Индия.

Човек може да твърди, че това е успешна демонстрация на вредите от подпомагания от AI дезинформация, обаче, при по-внимателно разглеждане, това служи като пример, подчертаващ недостатък в настоящата ни информационна инфраструктура.

Изображението, генерирано от AI, използвано за обосноваване на твърдението, е с ниско качество; по-убедително фалшиво изображение може да бъде създадено с помощта на инструменти като Adobe Photoshop, потенциално причинявайки по-значителна вреда.

ИИ намали ли времето, необходимо на злонамерените участници за генериране на невярна информация? Несъмнено. Въпреки това, фалшивото изображение щеше да се разпространи бързо, тъй като беше разпространено от първокласни потребители на X.

ИИ намали ли времето, необходимо на злонамерените участници да генерират невярна информация? Несъмнено. Въпреки това, фалшивото изображение щеше да се разпространи бързо, тъй като беше разпространено от първокласни потребители на X (бивш Twitter).

За обществеността и мнозина в традиционните медии разбирането на пълната трансформация на платформата е предизвикателство; няма значение на потвърдена отметка. Сега това са само премиум и непремиум потребители. Разчитането на синята отметка за бързо преценяване на автентичността на твърдението е остаряло.

Освен това, когато традиционните телевизионни новинарски издания разпространиха твърдението, те пренебрегнаха основните принципи на медийната грамотност.

Брюксел започва съдебни действия срещу X на Илън Мъск заради незаконно съдържание, дезинформацияПоследните ескалации ни напомнят за необходимостта от борба с дезинформацията

Тъй като твърдението беше разпространявано от RT, рупор на Кремъл, ангажиран в конфликт с Украйна (a нация, подкрепяна от САЩ и техните съюзници), тази контекстуална информираност се нуждаеше от допълнителна проверка.

Визуалните изображения обаче бяха незабавно показани на телевизионните екрани в цяла Индия, без да се подлагат на каквато и да е форма на кръстосана проверка.

Лъжите за „кокаиновия навик“ на Зеленски не се нуждаеха от помощта на AI

Има множество случаи на кампании за дезинформация, организирани от прокремълски актьори, които не разчитат на AI.

Центърът за анализ на заплахите на Microsoft (MTAC) разкри една такава кампания, при която видеоклипове на Cameo на знаменитости са манипулирани, за да изобразят невярно украинския президент Володимир Зеленски като наркоман.

На известни личности е било плащано да доставят съобщения на човек на име „Владимир“, призовавайки го да потърси помощ за злоупотреба с вещества.

Впоследствие тези видеоклипове бяха модифицирани, за да включват връзки, емотикони и лога, създавайки илюзия за автентичност, сякаш първоначално са били публикувани в социалните медии.

Тези видеоклипове след това бяха отразени от руските държавни новинарски агенции, включително РИА Новости, Спутник и Русия-24.

Фалшивите акаунти в социалните медии, използвани за разпространение на дезинформация след взрива в болницата в ГазаИзкуственият интелект не трябва да отвлича вниманието от „глобалната вреда“ на дезинформацията, казва шефът на ООН

Многократно кампании за дезинформация, дирижирани от неидентифицирани проруски актьори, се опитват да имитират основните медии да разпространяват антиукраински наративи.

За да постигнат това, те използват изфабрикувани екранни снимки на новинарски статии, както и повторения на новинарски видеоклипове. Нито един от тези методи не изисква AI; по-скоро те разчитат на традиционни техники като умела манипулация с помощта на софтуер като Adobe Photoshop и Adobe After Effects.

Недостатъците вече са налице

Шумът около управляваната от AI дезинформация също служи за защита на големите технологични компании от търсене на отговорност.

Казано ясно, изображение, текст, аудио или видео, генерирани от изкуствен интелект, нямат никаква цел без механизъм за разпространението им до широка аудитория.

Разследващите репортажи непрекъснато хвърлят светлина върху недостатъците в рекламните политики, регулиращи мета платформите (Facebook, Instagram, Audience Network и Messenger).

Миналата година доклад разкри мрежа от реклами за крипто измами, работещи на Meta платформи, използващи изображения на знаменитости.

Руска кампания за дезинформация, свързана с нейното военно разузнаване, използва изображения на известни личности, включително Тейлър Суифт, Бионсе ... и Кристиано Роналдо, за да популяризира антиукраински послания в социалните медии от използване на уязвимости в рекламните политики на Meta и X.

Тези реклами не използват сложен AI; по-скоро те използваха манипулирани изображения на знаменитости и се възползваха от пропуск в рекламните политики на Meta.

Тези правила позволиха показването на URL адреси на реномирани новинарски издания, но при щракване потребителите бяха пренасочени към уебсайтове за крипто измами. Тази измамна тактика е наречена "примамка и превключване".

Знаменитости от САЩ „неволно вербувани“ за кампания за дезинформация Cameo срещу президента на Молдова Откакто Илън Мъск пое Twitter, омразата и дезинформацията се разрастнаха

По същия начин руска кампания за дезинформация, свързана с военното разузнаване, използва изображения на известни личности, включително Тейлър Суифт, Бионсе, Опра, Джъстин Бийбър и Кристиано Роналдо, за популяризиране на антиукраински послания в социалните медии чрез използване на уязвимости в рекламните политики на Meta и X.

Тези вратички представляват само един от многобройните недостатъци в настоящата ни система. Като се има предвид демонстрираната ефикасност на политическата реклама чрез Big Tech, ние трябва да дадем приоритет на справянето с подобни недостатъци.

Все още не знаем как да се справим с дезинформацията

С навлизането в най-голямата изборна година към днешна дата (включваща колосалните 45% от световното население), става очевидно, че големите технологични компании започват да оттеглят някои от политиките си по отношение на дезинформацията и политическата реклама.

В голям политически ход миналата година YouTube обяви, че вече няма да модерира подвеждащи твърдения като тези, че президентските избори през 2020 г. са били откраднати от Тръмп, подчертавайки продължаващото предизвикателство как да се справим с дезинформацията и дезинформацията в мащаб, особено на видео базирани платформи.

Дори Meta, която обикновено рекламира своята инициатива за проверка на факти от трети страни, наскоро въведе нови контроли. Потребителите вече имат опцията да определят дали искат проверените с факти публикации да се показват на видно място в тяхната емисия (придружени от етикет с проверен факт) или да бъдат изместени по-надолу въз основа на техните предпочитания.

Инициативите за проверка на фактите, поддържани от Meta и Google, набраха глобална скорост и трябва да продължат да получават подкрепа. Това обаче не означава, че трябва да се задоволяваме с това, което сме постигнали, и да спрем да идентифицираме други обществени променливи, които стимулират дезинформацията.

Тази политика обаче не е без недостатъци. Например, ако влиятелна фигура насърчава всичките си последователи да коригират настройките си, за да дават приоритет на проверени факти публикации, това потенциално може да направи цялата цел на проверката на фактите безполезна.

В крайна сметка не е първият път, когато публични личности се опитват да играят алгоритми, използвайки своите последователи.

Тези големи политически ходове се случват в САЩ, където големите технологични компании са много по-строги с политиките си за намеса и манипулиране на избори.

Трябва да се отбележи, че като цяло Meta не разширява политиките си за проверка на факти до политически реклами или публикации, направени от политици, което е основен проблем на политиката, който е критикуван от години.

Троловете използват тази реалистична видеоигра, за да разпространяват дезинформация за войната в УкрайнаЕС изисква Meta и TikTok да полагат подробности за усилията за ограничаване на дезинформацията от войната Израел-Хамас

Общоприето е мнението на експертите в областта на дезинформацията, че тези компании са склонни да не са толкова щателни със страните от третия свят, като някои използват термина „третиране на доведено дете“, за да опишат този феномен.

Така че повдига въпроса: ако в политиките им има изтичане на информация или недостатъчни мерки, какво въздействие би имало това върху тези държави?

Не е само съдържанието, а разказ, който генерира

Линеен подход към дезинформацията, т.е. приемането, че проверката на фактите просто ще реши проблема, е интелектуално нечестна мярка.

Дори с потенциални недостатъци, тези инициативи за проверка на фактите, поддържани от Meta и Google, набраха глобална скорост и трябва да продължат да получават подкрепа.

Това обаче не означава, че трябва да се задоволяваме с това, което сме постигнали, и да спрем да идентифицираме други обществени променливи, които стимулират дезинформацията.

Освен това, за лица, уязвими към дезинформация и дезинформация, определящ фактор не е непременно качеството на съдържанието, като сложни изображения и видеоклипове, генерирани от AI, а по-скоро всеобхватният разказ, който това съдържание подкрепя.

За производителите на дезинформация това е предизвикателство за бинарна класификация, подобно на начина, по който измамниците, маскирани като нигерийски принцове, правят разлика между податливи и неподатливи потребители, което им позволява да се насочат към достатъчно жертви за печалба.

Например, дълбоко фалшиво видео наскоро стана вирусно, показващо предполагаемо предаване на France 24, в което водещ съобщава, че президентът Еманюел Макрон е отменил планирано посещение в Украйна поради опасения от опит за убийство.

Предаването никога не е било излъчено от France24, но вече беше значително вирусно в руската информационна сфера, че бившият руски президент и заместник-председател на Съвета за сигурност на Русия Дмитрий Медведев побърза да сподели мнението си за X относно предполагаем новинарски репортаж.

Така наречената част от информацията за опита за убийство на Макрон може да

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!