Световни новини без цензура!
Дълбока фалшива демокрация: Зад измамата с изкуствен интелект, оформяща изборите в Индия през 2024 г.
Снимка: aljazeera.com
Aljazeera News | 2024-02-20 | 08:22:27

Дълбока фалшива демокрация: Зад измамата с изкуствен интелект, оформяща изборите в Индия през 2024 г.

Ню Делхи, Индия — Докато избирателите се редяха на опашка рано сутринта на 30 ноември миналата година, за да гласуват на законодателни избори, за да изберат следващото правителство в южния индийски щат Телангана, седемсекунден клип започна да става вирусен в социалните медии.

Публикувано на X от партията на Конгреса, която е в национална опозиция и беше в щата по това време, то показва К. Т. Рама Рао, лидер на Бхарат Ращра Самити, който управлява щата, призовавайки хората да гласуват в полза на Конгреса.

Конгресът го сподели широко в редица групи в WhatsApp, „оперирани неофициално от Конгресната партия“ според високопоставен партиен лидер, пожелал анонимност, в крайна сметка се озова в официалния X акаунт на партията, прегледан повече от 500 000 пъти .

Беше фалшиво.

„Разбира се, генериран е от изкуствен интелект, въпреки че изглежда напълно реален“, каза лидерът на партията на Конгреса пред Ал Джазира. „Но нормален избирател не би могъл да различи; гласуването беше започнало [когато беше публикувано видеото] и нямаше време [опозиционната кампания] да овладее щетите.“

Проницателно премереният deepfake беше маркер за потока от генерирани от AI или манипулирани медии, които помрачиха поредица от избори в щатите на Индия през последните месеци и сега заплашват да оформят фундаментално предстоящите общи избори в страната.

Между март и май близо един милиард избиратели в Индия ще изберат следващото си национално правителство на най-големите избори в света и в историята. Заплахите, породени от измамни медии, генерирани от изкуствен интелект, привлякоха вниманието на света, когато през януари в платформите на социалните медии се появиха фалшиви сексуално изразени изображения на художничката Тейлър Суифт. През ноември Ashwini Vaishnaw, министър на информационните технологии на Индия, нарече deepfakes „заплаха за демокрацията“ и премиерът Нарендра Моди изрази тези опасения.

Но с повишената наличност на удобни инструменти за изкуствен интелект, екипи в политическите партии в Индия, включително партията Bharatiya Janata на Моди и Конгреса, внедряват дълбоки фалшиви съобщения, за да повлияят на гласоподавателите, казаха пред Al Jazeera мениджъри на близо 40 скорошни кампании. Докато няколко AI инструмента, използвани за генериране на deepfakes, са безплатни, други са достъпни при абонамент само за 10 цента на видеоклип.

„Създаване на възприятие“

BJP, може би най-технологично сложната партия в Индия, е в челните редици на използването на илюзии за кампании. Още през 2012 г. партията използва 3D холограмни проекции на Моди, за да може той едновременно да „кампанира“ на десетки места едновременно. Стратегията беше разгърната широко по време на общите избори през 2014 г., които доведоха Моди на власт.

Там не беше намесена измама, но през февруари 2020 г. Манодж Тивари, член на парламента от BJP, стана сред първите в света, които използваха deepfakes за кампания. В три видеоклипа Тивари се обърна към избирателите в Делхи преди изборите за законодателно събрание на столицата на хинди, хариани и английски – достигайки до три различни аудитории в мултикултурния град. Само видеото на хинди беше автентично: другите две бяха дълбоки фалшиви, където AI беше използван за генериране на гласа и думите му и за промяна на израженията и движението на устните му, за да стане почти невъзможно да се открие, само при гледане, че не са истински.

През последните месеци Dravida Munnetra Kazhagam (DMK), който управлява южния щат Тамил Наду, използва AI, за да възкреси своя емблематичен лидер M Karunanidhi от мъртвите, използвайки реалистични видеоклипове на бившия филмов сценарист и ветеран политик в събития на кампанията.

Сега консултанти и мениджъри на кампании казват, че изборите през 2024 г. могат да стимулират още повече използването на дълбоки фалшификати.

„Политиката е за създаване на възприятие; с AI инструменти [на гласова и видеомодулация] и едно щракване, можете да обърнете възприятието с главата надолу за минута“, каза Арун Реди, национален координатор за социалните медии в Конгреса, който ръководи изборите на партията в Телангана, които се занимават с технологии . Той добави, че екипът е бил пълен с идеи за включване на AI в кампаниите, но че не са имали достатъчно „обучени хора“, за да ги изпълнят всички.

Реди укрепва отбора си – както и другите партии.

„ИИ ще има огромен ефект при създаването на разказа“, каза Реди пред Al Jazeera. „Манипулираното от AI политическо съдържание ще се увеличи многократно, много повече от това, което е било някога.“

„Кампаниите стават все по-странни“

Живеещ в пустинния град Пушкар в западна Индия, 30-годишният Дивиендра Сингх Джадун ръководи стартиращ AI, The Indian Deepfaker. Стартирала през октомври 2020 г., компанията му клонира гласа на кандидата за главен министър в Конгреса на щата Раджастан Ашок Гелот, за да може неговият екип да изпраща персонализирани съобщения в WhatsApp, обръщайки се към всеки гласоподавател с името му по време на изборите за парламент през ноември. Индийският Deepfaker в момента работи с екипа на главния министър на Сиким Прем Сингх Таманг за холограми по време на предстоящите кампании. Сиким е един от най-малките щати на Индия на североизток, кацнал в Хималаите между Индия, Бутан и Китай.

Това е чистата, официална работа, каза той. Но през последните месеци той беше залят от това, което той описва като „неетични искания“ от политически кампании. „Политическите партии се свързват индиректно чрез международни номера в WhatsApp, регистратори в Instagram или се свързват в Telegram“, каза Джадун в телефонно интервю за Al Jazeera.

На изборите през ноември неговата компания отхвърли повече от 50 такива искания, каза той, където потенциални клиенти искаха видеоклипове и аудио, променени за насочване към политически опоненти, включително с порнография. Като стартиращ, Jadoun каза, че неговата компания е особено внимателна, за да избегне всякакви правни проблеми. „И това е много неетично използване на AI“, добави той. „Но познавам много хора, които го правят на много ниски цени и са лесно достъпни сега.“

По време на предизборните кампании за щатските законодателни органи на Мадхя Прадеш в Централна Индия и Раджастан на запад миналия ноември, полицията регистрира множество случаи за дълбоки фалшиви видеоклипове, насочени към високопоставени политици, включително Моди, Шиврадж Сингх Чаухан, Кайлаш Виджайваргия (всички BJP) и Камал Нат (Конгрес). Производството на дълбоко фалшиво съдържание често се възлага на частни консултантски фирми, които разчитат на мрежите на социалните медии за разпространение, оглавявани от WhatsApp.

Политически консултант, пожелал анонимност, каза на Ал Джазира, че редица обикновени граждани без публичен профил са регистрирани в WhatsApp и използвани за кампаниите, за да затрудни някой директно да ги проследи до партии, кандидати, консултанти и фирми за изкуствен интелект .

Този консултант проведе шест кампании в парламентарните избори миналата година както за BJP, така и за Конгреса. „В Раджастан използвахме телефонни номера на строителни работници, за да поддържаме нашата мрежа в WhatsApp“, казаха те, „където се разпространяваха предимно дълбоки фалшиви съобщения.“

Междувременно, манипулираните с изкуствен интелект аудиозаписи са особено ценни инструменти в по-малките избирателни райони,    „насочване към кандидати с фалшиви записи на разговори за организиране на „черни пари“ за избори или заплашване на някого за купуване на гласове“, каза консултантът, чийто собствен кандидат беше насочен с един такъв запис. Записите обикновено са маскирани с гласовете на кандидатите, за да бъдат представени като доказателство за корупция.

„Манипулирането на гласоподаватели от AI не се счита за грях от нито една партия“, добавиха те. „Това е само част от стратегията на кампанията.“

Индия има 760 милиона интернет потребители – повече от 50 процента от населението – след само Китай.

Сред всички искания, едно от избирателен район в Южен Раджастан се открои към Jadoun. Преди щатските избори през ноември обаждащият се поиска Jadoun да промени проблемно, но автентично видео на техния кандидат – чиято партия не разкри – за да направи реалистичен deepfake. Целта: да се твърди, че оригиналът е deepfake, а deepfake оригиналът.

„Опозицията имаше обезпокоителен видеоклип на своя кандидат и искаха да го разпространят по-бързо в социалните медии, за да твърдят, че е дълбок фалш“, каза той, избухвайки в неудобен смях. „Политическите кампании стават все по-странни.“

Заплахи за почтеността на изборите

Понастоящем индийските закони не дефинират ясно „deepfakes“, каза Анушка Джайн, изследовател на политиката в базираната в Гоа Digital Futures Lab. Полицията използва закони срещу клевета, фалшиви новини или нарушаване на скромността на човек, съчетани със Закона за информационните технологии, за да се опита да се справи с отделни случаи. Но често те си играят на къртица.

„Полицията преследва ефекта от deepfake, а не защото самият той е deepfake“, каза тя.

Анализатори казват, че Избирателната комисия на Индия (ECI), автономен орган, който провежда анкети, трябва да се справи с променящия се характер на политическите кампании.

В дните преди гласуването в щатските избори в Телангана миналата година лидерите на управляващата партия Бхарат Ращра Самити многократно предупредиха своите последователи в социалните медии да бъдат нащрек срещу дълбоки фалшификации, използвани от Конгресната партия. Те също така обжалваха ECI срещу клипа deepfake, който Конгресът сподели сутринта на гласуването.

Но видеото остава онлайн и партията така и не получи известие от ECI, казаха пред Al Jazeera двама лидери на Конгреса, запознати с проблема.

Ал Джазира потърси коментари от ECI, но все още не е получила отговор.

„Дори ако един човек бъде подведен да повярва в нещо и това промени мнението му, това опорочава чистотата на изборния процес“, каза SY Quraishi, бивш главен избирателен комисар на Индия. „Deepfakes направиха проблема с разпространяването на слухове по време на изборите хиляди пъти по-сериозен.“

Кураиши каза, че дълбоките фейкове трябва да бъдат модерирани в реално време, за да се сведат до минимум щетите, които могат да причинят на индийската демокрация.

„ECI трябва да предприеме действия, преди да бъдат нанесени щетите“, каза той. „Те трябва да бъдат много по-бързи.“

„Истината е извън обсега“

Индийското правителство оказва натиск върху големите технологични компании, включително Google и Meta, активно да полагат усилия за модериране на дълбоки фалшификации на своите платформи. Министърът на информационните технологии Раджеев Чандрасекар се срещна с представители на тези фирми като част от обсъждането на заплахите, породени от deepfakes.

Като иска от технологичния сектор да поеме водеща роля, правителството избягва всякаква критика, че се опитва да цензурира селективно селективни дълбоки фалшификати или че се опитва да разбие нововъзникващите AI технологии в по-широк план.

Но прехвърляйки отговорността на частни компании, правителството повдига въпроси относно искреността на намерението си да регулира манипулативното съдържание, каза Пратик Уагре, изпълнителен директор на индийската Фондация за свобода на интернет, водеща организация за технологична политика в Ню Делхи - резервоар. „Това е почти пожелателно мислене“, каза той.

Казвайки, че технологичните компании не са успели да се справят със съществуващите проблеми с модерирането на съдържанието, Вагре каза, че „възходът на AI сега“ е усложнил предизвикателствата. И сегашният подход към модерирането на съдържание игнорира това, което наистина е в основата на проблема, каза той.

„Вие не решавате проблема“, каза той. „Дизайнът [на алгоритмите] е просто погрешен.“

На 16 февруари големи технологични компании подписаха споразумение на Мюнхенската конференция по сигурността за доброволно приемане на „разумни предпазни мерки“, за да предотвратят използването на инструменти за изкуствен интелект за нарушаване на демократичните избори по света. Но неясно формулираният пакт остави много защитници и критици разочаровани.

YouTube обяви, че ще даде възможност на хората да поискат премахване на генерирано от изкуствен интелект или променено съдържание, което симулира разпознаваемо лице, включително лицето или гласа му, чрез своя процес за заявка за поверителност.

„Не съм много оптимист за възможностите на платформата да открива deepfake“, каза Рави Айер, управляващ директор на Neely Center for Ethical Leadership and Decision Making към Marshall School of Business на Университета на Южна Калифорния. „С ниската цифрова грамотност и нарастващото потребление на видеоклипове, това представлява сериозен риск за почтеността на изборите в Индия.“

Идентифицирането на всяка медия, манипулирана от AI, не е разумна задача, Айер каза, че компаниите трябва да преработят алгоритмите, които деприоризират поляризиращото съдържание. „Компаниите са тези, които разполагат с парите и ресурсите, те трябва да предприемат разумни стъпки, за да се справят с нарастването на дълбоките фалшификати“, каза той.

Фондацията за свобода в интернет публикува отворено писмо, призоваващо кандидатите и партиите за изборите доброволно да се въздържат от използването на дълбоки фалшиви технологии преди националните

Източник: aljazeera.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!