Световни новини без цензура!
Дълбоки фалшификации и дезинформация
Снимка: ft.com
Financial Times | 2024-02-02 | 20:06:34

Дълбоки фалшификации и дезинформация

„Лъжата лети, а истината куца след нея“, пише ирландският сатирик Джонатан Суифт през 1710 г. Възходът на генерираните от AI „дълбоки фалшификации“ – хиперреалистични видео, аудио или манипулации на изображения — означава, че фантастиката сега лети по-бързо от всякога. Тази седмица X блокира търсенията за Тейлър Суифт, след като фалшиви сексуално явки изображения на поп звездата се разпространиха в платформата на социалните медии. Преди да настигне реалността, едно изображение на мегазвездата вече е било видяно 47 милиона пъти.

Тъй като софтуерът deepfake стана по-елегантен, по-реалистичен и широко достъпен, употребата му за нечестиви цели нарасна. Предпазните мерки за хората и обществото не са на ниво. Правната защита често е недостатъчна, за да предотврати разпространението на вредно съдържание, а социалните медии имат различни правила за съдържание и възможности за премахване на злонамерени публикации. И все пак дълбоките фалшификати размиват границата между това, което е реално и това, което не е, и рискуват да посеят недоверие във всичко в интернет. Законодателите, социалните медийни платформи и технологичните компании, които създават тези инструменти, трябва да увеличат усилията си за предотвратяване, откриване и реагиране на вредни дълбоки фалшификации.

Суифт може да е най-популярната жена жертва, но тя далеч не е само един. Проучванията показват, че повечето дълбоки фалшиви изображения онлайн са с порнографски характер, предимно на жени. Софтуерът е използван за измама, изнудване и унищожаване на репутации. Освен това представлява огромен риск за демокрацията по света. Използван е за разпространение на невярна информация, манипулиране на общественото мнение и представяне на политици. Миналия месец автоматизирано обаждане — използващо фалшиво аудио на президента на САЩ Джо Байдън — призова демократите да останат вкъщи преди първичните избори в Ню Хемпшир.

Федералната комисия по комуникациите на САЩ тази седмица предложи използването на технология за клониране на глас в роботизираните обаждания да бъдат обявени за фундаментално незаконни. И все пак регулирането на вредното генерирано от AI съдържание далеч не е просто; определянето на злонамерени намерения може да бъде трудно. Опитът да се предотврати създаването му се сблъсква с проблеми при определянето на това какво е разрешено и какво не и може да задуши свободата на словото и иновативните употреби на софтуера. Въпреки всичките си недостатъци, технологията се използва за добро - например в подкрепа на преподаватели, създатели на филми и дори пациенти, които са загубили гласа си. Гамата от софтуер и безграничният характер на социалните медии прави контрола върху често анонимните създатели също логистично предизвикателство. Законът за изкуствения интелект на ЕС изисква създателите да разкриват използването на технология за deepfake, но това не предотвратява разпространението на злонамерено съдържание.

Тежестта трябва да бъде насочена към разпространението на злонамерени deepfake. Законът за онлайн безопасност на Обединеното кралство забранява разпространението на дълбоки порнографски фалшификати без съгласие. Други държави трябва да ги последват. Правната рамка за разпространение на други вредни дълбоки фалшификати без съгласие — включително авторски права, клевета и правила за намеса в избори — се нуждае от затягане. Границите трябва да са ясни, за да не се задушава законното свободно изразяване. Кампаниите за осведомяване на обществеността и подобрената медийна грамотност биха помогнали на потребителите също да уловят и докладват за злонамерени дълбоки фалшификации.

Вредното съдържание ще продължи да прониква. Това означава, че компаниите за социални медии трябва да бъдат по-отговорни, с наказания, ако не успеят да предприемат адекватни действия, като например по-бързо откриване и премахване на злонамерено съдържание и забрана на фалшиви акаунти. Инвестицията за подобряване на софтуера за откриване на AI би помогнала, заедно с „воден знак“, за да се разграничат истинските от машинно генерираните публикации. Сътрудничеството по предпазни мерки между платформи и софтуер е жизненоважно.

С напредването на усилията за защита ще се развиват и злонамерените технологии за избягване. Политиците и компаниите трябва да действат бързо, като същевременно избягват нежелани последствия. Но с правата на хората, особено на жените, и демократичния дискурс са заложени на карта, те не могат да си позволят да изостават още повече.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!