Световни новини без цензура!
Социалните медийни платформи се надпреварват да се справят с изображения, генерирани от AI преди изборите през ноември
Снимка: cnn.com
CNN News | 2024-05-10 | 13:10:22

Социалните медийни платформи се надпреварват да се справят с изображения, генерирани от AI преди изборите през ноември

Бележка на редактора: Версия на тази статия се появи за първи път в бюлетина „Надеждни източници“.

Big Tech се надпреварва да се справи с потока от изображения, генерирани от изкуствен интелект, които заливат социалните медийни платформи, преди машинно изработените изображения да замърсят допълнително информационното пространство.

TikTok обяви в четвъртък, че ще започне да етикетира съдържание, генерирано от AI. Meta (компанията майка на Instagram, Threads и Facebook) каза миналия месец, че ще започне да етикетира такова съдържание. И YouTube въведе правила, задължаващи създателите да разкриват, когато видеоклиповете са създадени с AI, така че да може да се приложи етикет. (За отбелязване е, X на Elon Musk не е обявил никакви планове за обозначаване на генерирано от AI съдържание.)

С по-малко от 200 дни до изборите през ноември с високи залози и тъй като технологията напредва с главоломна скорост, всяка от трите най-големи социални медийни компании очерта планове, за да гарантира, че техните милиарди потребители могат да различават съдържанието, генерирано от машини и хора.

Междувременно OpenAI, създателят на ChatGPT, който позволява на потребителите също да създават изображения, генерирани от изкуствен интелект чрез своя DALL-E модел, заяви тази седмица, че ще пусне инструмент, който позволява на потребителите да откриват кога изображението е създадено от бот. Освен това компанията каза, че ще стартира свързан с изборите фонд от 2 милиона долара с Microsoft за борба с дълбоките фалшификации, които могат да „заблудят избирателите и да подкопаят демокрацията“.

Усилията от Силиконовата долина представляват признание, че инструментите, изграждани от технологични титани, имат сериозен потенциал да опустошат информационното пространство и да нанесат сериозни щети на демократичния процес.

Генерираните от AI изображения вече се оказаха особено измамни. Само тази седмица създадено от AI изображение на поп звездата Кейти Пери, която уж позира на червения килим на Met Gala в метални рокли и рокли на цветя, заблуди хората да повярват, че певицата е присъствала на годишното събитие, докато всъщност не го направи. Изображението беше толкова реалистично, че собствената майка на Пери повярва, че е автентично.

„Не знаех, че си ходил в Met“, майката на Пери изпрати съобщение до певицата, според екранна снимка, публикувана от Пери.

„хаха, мамо, изкуственият интелект хвана и теб, ВНИМАВАЙ!“ — отвърна Пери.

Въпреки че вирусното изображение не причини сериозна вреда, не е трудно да си представим сценарий - особено преди големи избори - при който фалшива снимка може да подведе избирателите и да предизвика объркване, може би да наклони везната в полза на един или друг кандидат.

Но въпреки многократните и тревожни предупреждения от експерти и фигури в индустрията, федералното правителство досега не е успяло да предприеме никакви действия за установяване на предпазни мерки около индустрията. И така, Big Tech е оставен на собствените си средства да овладее технологията, преди лошите актьори да могат да я експлоатират за собствена изгода. (Какво може да се обърка?)

Остава да видим дали ръководените от индустрията усилия могат успешно да ограничат разпространението на вредни дълбоки фалшификати. Социалните медийни гиганти имат множество правила, забраняващи определено съдържание на техните платформи, но историята многократно показва, че те често не са успявали да ги наложат адекватно и са позволявали злонамереното съдържание да се разпространи сред масите, преди да предприемат действия.

Това лошо досие не вдъхва много доверие, тъй като изображенията, създадени от изкуствен интелект, все повече бомбардират информационната среда – особено когато САЩ се втурват към безпрецедентни избори, като самата демокрация е заложена на карта.

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!