Световни новини без цензура!
ИИ Изследовател поема изборите Deepfakes
Снимка: nytimes.com
New York Times | 2024-04-02 | 18:36:35

ИИ Изследовател поема изборите Deepfakes

В продължение на почти 30 години Орен Ециони беше сред най-оптимистичните изследователи на изкуствения интелект.

Но през 2019 г. д-р Ециони, професор от Вашингтонския университет и главен изпълнителен директор на Алън Института за ИИ, стана един от първите изследователи, предупредили, че нова порода ИИ. ще ускори разпространението на дезинформация онлайн. И до средата на миналата година, каза той, той е бил обезпокоен, че генерираните от изкуствения интелект дълбоки фалшификати ще предизвикат големи избори. Той основа организация с нестопанска цел TrueMedia.org през януари, надявайки се да се бори с тази заплаха.

Във вторник организацията пусна безплатни инструменти за идентифициране на дигитална дезинформация с план да постави в ръцете на журналисти, проверяващи факти и всеки друг, който се опитва да разбере какво е реално онлайн.

Инструментите, достъпни от уебсайта TrueMedia.org за всеки, одобрен от организацията с нестопанска цел, са предназначени да откриват фалшиви и подправени изображения, аудио и видео. Те преглеждат връзките към медийни файлове и бързо определят дали трябва да им се вярва.

милиарди хора по света са готови да гласуват на избори, той продължава да рисува мрачна картина на това, което предстои.

„Ужасен съм“, каза той. „Има много голяма вероятност да станем свидетели на цунами от дезинформация.“

Само през първите няколко месеца на годината, A.I. технологиите помогнаха за създаването на фалшиви гласови обаждания от президента Байдън, фалшиви изображения и аудиореклами на Тейлър Суифт и цяло фалшиво интервю, което изглежда показваше украински служител, който поема отговорност за терористична атака в Москва. Откриването на такава дезинформация вече е трудно – и технологичната индустрия продължава да пуска все по-мощен ИИ. системи, които ще генерират все по-убедителни дълбоки фалшификации и ще направят откриването още по-трудно.

Много изследователи на изкуствения интелект предупреждават, че заплахата набира сила. Миналия месец повече от хиляда души - включително д-р Ециони и няколко други известни A.I. изследователи — подписаха отворено писмо, призоваващо за закони, които да накарат разработчиците и дистрибуторите на A.I. аудио и визуалните услуги са отговорни, ако технологията им е била лесно използвана за създаване на вредни deepfakes.

На събитие, организирано от Колумбийския университет в четвъртък, Хилари Клинтън, бивш държавен секретар, интервюира Ерик Шмид, бивш главен изпълнителен директор на Google, който предупреди, че видеоклиповете, дори фалшивите, могат да „движат поведението при гласуване, човешкото поведение, настроенията, всичко.“

ограничат щетите, които тези технологии могат да причинят. Anthropic, Google, Meta и OpenAI обявиха планове за ограничаване или етикетиране на свързаните с избори употреби на техните услуги с изкуствен интелект. През февруари 20 технологични компании – включително Amazon, Microsoft, TikTok и X – подписаха доброволен ангажимент за предотвратяване на измамни A.I. съдържание от прекъсване на гласуването.

Това може да е предизвикателство. Компаниите често пускат своите технологии като софтуер с „отворен код“, което означава, че всеки е свободен да ги използва и променя без ограничения. Експертите казват, че технологията, използвана за създаване на дълбоки фалшиви фалшиви фалшификати – резултат от огромни инвестиции на много от най-големите компании в света – винаги ще изпреварва технологията, предназначена за откриване на дезинформация.

Миналата седмица, по време на интервю с The New York Times, д-р Ециони показа колко лесно е да се създаде дълбок фалшив. Използвайки услуга от дъщерна организация с нестопанска цел, CivAI, която използва A.I. инструменти, лесно достъпни в интернет, за да демонстрира опасностите от тези технологии, той незабавно създаде снимки на себе си в затвора - някъде, където никога не е бил.

предлагат подобна технология.

Когато д-р Етизони даде на инструментите на TrueMedia известна дълбока фалшива версия на г-н Тръмп, седнал на една кула с група млади чернокожи мъже, те го определиха като „силно подозрително“ – най-високото им ниво на доверие. Когато той качи друга известна дълбока фалшива версия на г-н Тръмп с окървавени пръсти, те бяха „несигурни“ дали е истинска или фалшива. Някои компании, включително OpenAI и Meta, вече етикетират изображения, генерирани от AI, с водни знаци. И изследователите проучват допълнителни начини за отделяне на истинското от фалшивото.

Университетът на Мериленд разработва криптографска система, базирана на QR кодове, за удостоверяване на непроменени записи на живо. Проучване, публикувано миналия месец, помоли десетки възрастни да дишат, преглъщат и мислят, докато говорят, така че техните модели на паузи в речта да могат да бъдат сравнени с ритмите на клонирано аудио.

Но като много други други експерти, д-р Ециони предупреждава, че водните знаци на изображенията се премахват лесно. И въпреки че е посветил кариерата си на борбата с дълбоките фалшификати, той признава, че инструментите за откриване ще се борят да надминат новия генеративен ИИ. технологии.

Откакто създаде TrueMedia.org, OpenAI разкри две нови технологии, които обещават да направят работата му още по-трудна. Човек може да пресъздаде гласа на човек от 15-секунден запис. Друг може да генерира видеоклипове с пълно движение, които изглеждат като нещо извадено от холивудски филм. OpenAI все още не споделя тези инструменти с обществеността, тъй като работи, за да разбере потенциалните опасности.

съди OpenAI и неговия партньор, Microsoft, за искове за нарушаване на авторски права, включващи системи с изкуствен интелект, които генерират текст.)

В крайна сметка, каза д-р Ециони, борбата с проблема ще изисква широко сътрудничество между държавните регулатори, компаниите, създаващи ИИ. технологии и технологичните гиганти, които контролират уеб браузърите и социалните медийни мрежи, където се разпространява дезинформация. Той обаче каза, че вероятността това да се случи преди есенните избори е малка.

„Опитваме се да дадем на хората най-добрата техническа оценка на това, което предстои тях“, каза той. „Те все още трябва да решат дали е истинско.“

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!