Световни новини без цензура!
В годината на големите избори архитектите на ИИ се противопоставят на злоупотребата му
Снимка: nytimes.com
New York Times | 2024-02-16 | 19:15:21

В годината на големите избори архитектите на ИИ се противопоставят на злоупотребата му

Компаниите за изкуствен интелект са в авангарда на разработването на трансформативната технология. Сега те също се надпреварват да поставят ограничения върху начина, по който ИИ. се използва в година, наситена с големи избори по света.

Миналия месец OpenAI, създателят на чатбота ChatGPT, каза, че работи за предотвратяване на злоупотреба с неговите инструменти в избори, отчасти чрез забрана на използването им за създаване на чатботове, които се преструват на реални хора или институции. През последните седмици Google също така каза, че ще ограничи своя A.I. chatbot, Bard, да не отговаря на определени подкани, свързани с изборите, за да избегне неточности. А Meta, която притежава Facebook и Instagram, обеща да обозначава по-добре генерираното от AI съдържание на своите платформи, така че гласоподавателите да могат по-лесно да различат коя информация е истинска и коя е фалшива.

В петък Anthropic, друг водещ AI. start-up, се присъедини към своите връстници, като забрани технологията му да се прилага за политически кампании или лобиране. В публикация в блог компанията, която прави чатбот, наречен Claude, каза, че ще предупреди или ще спре всички потребители, които нарушат нейните правила. Той добави, че използва инструменти, обучени да откриват и блокират автоматично дезинформация и да оказват влияние върху операциите.

„Историята на ИИ. внедряването също беше пълно с изненади и неочаквани ефекти“, каза компанията. „Очакваме, че през 2024 г. ще видим изненадващи употреби на ИИ. системи — употреби, които не са предвидени от собствените им разработчици.“

Тайван, Пакистан и Индонезия гласуваха, като Индия, най-голямата демокрация в света, планира да проведе общите си избори през пролетта.

Колко ефективни са ограниченията върху ИИ. инструменти ще бъде неясно, особено когато технологичните компании напредват с все по-сложни технологии. В четвъртък OpenAI представи Sora, технология, която може незабавно да генерира реалистични видеоклипове. Такива инструменти биха могли да се използват за създаване на текст, звуци и изображения в политически кампании, замъглявайки факти и измислици и повдигайки въпроси за това дали гласоподавателите могат да разберат какво съдържание е истинско.

A.I.- генерираното съдържание вече се появи в политическите кампании в САЩ, предизвиквайки регулаторни и правни отблъсъци. Някои щатски законодатели изготвят законопроекти за регулиране на генерираното от AI политическо съдържание.

Миналия месец жителите на Ню Хемпшир получиха съобщения за автоматично обаждане, които ги разубеждаваха да гласуват на първичните избори в щата с глас, който най-вероятно е изкуствено генериран, за да звучи като президент Байдън. Миналата седмица Федералната комисия по комуникациите забрани подобни обаждания.

„Лошите актьори използват генерирани от изкуствен интелект гласове в нежелани автоматични обаждания, за да изнудват уязвими членове на семейството, да имитират знаменитости и да дезинформират избирателите,“ Джесика Розенворсел, председател на FCC, каза тогава.

Аржентина, Австралия, Великобритания и Канада. Миналата седмица бившият премиер Имран Хан, чиято партия спечели най-много места на изборите в Пакистан, използва ИИ. глас да обяви победа, докато е в затвора.

В един от най-последователните изборни цикли в паметта, дезинформацията и измамите, които A.I. може да създаде, може да бъде опустошително за демокрацията, казаха експерти.

„Ние сме зад осмицата тук“, каза Орен Ециони, професор във Вашингтонския университет, който специализира в изкуствен интелект и основател на True Media, организация с нестопанска цел, работеща за идентифициране на дезинформация онлайн в политически кампании. „Нуждаем се от инструменти, за да отговорим на това в реално време.“

Anthropic каза в съобщението си в петък, че планира тестове, за да идентифицира как неговият чатбот Claude може да генерира предубедени или подвеждащо съдържание, свързано с политически кандидати, политически въпроси и изборна администрация. Тези тестове на „червения екип“, които често се използват за пробиване на предпазните мерки на дадена технология за по-добро идентифициране на нейните уязвимости, също ще проучат как A.I. отговаря на вредни запитвания, като например подкани, изискващи тактики за потискане на гласоподаватели.

През следващите седмици Anthropic също пуска пробен период, който има за цел да пренасочи потребители в САЩ, които имат свързани с гласуването запитвания към авторитетни източници на информация като TurboVote от Democracy Works, непартийна група с нестопанска цел. Компанията каза, че нейният A.I. моделът не е бил обучаван достатъчно често, за да предостави надеждно факти в реално време за конкретни избори.

съди OpenAI и неговия партньор, Microsoft, през декември, твърдейки, че нарушава авторските права на новинарско съдържание, свързано с AI. системи.)

Synthesia, стартираща компания с ИИ. видеогенератор, който е свързан с кампании за дезинформация, също забранява използването на технология за „съдържание, подобно на новини“, включително фалшив, поляризиращ, разделящ или подвеждащ материал. Компанията е подобрила системите, които използва за откриване на злоупотреба с нейната технология, каза Александру Войка, ръководител на корпоративните въпроси и политика на Synthesia.

ИИ за стабилност, стартиращ с инструмент за генериране на изображения, заяви, че забранява използването на технологията си за незаконни или неетични цели, работи за блокиране на генерирането на опасни изображения и прилага незабележим воден знак към всички изображения.

върху технологичните стандарти, за да помогне да се разпознае кога съдържанието е било генерирани с изкуствен интелект. Преди парламентарните избори в Европейския съюз през юни TikTok каза в публикация в блог в сряда, че ще забрани потенциално подвеждащо манипулирано съдържание и ще изисква от потребителите да обозначават реалистичен ИИ. творения.

Google каза през декември, че също ще изисква от създателите на видеоклипове в YouTube и всички рекламодатели на избори да разкриват цифрово променено или генерирано съдържание. Компанията заяви, че се подготвя за изборите през 2024 г., като ограничава своя ИИ. инструменти, като Bard, от връщане на отговори за определени запитвания, свързани с избори.

„Както всяка нововъзникваща технология, ИИ. предоставя нови възможности, както и предизвикателства“, каза Google. ИИ може да помогне в борбата със злоупотребите, добави компанията, „но също така се подготвяме за това как може да промени пейзажа на дезинформацията.“

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!