Световни новини без цензура!
Този инструмент кара AI моделите да халюцинират котки, за да се борят с нарушаването на авторските права
Снимка: nbcnews.com
NBC News | 2024-04-04 | 12:06:21

Този инструмент кара AI моделите да халюцинират котки, за да се борят с нарушаването на авторските права

Художници и компютърни учени тестват нов начин да попречат на изкуствения интелект да извлича изображения, защитени с авторски права: „отровете“ AI моделите с визии на котки.

Инструмент, наречен Nightshade, пуснат през януари от изследователи от Чикагския университет, променя изображенията по малки начини, които са почти невидими за човешкото око, но изглеждат драстично различни от AI платформите, които ги поглъщат . Художници като Karla Ortiz сега „защитят“ своите произведения на изкуството, за да ги предпазят от сканиране и репликиране от програми за текст във снимка като DreamUp на DeviantArt, Stable Diffusion на Stability AI и други.

„Това направи ми впечатление, че голяма част от това е всъщност цялата моя работа, цялата работа на моите връстници, цялата работа на почти всеки художник, когото познавам“, каза Ортис, концептуален художник и илюстратор, чието портфолио й осигури работа за проектиране на визуални елементи за проекти за филми, телевизия и видео игри като „Междузвездни войни“, „Черната пантера“ и Final Fantasy XVI.

„И всичко беше направено без ничие съгласие — без кредит, без компенсация, без нищо“, каза тя.

Nightshade се възползва от факта, че AI моделите не „виждат“ по начина, по който хората го правят, каза ръководителят на изследването Шон Шан.

„Машините виждат само голям набор от числа, нали? Това са стойности на пиксели от нула до 255 и за модела това е всичко, което виждат“, каза той. Така Nightshade променя хиляди пиксели – капка в кофата за стандартни изображения, които съдържат милиони пиксели, но достатъчно, за да подмами модела да види „нещо, което е напълно различно“, каза Шан, четвърта година докторант в Чикагския университет .В документ, който ще бъде представен през май, екипът описва как Nightshade автоматично избира концепция, която възнамерява да обърка AI програма, отговаряща на дадена подкана - вграждане на „кучешки“ снимки, например, с набор от пикселни изкривявания, които да се чете като „котка“ на модела.

След като захрани 1000 едва доловимо „отровени“ снимки на кучета в инструмент за изкуствен интелект за текст във снимка и поиска изображение на куче, моделът генерира нещо определено не е кучешко.

Целевите изкривявания на Nightshade обаче не винаги стават котешки. Програмата решава за всеки случай каква алтернативна концепция възнамерява да „видят“ своите AI цели. В някои случаи, каза Шан, са необходими само 30 нощни снимки, за да се отрови модел по този начин.

Бен Джао, професор по компютърни науки, който ръководи лабораторията на Чикагския университет, разработила Nightshade, не Не очаквайте масово навлизане на инструмента някъде близо до ниво, което би заплашило да свали генераторите на AI изображения. Вместо това той го описа като „копие“, което може да направи някои по-тесни приложения достатъчно неизползваеми, за да принуди компаниите да плащат, когато изтриват работата на художници.

„Ако сте творец от всякакъв тип , ако правите снимки, например, и не искате непременно вашите снимки да бъдат въведени в тренировъчен модел — или подобия на вашите деца, или вашите собствени подобия да бъдат въведени в модел — тогава Nightshade е нещо, което може да обмислите, ” каза Джао.

Инструментът е безплатен за използване и Джао каза, че възнамерява да го запази по този начин.

Модели като Stable Diffusion вече предлагат „откази“, така че артистите да могат да кажат на наборите от данни да не използват тяхното съдържание. Но много притежатели на авторски права се оплакаха, че разпространението на AI инструменти изпреварва усилията им да защитят работата си.

Разговорът около защитата на интелектуалната собственост добавя към по-широк набор от етични опасения относно AI, включително разпространението на deepfakes и въпроси относно границите на водния знак за ограничаване на тези и други злоупотреби. Въпреки че има нарастващо признание в рамките на AI индустрията, че са необходими повече предпазни мерки, бързото развитие на технологията — включително по-нови инструменти за текст към видео като Sora на OpenAI — тревожи някои експерти.

„Аз не „Не знам, че ще направи много, защото ще има технологично решение, което ще бъде контрареакция на тази атака“, каза Соня Шмер-Галундер, професор по ИИ и етика в Университета на Флорида, за Nightshade.

Докато проектът Nightshade и други като него представляват добре дошъл „бунт“ срещу AI моделите при липса на смислена регулация, каза Шмер-Галундер, разработчиците на AI вероятно ще коригират програмите си, за да се защитят срещу подобни контрамерки.

Изследователите от Чикагския университет признават вероятността от „потенциални защити“ срещу отравянето на изображенията на Nightshade, тъй като AI платформите се актуализират, за да филтрират данни и изображения, за които се подозира, че са преминали през „необичайна промяна“.

Джао смята, че е несправедливо да се прехвърля тежестта върху отделните хора да прогонят AI моделите далеч от техните изображения като начало.

„Колко компании смятате трябва да отидеш при дадено лице, за да му кажеш да не нарушава правата ти?“ той каза. „Вие не казвате: „Да, наистина трябва да подписвате формуляр всеки път, когато пресичате улицата, който казва: „Моля, не ме удряйте!“ на всеки шофьор, който минава.“

Междувременно Ортис каза, че вижда Nightshade като полезна „атака“, която осигурява известна степен на защита на работата й, докато търси по-силни в съда .

„Nightshade просто казва: „Хей, ако вземете това без моето съгласие, това може да има последствия“, каза Ортис, който е част от колективен иск заведено срещу Stability AI, Midjourney и DeviantArt през януари 2023 г. с твърдение за нарушаване на авторски права.

Съд в края на миналата година отхвърли някои от аргументите на ищците, но им остави отворена вратата да подадат изменено дело , което направиха през ноември, като добавиха Runway AI като ответник. В предложение за отхвърляне по-рано тази година Stability AI твърди, че „самото имитиране на естетически стил не представлява нарушение на авторските права на което и да е произведение.“

Stability AI не коментира. Midjourney, DeviantArt и Runway AI не отговориха на искания за коментар.

Brian Cheung

Източник: nbcnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!