Световни новини без цензура!
Google казва, че неговият генератор на изображения с изкуствен интелект понякога би „свръхкомпенсирал“ за расата
Снимка: apnews.com
AP News | 2024-02-23 | 00:56:50

Google казва, че неговият генератор на изображения с изкуствен интелект понякога би „свръхкомпенсирал“ за расата

Google се извини в петък за погрешното пускане на нов генератор на изображения с изкуствен интелект, признавайки, че в някои случаи инструментът би „свръхкомпенсирал“ в търсенето на разнообразна гама от хора, дори когато такава гама не е имала смисъл.

Частичното обяснение защо изображенията му поставят цветнокожи хора в исторически условия, където обикновено не биха били намерени, дойде ден след като Google каза той временно спира своя чатбот Gemini да генерира изображения с хора в тях. Това беше в отговор на възмущение в социалните медии от някои потребители, които твърдяха, че инструментът има анти-бели пристрастия в начина, по който генерира расово разнообразен набор от изображения в отговор на писмени подкани.

„Ясно е, че това функцията пропусна целта“, се казва в публикация в блог в петък от Прабхакар Рагаван, старши вицепрезидент, който управлява търсачката на Google и други бизнеси. „Някои от генерираните изображения са неточни или дори обидни. Благодарни сме за отзивите на потребителите и съжаляваме, че функцията не работи добре,

Рагаван не спомена конкретни примери, но сред тези, които привлякоха вниманието в социалните медии тази седмица, бяха изображения, които изобразяват чернокожа жена като баща-основател на САЩ и показват чернокожи и азиатски хора като германски войници от нацистката ера. Асошиейтед прес не успя да провери независимо какви подкани са използвани за генериране на тези изображения.

Google добави новата функция за генериране на изображения към своя чатбот Gemini, известен преди като Bard, преди около три седмици. Той е изграден върху по-ранен изследователски експеримент на Google, наречен Imagen 2.

Google знае от известно време, че подобни инструменти могат да бъдат неудобни. В технически документ от 2022 г. изследователите, разработили Imagen, предупредиха, че генеративните AI инструменти могат да бъдат използвани за тормоз или разпространение на дезинформация „и повдигат много опасения относно социалното и културно изключване и пристрастия“. Тези съображения доведоха до решението на Google да не пусне „публична демонстрация“ на Imagen или неговия основен код, добавиха изследователите по това време.

Оттогава натискът за публично пускане на генеративни AI продукти нарасна поради конкурентна надпревара между технологични компании, които се опитват да се възползват от интереса към нововъзникващите технологии, предизвикан от появата на чатбота ChatGPT на OpenAI.

Проблемите с Gemini не са първите, които напоследък засягат генератор на изображения. Microsoft трябваше да коригира собствения си инструмент Designer преди няколко седмици, след като някои го използваха, за да създават фалшиви порнографски изображения на Тейлър Суифт и други знаменитости. Проучванията също така показват, че генераторите на изображения с изкуствен интелект могат да разширят расовите и половите стереотипи, открити в техните данни за обучение, и без филтри е по-вероятно да покажат мъже с по-светла кожа, когато бъдат помолени да генерират човек в различни контексти.

„Когато изградихме тази функция в Gemini, ние я настроихме, за да гарантираме, че няма да попадне в някои от капаните, които сме виждали в миналото с технологията за генериране на изображения – като създаване на изображения с насилие или сексуално явен образ или изображения на истински хора“, каза Рагаван в петък. „И тъй като нашите потребители идват от цял ​​свят, ние искаме да работи добре за всички.“

Той каза, че много хора може да „искат да получат набор от хора“, когато поискат снимка на футбол играчи или някой, който разхожда куче. Но потребителите, които търсят някой от конкретна раса или етническа принадлежност или в конкретен културен контекст, „трябва да получат отговор, който точно отразява това, което питате.“

Въпреки че е свръхкомпенсиран в отговор на някои подкани, в други беше „по-предпазлив, отколкото възнамерявахме, и отказа изцяло да отговори на някои подкани – погрешно тълкувайки някои много анодинни подкани като чувствителни“.

Той не обясни какви подкани има предвид, но Gemini рутинно отхвърля заявки за определени теми, като протестни движения, според тестове на инструмента от AP в петък, в които той отказа да генерира изображения за Арабската пролет, протестите на Джордж Флойд или площад Тянанмън. В един случай чатботът каза, че не иска да допринася за разпространението на дезинформация или „тривиализиране на чувствителни теми“. беше подсилено от собственика на платформата за социални медии Илон Мъск, който заклейми Google за това, което той описа като „безумно расистко, антицивилизационно програмиране“. Мъск, който има свой собствен AI стартъп, често е критикувал конкурентни разработчици на AI, както и Холивуд за предполагаеми либерални пристрастия.

Рагхаван каза, че Google ще направи „задълбочени тестове“, преди да включи отново способността на чатбота да показва на хората.

Изследователят от Университета на Вашингтон Суроджит Гош, който е изследвал пристрастията в генераторите на изображения с изкуствен интелект, каза в петък, че беше разочарован, че съобщението на Raghavan завърши с отказ от отговорност, че изпълнителният директор на Google „не може да обещае, че Gemini няма понякога да генерира неудобни, неточни или обидни резултати.“

За компания, която е усъвършенствала алгоритмите за търсене и „едно от най-големите съкровища на данни в света, генерирането на точни или необидни резултати трябва да бъде доста ниска граница, за която можем да ги държим отговорни“, каза Гош.

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!