Световни новини без цензура!
Мнение: Гафът на AI на Google с изображения разкрива много по-голям проблем
Снимка: cnn.com
CNN News | 2024-04-10 | 13:31:12

Мнение: Гафът на AI на Google с изображения разкрива много по-голям проблем

Бележка на редактора: Rizwan Virk, който основа Play Labs @ MIT, е автор на „.“ В момента той е в Колежа за глобални фючърси на Държавния университет на Аризона в . Последвайте го в X , в Instagram и на . Мненията, изразени в този коментар, са негови собствени. Прочетете в CNN.

Във филма от 1968 г. „2001: Космическа одисея“ публиката се озова да се взира в едно от първите съвременни изображения на изключително учтива, но несътрудничеща система с изкуствен интелект, герой на име HAL. При директна молба на единствения оцелял астронавт да го пусне обратно в космическия кораб, HAL отговаря: „Съжалявам, Дейв. Страхувам се, че не мога да направя това.

Наскоро някои потребители се оказаха с подобен (макар и по-малко драматичен) любезен отказ от Gemini, интегриран чатбот и AI асистент който Google пусна като конкурент на ChatGPT на OpenAI. Когато го попитаха, Близнаци учтиво отказа в някои случаи да генерира изображения на исторически бели хора, като викингите.

За разлика от измисления HAL, Gemini на Google поне предложи известно обяснение, като каза, че само показването на изображения на бели хора би засилило „вредни стереотипи и обобщения за хората въз основа на тяхната раса“, според Fox News Digital.

Ситуацията бързо избухна, като някои критици я нарекоха „събуден“ AI скандал. Не помогна, когато потребителите откриха, че Gemini създава различни, но исторически неточни изображения. Когато беше подканен да изобрази бащите-основатели на Америка, например, той генерира изображение на черен мъж. Той също така изобразява кафява жена като папата и различни цветнокожи хора, включително чернокож, в нацистки униформи, когато са помолени да изобразят германски войник от 1943 г.

Реакцията онлайн беше толкова бърза, че изпълнителният директор на Google Сундар Пичай призна, че Gemini е обидил някои от своите потребители. Google също постави пауза върху способността на Gemini да генерира хора в изображения. Беше представено на обществеността като обикновен пропуск, извършен с добри намерения, които се объркаха, като Google обясни в публикация в блог, че „настроихме го, за да гарантираме, че няма да попадне в някои от капаните, които сме виждали в миналото с изображение технология за генериране."

Тези „капани“ – за които Google коригира прекалено много – разбира се, бяха ясни пристрастия в предишни AI системи (които са изградени върху същите видове технологии, каквито е Gemini). Тези системи имаха тенденция да показват пристрастия към малцинствата. Софтуерът за разпознаване на лица не винаги разпознава чернокожите хора, например, или дори ги етикетира като „горили“. AI алгоритмите за одобрение на заеми в крайна сметка показаха пристрастия към малцинствата. В пространството на изображенията, ако попитате предишни генератори на изображения с изкуствен интелект за изображение на главен изпълнителен директор или лекар, те първоначално почти винаги показват изображения на бели мъже.

По ирония на съдбата Google беше критикуван през 2020 г. за уволнението на черен AI учен, който твърдеше, че неговите усилия в областта на AI са пристрастни, и тази обратна реакция може да е допринесла за прекомерната корекция на компанията в другата посока с Gemini. Основният проблем, който Google се опитва да реши, не е лесен.

В исторически план много нови технологични продукти са показали пристрастия. Те могат да варират от начина, по който биомедицинските устройства измерват нивата на кислород в кръвта за различни етнически групи, което води до недостатъчно диагностициране на определени състояния при чернокожи пациенти, до това как сензорите не винаги регистрират индивиди с по-тъмна кожа и липсата на жени в клинични изпитвания на лекарства.

В случая с AI този проблем се изостря поради пристрастия, които съществуват в данните за обучение – обикновено публични данни в интернет – които инструментът за AI след това научава.

Последният скандал, в който Близнаците изглежда ценят разнообразието пред историческата точност, може да е разкрил много по-голям проблем. Ако големи технологични организации като Google, които са се превърнали в новите пазители на световната информация, манипулират историческа информация въз основа на възможни идеологически вярвания и културни постановления, какво друго са готови да променят? С други думи, Google и други големи технологични компании манипулират ли информация, включително резултати от търсене, за настоящето или миналото поради идеология, култура или правителствена цензура?

В 21-ви век забравете цензурирането на филми, изгарянето на книги или създаването на пропагандни филми като форми на информационен контрол. Това са толкова 20-ти век. Днес, ако не е в Google, може и да не съществува. В този свят, управляван от технологии, търсачките могат да бъдат най-ефективният инструмент за цензура за настоящето и миналото. За да цитирам лозунг на партията от "1984" на Джордж Оруел, "Който контролира миналото, контролира бъдещето: който контролира настоящето, контролира миналото."

Тъй като изкуственият интелект става все по-усъвършенстван, тези страхове от голямата технологична цензура и манипулиране на информацията (със или без участието на правителствата) само ще растат. ИИ за разговори, като ChatGPT, може вече да замества търсенето като предпочитан метод за намиране и обобщаване на информация. Както Google, така и Microsoft видяха тази възможност и се включиха изцяло в AI след успеха на ChatGPT.

Възможността дори накара The Economist да попита по отношение на AI: „Застрашено ли е 20-годишното господство на Google в търсенето?“

Apple обмисля включването на OpenAI и наскоро Gemini в новите версии на своите iPhone, което би означавало, че значително повече хора ще използват AI редовно.

Като професор вече виждам тази тенденция от първа ръка с моите студенти. Те често предпочитат да използват ChatGPT не само за намиране, но и за обобщаване на информация за тях в параграфи. За по-младото поколение, благодарение на AI, уеб търсачките бързо стават толкова остарели, колкото каталозите с физически карти в библиотеките днес.

Това, което влошава цензурата и манипулацията с ИИ, е, че днешният ИИ вече има добре познат проблем с халюцинациите. С други думи, понякога AI измисля нещата. Научих този факт по трудния начин, когато студентите започнаха да предават очевидно генерирани от AI задания, пълни с препратки, които изглеждаха страхотно, но имаха един проблем: те всъщност не съществуваха.

Вземете нашия безплатен седмичен бюлетин

Предвид проблема с халюцинациите, който и да е лидерът на AI в бъдеще (независимо дали Google, Microsoft, OpenAI или нова компания) ще бъде изкушен да „попълни“ свои собствени правила за това какво AI трябва и не трябва да произвежда, точно като Google направи с Близнаци. Това „попълване“ неизбежно ще дойде от пристрастията и културата на всяка компания и може в крайна сметка да ограничи или поне драстично да промени това, което AI е позволено или желае да ни покаже, точно както Google направи с Gemini.

Ето защо този малък скандал надхвърля прекомерното разнообразие, справедливост и включване, или DEI, ентусиазъм в една компания. Това може да е предвестник на това, което предстои с AI и Big Tech, които ни водят към територията на Оруел. След няколко години може просто да искате да помолите своя приятелски настроен AI спътник да ви даде малко историческа информация, само за да получите AI отговор по онзи влудяващо любезен начин: „Съжалявам, Дейв. Страхувам се, че не мога да направя това.

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!