Световни новини без цензура!
AI продължава да се обърква. Ами ако не може да се поправи?
Снимка: ft.com
Financial Times | 2024-04-06 | 06:14:59

AI продължава да се обърква. Ами ако не може да се поправи?

Чатботът говореше пълни глупости. „За да повишите силата на виргейт, добре е да внушите групови танцьори“, каза един потребител. „Пристигнах. Аз съм за. Аз съм за, аз съм от, аз съм това“, каза той на друг.

Някои потребители се шегуваха, че е погълнал киселина - или твърде много Джеймс Джойс. Други откриха, че говореше като английски турист в Марбея: „Muchas gracias за разбирането ви, ще се погрижа отсега нататък да сме кристално чисти като вода.“ Беше 21 февруари и ChatGPT беше повреден.

OpenAI, който управлява ChatGPT, призна проблема и го поправи бързо – което е може би най-малкото, което бихте очаквали от компания, наскоро оценена на 80 милиарда долара. Той обясни, че актуализация е „въвела грешка в начина, по който моделът обработва езика“.

Въпреки това, по-малко драматичните недостатъци на ChatGPT остават рутинно явление. Сега трябва да отговаря на запитвания с предупреждения и контекст, вмъкнати като функции за безопасност. „Само аз ли съм, или ChatGPT4 става все по-малко добър в работата си? Все по-тъп?“ физикът Дейвид Дойч, ранен възприетел на технологиите, се оплака миналия месец.

ChatGPT също редовно „халюцинира“ – тоест измисля невярна информация. Помолен да генерира научни резюмета, той измисли 30 процента от препратките; нямаше реално подобрение между производителността на версия 3.5 и версия 4. 

Можете да опитате това сами, като помолите ChatGPT да назовава британските министър-председатели с две Т в името им. Неговият отговор заслужава да бъде цитиран изцяло: „1. Маргарет Тачър 2. Уинстън Чърчил (въпреки че пълното му име няма две „т“, фамилията му има) 3. Тони Блеър 4. Мат Хенкок (Забележка: Към последната ми актуализация през април 2023 г. Мат Хенкок не е служил като министър-председател, но той е включен тук за пълнота в случай на объркване или бъдеща значимост.)“ 

Въпросът не е дали Мат Ханкок има някаква бъдеща значимост (въпреки че си струва да се отбележи, че до април 2023 г. той вече обяви, че се оттегля като депутат). Не, това, което е интересно, е по-широкото значение.

Как да реагираме на технология, която е едновременно брилянтна и полуформирана? Това не е само ChatGPT. Google трябваше да изключи своя AI фотогенератор Gemini офлайн, след като създаде исторически неточни и обидни изображения, като черни хора като нацисти. Такива инструменти се провалят по един ясен начин: те не са достатъчно надеждни, за да се използват широко и редовно. Оттук и шегата, повторена от самия съосновател на OpenAI Сам Алтман: AI е всичко, което все още не работи.

Най-популярният отговор е да се предположи, че инструментите ще се подобрят. Минали сме през това и преди. Уикипедия някога е била актуална тема; сега (благодарение на човешкия труд), това е безценно. Използването на ChatGPT е намаляло след първоначалния скок - но това е рано. На 5 декември 2000 г. The Daily Mail излезе със заглавие: „Интернет „може да е само мимолетна мода, тъй като милиони се отказват от него“. Както оптимистите, така и песимистите в областта на изкуствения интелект предполагат, че технологията ще продължи напред и този път. Илън Мъск наскоро прогнозира: „ИИ вероятно ще бъде по-умен от всеки отделен човек през следващата година.“ Джефри Хинтън, бивш инженер на Google, предупреди, че това може да унищожи човечеството.

Но шумът върху изкуствения интелект от миналата година също отвори търсенето на конкурентна перспектива: усещането, че технологиите може да са малко разочароващи. С други думи, не оптимизъм или песимизъм, а скептицизъм. Ако съдим за AI само от собствения си опит, бъдещето не е свършена сделка.

Може би най-шумният питащ ИИ е Гари Маркъс, когнитивен учен, който е съосновател на стартиращ ИИ и го продаде на Uber през 2016 г. Алтман веднъж туитна: „Дайте ми увереността на посредствен дълбоко- учене скептик”; Маркъс предположи, че това е препратка към него. Той предпочита термина „реалист“.

Той не е привърженик на гибелта, който вярва, че ИИ ще стане измамник и ще ни превърне всички в кламери. Той иска AI да успее и вярва, че ще успее. Но в сегашната си форма, твърди той, тя удря стени.

Днешните големи езикови модели (LLM) са се научили да разпознават модели, но не разбират основните концепции. Следователно те винаги ще произвеждат глупави грешки, казва Маркъс. Идеята, че технологичните компании ще произвеждат изкуствен общ интелект до 2030 г., е „смешна“.

Генеративният AI изсмуква пари, електричество, вода, защитени с авторски права данни. Не е устойчиво. Може да е необходим изцяло нов подход. Ед Зитрон, бивш журналист за игри, който сега е както технологичен публицист, така и технологичен критик, базиран в Невада, го казва по-категорично: „Може да сме на върха на ИИ.“

Такъв скептицизъм е привлекателен, отчасти защото то пробива самочувствието на технологични лидери като Алтман и Мъск. Кой не обича да полива със студена вода самодоволните милиардери? Кой понякога не се утешава с мисълта, че нещата може да останат такива, каквито са? Дори и да не формулираме изрично този скептичен подход, ние имплицитно го подкрепяме с нашето поведение. Не правим много, за да се адаптираме към ИИ (или изменението на климата), защото не можем да повярваме на катаклизми, докато не пристигнат.

Но скептицизмът също е труден, защото технологиите се подобряват толкова бързо. През 2013 г. Маркъс пише за това как мощната търсачка на Google не може да отговори на въпроси, които възрастните не са си задавали преди, като например: Може ли алигатор да бяга на 100 метра с препятствия? Сега ChatGPT може лесно да отговори на този въпрос.

Дори технологичните оптимисти се оказват уловени. Ръководителят на AI на Meta, Yann LeCun, каза на световните лидери на 13 февруари, че услугата AI за генериране на текст към видео не е възможна: „По принцип не знаем как да направим това.“ Няколко дни по-късно OpenAI разкри своя модел за текст към видео, Sora. Ако кажете на висок глас, че AI никога няма да може да направи нещо, има шанс някой в ​​Силициевата долина да се смее.

Маркъс казва, че езикът на LeCun е „небрежен“. Sora все още не е публично достъпна и някои от недостатъците й вече са очевидни. Той не включва законите на физиката. Произвежда шахматна дъска 7x7 с трима царе. „Нещата се противопоставят на гравитацията.“

Далеч от преклонение, Маркъс е смел. Той подхваща скорошните коментари на Altman от OpenAI, като отказва да даде времева линия за следващата голяма актуализация на ChatGPT. Демис Хасабис, съосновател на Google DeepMind, каза, че достигането до изкуствен общ интелект вероятно ще изисква „още няколко иновации“. Парите, напомпани в AI, носят „цял съпътстващ куп шум и може би малко измама“, оплака се той.

„Всички казаха, че съм луд“, казва Маркъс. „Изненадващо голям брой хора се обединиха около нещата, които съм казвал през цялото време.“ Неговият тест за алигатор беше победен, но неговият „дух“ не беше. „През 2001 г. предсказах халюцинации. . . Не губя сън, че утрешните халюцинации ще бъдат спрени.

От една гледна точка технологичният скептицизъм е странен. Преди две десетилетия дори нямахме iPhone. Но точно поради революцията на iPhone, днешните технологии могат да изглеждат неудовлетворителни. Apple Watch се оказа прославен брояч на стъпки. Vision Pro, новите слушалки на Apple, не изглеждат най-доброто използване на $3499. Метавселената е по-самотна от вегетарианец в Nando’s.

Тази седмица Amazon заяви, че ще спре да използва своята така нашумяла технология без каси в супермаркетите си в САЩ. Технологията изглеждаше сложна, но разчиташе на повече от 1000 души в Индия, които гледаха видеоклипове на купувачи и етикетираха действията им.

Има прецеденти на скептицизъм. През 1970 г. пионерът на ИИ Марвин Мински прогнозира: „След три до осем години ще имаме машина с общия интелект на средно човешко същество.“ опа През 2016 г. Tesla заяви, че всички нейни нови автомобили имат необходимия хардуер, за да се управляват по-безопасно, отколкото хората. Опа пак. „От 2016 г. казвам [че самоуправляващите се автомобили] няма да се появят през следващата година“, казва Маркъс.

Друга помощ за скептиците е крипто. В продължение на много години криптовалутата беше рекламирана от много умни хора в Силиконовата долина. Беше представено като неизбежно. Работата му беше премълчана. Ако попитате за точното му приложение, неговите много умни защитници почти биха завъртели очи: не беше ли очевидно? Крипто беше революция. Блокчейнът, свързана технология, може да пренасочи всичко.

ИИ и крипто се раждат в една и съща среда. Алтман от OpenAI е съосновател на криптовалута, наречена Worldcoin през 2019 г. (Worldcoin сканира очите на потребителите, за да може да разграничи човешките потребители от машините. Този месец испанските регулатори наредиха да спре да работи в Испания от съображения за поверителност.)

Подобно на крипто, AI има разпознаваеми недостатъци. LLM като OpenAI не могат да усвоят цялото човешко знание. Те се обучават на набори от налични данни - думи, изображения и аудио, но не и на пряко взаимодействие с физическия свят. Дори и да изпомпвате повече данни, можете ли да се справите с ограниченията?

Визуална история Generative AI съществува благодарение на трансформатора

В техния подкаст Mystery AI Hype Theatre 3000 лингвистът Емили Бендер и социологът Алекс Хана се опитват да разграничат AI бомбаста - включително твърдението на изпълнителен директор на Google, че компютрите вече са получили изкуствен генерал интелигентност и прогноза на Goldman Sachs, че AI ще замени една четвърт от настоящата работа.

„Вярно е, че тези неща могат да изтласкат правдоподобно звучащ текст по много голямо разнообразие от теми, но това е обща мимикрия, която не струва непременно нищо“, казва Бендер. „Тежестта на доказването лежи върху хората, които правят необичайните твърдения. . . Никой не казва, че AI е реклама, ние казваме, че вашите твърдения за AI са реклама.“

Гари Маркъс предполага, че производителността може да се влоши: LLM произвеждат ненадежден резултат, който след това се засмуква обратно в други LLM. Моделите се замърсяват трайно. Процесите на партньорска проверка на научните списания ще бъдат претоварени, „което ще доведе до рязък спад в репутацията“, написа наскоро Маркъс.

Другото средство на скептиците е да попитат дали хората наистина използват AI. Колко хора познавате, които използват ChatGPT редовно? „Иска ми се да може да свърши скучните части от работата ми вместо мен, но не може“, казва Zitron. Маркъс подхвана прогнозата, че изкуственият интелект е толкова добър в анализирането на ЯМР и компютърна томография, че би оставил радиолозите без работа. През 2022 г. той написа, че: „Нито един рентгенолог не е сменен.“

Има и други примери. Zitron цитира проучване на Boston Consulting Group, което установи, че консултантите, които са използвали ChatGPT за решаване на бизнес проблеми, са се представили с 23 процента по-лошо от тези, които не са го използвали. (BCG установи, че инструментът е повишил производителността в продуктовите иновации с 40 процента.) 

Голяма част от обществото всъщност е скептици към ИИ. Приблизително една трета от американците казват, че ИИ ще подобри резултатите за пациентите, друга трета казват, че ще влоши резултатите, а останалите казват, че няма да има голяма разлика.

Това, което би оправдало скептиците, е взрив: фалит в стил WeWork на основен AI играч. Възможно е. Компютърните им разходи са огромни. Главният изпълнителен директор на StabilityAI, генератор на изображения, който някога се оценяваше на $1 милиард, подаде оставка миналия месец, след като инвеститорите се раздразниха от липсата на приходи.

Освен това компаниите с изкуствен интелект са изправени пред съдебни искове от различни притежатели на авторски права. Едно от съдебните дела, от Гилдията на авторите, обвинява OpenAI в „систематична кражба в масов мащаб“. Andreessen Horowitz, фирма за рисков капитал, пълна с технологични оптимисти, предупреди: „Изводът е следният: налагането на цената на действителна или потенциална отговорност за авторски права на създателите на AI модели или ще убие, или значително ще попречи на тяхното развитие.“

Но това се чете като тревога за личен интерес. Мери Расенбергер, главен изпълнителен директор на Гилдията на авторите, посочва, че OpenAI вече преговаря за лицензи с доставчици на новини.

Тя казва, че „има много пари“ за лицензиране на книги. Ед Нютън-Рекс, основател на Fairly Trained, организация с нестопанска цел, която сертифицира обучителните практики на компаниите за изкуствен интелект, казва, че – ако компаниите трябваше да плащат за лицензи – „напредъкът в LLM индустрията ще се забави, но в средносрочен план бихме все още се оказват с изключително способни модели” (Rasenberger добавя, че ChatGPT и други ще се сблъскат с ограничения за това как използват защитени с авторски права данни: те например няма да могат да предоставят текст в стила на определен автор.)

Междувременно за вярващите в изкуствения интелект оправданието може да дойде под формата на пускане на високопоставен продукт, базиран на изкуствен интелект. Hassabis от Google DeepMind казва, че до няколко години ще има лекарства, създадени от AI, в клинични изпитвания. (Отговорът на Маркъс: „Въпросът е дали работят.“) 

Ако историята е някакво ръководство, реабилитацията за всяка страна ще бъде само частична. Най-вероятно разговорът ще продължи. AI ще бъде вграден в много инструменти зад кулисите, които приемаме за даденост. Рат

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!