Световни новини без цензура!
Генеративните модели на AI са квалифицирани в изкуството на глупостите
Снимка: ft.com
Financial Times | 2025-05-23 | 07:12:12

Генеративните модели на AI са квалифицирани в изкуството на глупостите

лъжите не са най -големият враг на истината, според философа Хари Франкфурт. Глупостите са по -лоши. 

Както той обясни през (1986), лъжец и касиер на истината играят една и съща игра, само от противоположните страни. Всеки отговаря на фактите, тъй като ги разбира и или приема или отхвърля авторитета на истината. Но един глупост игнорира изцяло тези искания. "Той не отхвърля авторитета на истината, както прави лъжецът, и се противопостави на себе си. Той изобщо не му обръща внимание. Такъв човек иска да убеди другите, независимо от фактите.

За съжаление Франкфурт почина през 2023 г., само няколко месеца след освобождаването на Chatgpt. Но четенето на неговото есе в ерата на генеративния изкуствен интелект предизвиква много познато познание. В няколко отношения есето на Франкфурт добре описва продукцията на модели с голям език с активиран AI. Те не се занимават с истината, защото нямат представа за нея. Те действат чрез статистическа корелация, а не емпирично наблюдение.

„Най -голямата им сила, но и най -голямата им опасност, е тяхната способност да звучат авторитетно по почти всяка тема, независимо от фактическата точност. С други думи, тяхната суперсила е тяхната свръхчовешка способност за глупости“, написаха Карл Бергстром и Йевин Уест. Двамата професори на Университета на Вашингтон провеждат онлайн курс-модерни оракули или глупости машини? - Проверка на тези модели. Други са преименували продукцията на машините като ботшит.

Една от най-известните и неспокойни, но понякога интересно творчески, чертите на LLMS са тяхната „халюцинация“ на факти-или просто създаване на неща. Някои изследователи твърдят, че това е присъща характеристика на вероятностните модели, а не грешка, която може да бъде отстранена. Но компаниите на AI се опитват да решат този проблем, като подобряват качеството на данните, прецизират своите модели и изграждат системи за проверка и проверка на фактите. 

Изглежда, че те имат някакъв път, но като се има предвид, че този месец е адвокат за антропик, казал на калифорнийския съд, че тяхната адвокатска кантора сама по себе си неволно е представила неправилно цитиране, халюцинирано от Клоуд на компанията AI. Тъй като чатботът на Google знамена на потребителите: „Близнаците могат да правят грешки, включително за хората, така че да го проверят два пъти.“ Това не спря Google от тази седмица да разгърне „AI режим“ на всичките му основни услуги в САЩ. 

Начините, по които тези компании се опитват да подобрят своите модели, включително укрепване на обучението от човешка обратна връзка, самият рискува да въведе пристрастия, изкривявания и недекларирани оценки на стойността. Както FT показа, AI чатботите от Openai, Anthropic, Google, Meta, XAI и Deepseek описват качествата на главните изпълнителни директори на собствените си компании и тези на съперниците много различно. Грок на Елон Мъск също популяризира мемовете за „бял ​​геноцид“ в Южна Африка в отговор на изцяло несвързани подкани. Xai заяви, че е поправил проблема, който обвини в „неоторизирана модификация“.

Такива модели създават нова, още по -лоша категория на потенциалната вреда - или „небрежна реч“, според Сандра Уахтер, Брент Мителщат и Крис Ръсел, в документ от Оксфордския интернет институт. Според тях небрежната реч може да причини нематериална, дългосрочна и кумулативна вреда. Това е като „невидими глупости“, което прави обществото по -тъпо, казва ми Уахтер.

поне с политик или човек по продажбите обикновено можем да разберем мотивацията им. Но чатботите нямат интензивност и са оптимизирани за правдоподобност и ангажираност, а не за истинност. Те ще измислят факти без никаква цел. Те могат да замърсяват базата от знания на човечеството по непостижими начини.

Интригуващият въпрос е дали AI модели могат да бъдат проектирани за по -висока истинност. Ще има ли търсене на пазара за тях? Или разработчиците на модели трябва да бъдат принудени да спазват по -високите стандарти за истина, както се прилагат например за рекламодатели, адвокати и лекари? Wachter предполага, че разработването на по -истински модели ще отнеме време, пари и ресурси, които настоящите итерации са предназначени да спестят. „Това е като да искаш кола да бъде самолет. Можете да избутате кола от скала, но няма да се противопостави на гравитацията“, казва тя. 

Всичко казано, генеративните модели на ИИ все още могат да бъдат полезни и ценни. Много доходоносни бизнес - и политически - са изградени на глупости. Подходящо използван, генеративен AI може да бъде разгърнат за безброй случаи на използване на бизнеса. Но това е заблудено и опасно, да се сбърка тези модели за машини за истината. 

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!