Световни новини без цензура!
AI не е готов за праймтайм
Снимка: cnn.com
CNN News | 2024-03-10 | 15:20:28

AI не е готов за праймтайм

AI инструменти като ChatGPT станаха мейнстрийм и компаниите, които стоят зад технологиите, влагат милиарди долари в залога, че ще променят начина, по който живеем и работим.

Но успоредно с това обещание идва постоянен поток от тревожни заглавия, някои подчертаващи потенциала на AI да генерира пристрастия или неточности, когато отговаря на нашите въпроси или команди. Твърди се, че генериращите AI инструменти, включително ChatGPT, нарушават авторските права. Някои, обезпокоително, са били използвани за генериране на интимни изображения без съгласие.

Съвсем наскоро концепцията за „deepfakes“ попадна в светлината на прожекторите, когато порнографски, генерирани от AI изображения на Тейлър Суифт се разпространиха в социалните медии, подчертавайки вредния потенциал, породен от масовата технология за изкуствен интелект.

Президентът Джо Байдън призова Конгреса по време на обръщението си за съюза през 2024 г. да приеме законодателство за регулиране на изкуствения интелект, включително забрана на „имитиране на AI глас и други“. Той каза, че законодателите трябва да „впрегнат обещанието на AI и да ни защитят от неговата опасност“, предупреждавайки за рисковете, които технологията крие за американците, ако не бъде проверена.

Неговото изявление последва неотдавнашна фалшива кампания за автоматично обаждане, която имитира гласа му и е насочена към хиляди гласоподаватели на първичните избори в Ню Хемпшир в това, което властите описаха като опит за намеса в изборите с AI. Въпреки че експертите по дезинформация предупреждават за заплахите на ИИ за социологическите проучвания и публичния дискурс, малцина очакват Конгресът да приеме законодателство, овладяващо индустрията на ИИ по време на разногласна изборна година.

Това не спира големите технологични компании и фирмите за изкуствен интелект, които продължават да привличат потребителите и бизнеса към нови функции и възможности.

Съвсем наскоро създателят на ChatGPT OpenAI представи нов AI модел, наречен Sora, за който твърди, че може да създава „реалистични“ и „въображаеми“ 60-секундни видеоклипове от бързи текстови подкани. Microsoft добави своя AI помощник, Copilot, който работи на технологията, която е в основата на ChatGPT, към своя пакет от продукти, включително Word, PowerPoint, Teams и Outlook, софтуер, който много фирми използват по света. И Google представи Gemini, AI chatbot, който започна да заменя функцията Google Assistant на някои устройства с Android.

Загрижени експерти

Изследователи на изкуствен интелект, професори и правни експерти са загрижени за масовото приемане на AI, преди регулаторите да имат способността или желанието да го овладеят. Стотици от тези експерти подписаха писмо тази седмица, изисквайки от компаниите за AI да направят промени в политиката и да се съгласят да се съобразяват с независими оценки за съображения за безопасност и отчетност.

„Генеративните AI компании трябва да избягват да повтарят грешките на социалните медийни платформи, много от които ефективно забраниха видове изследвания, насочени към търсене на отговорност, със заплахата от правни действия, писма за прекратяване и отказ или други методи за налагане на смразяващи ефекти за изследване“, се казва в писмото.

Добавя се, че някои генеративни AI компании са спрели акаунти на изследователи и са променили условията си на обслужване, за да възпрат някои видове оценка, отбелязвайки, че „лишаването на правата на независими изследователи не е в собствените интереси на AI компаниите“.

Писмото дойде по-малко от година, след като някои от най-големите имена в технологиите, включително Илон Мъск, призоваха лабораториите за изкуствен интелект да спрат обучението на най-мощните AI системи за поне шест месеца, цитирайки „огромни рискове за обществото и човечеството. ” (Паузата не се случи).

„Най-тревожното нещо, което виждам около AI, е продължаващата пропаст между обещанието и практиката“, каза Суреш Венкатасубраманиан, компютърен учен и професор в университета Браун, пред CNN. „Компаниите продължават да обещават да доставят луната, когато става въпрос за AI и все още да осигуряват мухлясало зелено сирене.“

Венкатасубраманиан, който беше назначен в Службата за политика в областта на науката и технологиите на Белия дом през 2021 г., за да помага в съветите относно политиката за ИИ, е сред експертите, подписали последното писмо.

„Достъпът до големи генеративни AI системи в широка употреба се контролира от няколко компании“, каза Венкатасубраманиан, отбелязвайки, че тези системи лесно правят грешки и могат да генерират вредно съдържание. „Без способността за независима оценка на AI и поради страха от правни заплахи, за изследователите ще продължи да бъде много трудно да вършат важната работа по оценка на безопасността, сигурността и надеждността на генеративните системи за ИИ, така че политиците да бъдат добре информирани, за да предприемат действия.

Той каза, че очаква политиците и работата, извършвана от Службата за управление и бюджет на Белия дом, която наблюдава визията на президента Байдън в цялата изпълнителна власт, за изясняване и определяне на „правила на движение“.

Арвинд Нараянан, професор по компютърни науки в Принстън, който също подписа писмото, се съгласи, като каза на CNN, че е особено загрижен за темпото, с което AI се ускорява; скорост, много по-висока от способността ни да се адаптираме към нея.

„Технологичните компании забогатяха от бизнес модел, при който извличат печалби от предимствата на новите технологии, докато разходите за тези технологии се поемат от обществото“, каза Нараянан, признавайки, че това е било така много преди генеративния ИИ.

„Необходими са предпазни огради за конкретни вреди, но те няма да коригират основния бизнес модел“, добави той.

Той вярва, че може да са необходими и по-смели реформи, като например данъчното облагане на компаниите с ИИ, за да финансират мрежите за социална сигурност.

Засега сегашните генеративни AI потребители трябва да разберат ограниченията и предизвикателствата при използването на продукти, които все още са доста далеч от мястото, където трябва да бъдат.

Питане на AI за AI

Когато CNN попита ChatGPT дали той (и други генеративни AI инструменти) са готови за масово приемане, той отговори: „Да“. Но добави предупреждение: „Продължаващите усилия за справяне с етичните, обществените и регулаторните предизвикателства са от решаващо значение за отговорното и полезно масово осиновяване.“

Инструментът Gemini AI на Google – по-рано наречен Bard – отговори по подобен начин, но с малко повече предпазливост: „Генеративният AI има момент, но има смесени сигнали за масово приемане.“

„Въпреки широката употреба, проучванията все още не са показали значително повишаване на производителността“, пише Gemini . „Служителите може да се нуждаят от повече обучение, за да използват напълно генеративния AI.“

Gemini също кимна към етичните въпроси: „Пристрастията в данните за обучението могат да доведат до пристрастни резултати от AI“, пише той. „[И] има опасения относно отговорната употреба и отчетност.“

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!