Световни новини без цензура!
Главният изпълнителен директор на OpenAI предупреждава, че „обществените несъответствия“ могат да направят изкуствения интелект опасен
Снимка: apnews.com
AP News | 2024-02-13 | 08:40:20

Главният изпълнителен директор на OpenAI предупреждава, че „обществените несъответствия“ могат да направят изкуствения интелект опасен

ДУБАЙ, Обединени арабски емирства (AP) — Главният изпълнителен директор на създателя на ChatGPT OpenAI каза във вторник, че опасностите, които го държат буден през нощта по отношение на изкуствения интелект, са „много фините обществени несъответствия“, които биха могли да накарат системите да сеят хаос.

Сам Алтман, говорейки на Световната среща на върха на правителството в Дубай чрез видеообаждане, повтори призива си за създаване на орган като Международната агенция за атомна енергия, който да наблюдава ИИ, който вероятно напредва по-бързо, отколкото светът очаква.

„Вътре има някои неща, които е лесно да си представите, когато нещата наистина се объркват. И не се интересувам толкова от роботите-убийци, които се разхождат по улицата, където нещата се объркат“, каза Алтман. „Много повече се интересувам от много фините обществени несъответствия, при които просто имаме тези системи в обществото и без конкретно лошо намерение нещата просто се объркват ужасно.“

Въпреки това Алтман подчерта, че AI индустрията, като OpenAI, не трябва да бъде на мястото на водача, когато става въпрос за създаване на регулации, управляващи индустрията.

„Все още сме в етап на много дискусии. Знаете ли, всички по света провеждат конференция. Всеки има идея, политически документ и това е ОК“, каза Алтман. „Мисля, че все още сме в момент, в който дебатът е необходим и здравословен, но в някакъв момент през следващите няколко години смятам, че трябва да преминем към план за действие с истинска подкрепа по целия свят.“

OpenAI, базирана в Сан Франциско стартираща компания за изкуствен интелект, е един от лидерите в областта. Microsoft инвестира около 1 милиард долара в OpenAI. Асошиейтед прес подписа споразумение с OpenAI за достъп до нейния архив с новини. Междувременно The New York Times съди OpenAI и Microsoft за използването на неговите истории без разрешение за обучение на чатботовете на OpenAI.

Успехът на OpenAI направи Altman публичното лице за бързата комерсиализация на генеративния AI – и страховете относно какво може да дойде от новата технология.

ОАЕ, автократична федерация от седем наследствено управлявани шейхства, има признаци на този риск. Речта остава строго контролирана. Тези ограничения засягат потока от точна информация — същите детайли, на които програмите за изкуствен интелект като ChatGPT разчитат като системи за машинно обучение, за да предоставят своите отговори на потребителите.

Емирствата имат и фирмата G42 в Абу Даби, ръководена от влиятелния съветник по националната сигурност на страната. G42 разполага с това, което експертите предполагат, че е водещият в света модел на изкуствен интелект на арабски език. Компанията е изправена пред обвинения в шпиониране за връзките си с приложение за мобилен телефон, идентифицирано като шпионски софтуер. Освен това е изправена пред твърдения, че може да е събрала генетичен материал тайно от американци за китайското правителство.

G42 заяви, че ще прекъсне връзките си с китайски доставчици заради опасенията на САЩ. Въпреки това дискусията с Алтман, модерирана от държавния министър на ОАЕ за изкуствения интелект Омар ал-Олама, не засегна нито едно от местните опасения.

От своя страна Алтман каза, че е окуражен да види, че училищата, в които учителите се страхуваха, че учениците ще използват AI за писане на доклади, сега приемат технологията като решаваща за бъдещето. Но той добави, че AI остава в начален стадий.

„Мисля, че причината е, че сегашната технология, с която разполагаме, е като... този първи мобилен телефон с черно-бял екран“, каза Алтман. „Така че ни дайте малко време. Но ще кажа, че мисля, че след още няколко години ще бъде много по-добре, отколкото е сега. И след десетилетие трябва да е доста забележително.“

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!