Световни новини без цензура!
„Обществените несъответствия“ могат да направят ИИ опасен, предупреждава главният изпълнителен директор на OpenAI
Снимка: globalnews.ca
Global News | 2024-02-13 | 14:57:19

„Обществените несъответствия“ могат да направят ИИ опасен, предупреждава главният изпълнителен директор на OpenAI

Главният изпълнителен директор на създателя на ChatGPT OpenAI каза във вторник, че опасностите, които го държат буден през нощта по отношение на изкуствения интелект, са „много фините обществени несъответствия“, които биха могли системите сеят хаос.

Сам Алтман, говорейки на срещата на върха на световните правителства в Дубай чрез видеообаждане, повтори призива си за създаване на орган като Международната агенция за атомна енергия, който да наблюдава ИИ, който вероятно напредва по-бързо от светът очаква.

„Има някои неща, които са лесни за представяне, когато нещата наистина се объркват. И не се интересувам толкова от роботите-убийци, които се разхождат по улицата, където нещата се объркат“, каза Алтман. „Аз съм много по-интересен от много фините обществени несъответствия, при които просто имаме тези системи в обществото и без конкретно лошо намерение, нещата просто се объркват ужасно.“

Олтман обаче подчерта, че AI индустрията, като OpenAI, не трябва да бъде водеща, когато става въпрос за създаване на регулации, управляващи индустрията.

„Все още сме в етап на много дискусии. Знаете ли, всички по света провеждат конференция. Всеки има идея, политически документ и това е ОК“, каза Алтман. „Мисля, че все още сме в момент, в който дебатът е необходим и здравословен, но в някакъв момент през следващите няколко години смятам, че трябва да преминем към план за действие с истинска подкрепа по целия свят.“

Вземете най-новите национални новини. Изпраща се на вашия имейл, всеки ден.

OpenAI, базирана в Сан Франциско стартираща компания за изкуствен интелект, е един от лидерите в областта. Microsoft инвестира около 1 милиард щатски долара в OpenAI. Асошиейтед прес подписа споразумение с OpenAI за достъп до нейния архив с новини. Междувременно The New York Times съди OpenAI и Microsoft за използването на неговите истории без разрешение за обучение на чатботовете на OpenAI.

Успехът на OpenAI направи Altman публичното лице за бързата комерсиализация на генеративния AI – и страховете относно какво може да дойде от новата технология.

ОАЕ, автократична федерация от седем наследствено управлявани шейхства, има признаци на този риск. Речта остава строго контролирана. Тези ограничения засягат потока от точна информация — същите детайли, на които програмите за изкуствен интелект като ChatGPT разчитат като системи за машинно обучение, за да предоставят своите отговори на потребителите.

Emirates също има фирма G42 от Абу Даби, контролирана от мощен съветник по националната сигурност на страната. G42 разполага с това, което експертите предполагат, че е водещият в света модел на изкуствен интелект на арабски език. Компанията е изправена пред обвинения в шпиониране за връзките си с приложение за мобилен телефон, идентифицирано като шпионски софтуер. Освен това е изправена пред твърдения, че може да е събрала генетичен материал тайно от американци за китайското правителство.

G42 заяви, че ще прекъсне връзките си с китайски доставчици заради опасенията на САЩ. Въпреки това дискусията с Алтман, модерирана от държавния министър на ОАЕ за изкуствения интелект Омар ал-Олама, не засегна нито едно от местните опасения.

От своя страна Алтман каза, че е окуражен да види, че училищата , където учителите се страхуваха, че учениците ще използват AI за писане на статии, сега приемат технологията като решаваща за бъдещето. Но той добави, че изкуственият интелект остава в начален стадий.

„Мисля, че причината е настоящата технология, която имаме, е като … този първи мобилен телефон с черно-бял екран“, каза Алтман. „Така че ни дайте малко време. Но ще кажа, че мисля, че след още няколко години ще бъде много по-добре, отколкото е сега. И след десетилетие трябва да е доста забележително.“

Източник: globalnews.ca


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!