Световни новини без цензура!
Парадоксът в сърцето на делото на Илон Мъск за OpenAI
Снимка: nytimes.com
New York Times | 2024-03-02 | 21:25:05

Парадоксът в сърцето на делото на Илон Мъск за OpenAI

Би било лесно да се отхвърли делото на Илон Мъск срещу OpenAI като случай на кисело грозде.

Mr. Мъск съди OpenAI тази седмица, обвинявайки компанията в нарушаване на условията на учредителното споразумение и нарушаване на основополагащите принципи. Според него OpenAI е създадена като организация с нестопанска цел, която ще изгради мощен ИИ. системи за доброто на човечеството и предоставя своите изследвания свободно на обществеността. Но г-н Мъск твърди, че OpenAI е нарушила това обещание, като е основала дъщерно дружество с печалба, което е поело милиарди долари инвестиции от Microsoft.

Говорителка на OpenAI отказа да коментира костюмът. В бележка, изпратена до служителите в петък, Джейсън Куон, главен стратегически директор на компанията, отхвърли твърденията на г-н Мъск и каза: „Вярваме, че твърденията в този иск може да произтичат от съжаленията на Илон, че не е участвал в компанията днес“, според към копие от бележката, която прегледах.

На едно ниво, съдебният процес мирише на лично говеждо месо. Г-н Мъск, който основа OpenAI през 2015 г. заедно с група други технологични лидери и осигури голяма част от първоначалното й финансиране, но напусна през 2018 г. поради спорове с ръководството, негодува, че е оставен настрани в разговорите за ИИ. Неговият собствен ИИ проектите не са получили почти толкова сцепление, колкото ChatGPT, водещият чатбот на OpenAI. И спорът между г-н Мъск и Сам Алтман, главен изпълнителен директор на OpenAI, е добре документиран.

дефинира A.G.I. като „еквивалент на среден човек, който бихте могли да наемете като колега“, докато самият OpenAI определя A.G.I. като „високо автономна система, която превъзхожда хората в повечето икономически ценни дейности.“

Повечето лидери на ИИ. компании твърдят, че не само A.G.I. възможност за застрояване, но и че предстои. Демис Хасабис, главен изпълнителен директор на Google DeepMind, ми каза в скорошно подкаст интервю, че според него A.G.I. може да пристигне веднага след 2030 г. Г-н Алтман каза, че A.G.I. може да са само след четири или пет години.

Изграждане на A.G.I. е изричната цел на OpenAI и има много причини да иска да стигне дотам преди всеки друг. Истински A.G.I. ще бъде невероятно ценен ресурс, способен да автоматизира огромни части от човешкия труд и да направи купища пари за своите създатели. Това е също вид лъскава, дръзка цел, която инвеститорите обичат да финансират, и която помага на ИИ. лабораториите набират топ инженери и изследователи.

Но A.G.I. също може да бъде опасно, ако е в състояние да надхитри хората или ако стане измамно или несъответстващо на човешките ценности. Хората, които започнаха OpenAI, включително г-н Мъск, се притесняваха, че A.G.I. би било твърде мощно, за да бъде притежавано от едно цяло, и че ако някога се доближат до изграждането на такова, ще трябва да променят контролната структура около него, за да му попречат да нанася вреда или да концентрира твърде много богатство и власт в ръцете на една компания.

Бордът на OpenAI може да реши да направи каквото поиска, за да гарантира, че A.G.I. облагодетелства цялото човечество. Това може да означава много неща, включително отваряне на технологията или пълното й изключване.

Повечето ИИ. коментаторите вярват, че днешният авангарден ИИ. моделите не се квалифицират като A.G.I., защото им липсват сложни умения за разсъждение и често допускат груби грешки.

Но в правната си документация г-н Мъск излага необичаен аргумент. Той твърди, че OpenAI вече е постигнал A.G.I. със своя езиков модел GPT-4, който беше пуснат миналата година, и че бъдещата технология от компанията още по-ясно ще се квалифицира като A.G.I.

„Относно информацията и вярата, GPT -4 е A.G.I. алгоритъм и следователно изрично извън обхвата на изключителния лиценз на Microsoft от септември 2020 г. с OpenAI“, се казва в жалбата.

„Искрите на A.G.I.“ документ от изследователски екип на Microsoft миналата година, който твърди, че GPT-4 демонстрира ранни намеци за обща интелигентност, сред които признаци на разсъждение на човешко ниво.

Но оплакването също отбелязва, че бордът на OpenAI едва ли ще реши, че неговият A.I. системите всъщност се квалифицират като A.G.I., защото веднага след като го направят, трябва да направят големи промени в начина, по който внедряват и печелят от технологията.

проследяване на съмнителни съдебни спорове, лесно е да поставите под въпрос мотивите на г-н Мъск тук. И като ръководител на конкурентен A.I. стартиране, не е изненадващо, че той би искал да обвърже OpenAI в объркани съдебни спорове. Но делото му сочи истинска главоблъсканица за OpenAI.

Както своите конкуренти, OpenAI силно иска да бъде възприеман като лидер в надпреварата за изграждане на A.G.I и има личен интерес да убеди инвеститори, бизнес партньори и обществеността, че нейните системи се подобряват с главоломна скорост.

Но поради условията на сделката с Microsoft, инвеститорите и ръководителите на OpenAI може да не иска да признае, че неговата технология действително се квалифицира като A.G.I., ако и когато наистина го прави.

Това постави г-н Мъск в странната позиция да поиска от журито вземете решение за това какво представлява A.G.I. и решете дали технологията на OpenAI е достигнала прага.

сравнете го с „да съдите бившата си, защото тя е ремонтирала къщата след развода ви“ — това бързо ще бъде отхвърлено.

Но дори и да бъде отхвърлено, делото на г-н Мъск насочва към важни въпроси: Кой може да реши кога нещо се квалифицира като A.G.I.? Дали технологичните компании преувеличават или пренебрегват (или и двете), когато става въпрос да опишат колко способни са техните системи? И какви стимули се крият зад различни твърдения за това колко близо до или далеч от A.G.I. може да сме?

Съдебен иск от милиардер, който таи злоба, вероятно не е правилният начин за разрешаване на тези въпроси. Но е добре да ги попитате, особено като A.I. прогресът продължава да се ускорява напред.

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!