Световни новини без цензура!
Бъдещето на AI може да бъде с „отворен код“ или затворен. Технологичните гиганти са разделени, тъй като лобират пред регулаторите
Снимка: independent.co.uk
Independent News | 2023-12-05 | 08:37:06

Бъдещето на AI може да бъде с „отворен код“ или затворен. Технологичните гиганти са разделени, тъй като лобират пред регулаторите

Тези два различни лагера – отвореният и затвореният – не са съгласни относно това дали да изградят AI по начин, който прави основната технология широко достъпна. Безопасността е в основата на дебата, но също така и кой печели от напредъка на AI.

Отворените защитници предпочитат подход, който „не е патентован и затворен“, каза Дарио Гил, старши вицепрезидент на IBM, който ръководи своя изследователски отдел. „Така че не е като нещо, което е затворено в буре и никой не знае какво представляват.“

КАКВО Е ИИ С ОТВОРЕЕН КОРС?

Терминът „отворен код“ идва от десетилетна практика за изграждане на софтуер, при който кодът е безплатен или широко достъпен за всеки, който да го изследва, модифицира и надгражда.

ИИ с отворен код включва повече от код и компютърните учени са на различни мнения да го дефинира в зависимост от това кои компоненти на технологията са публично достъпни и дали има ограничения, ограничаващи използването й. Някои използват отворена наука, за да опишат по-широката философия.

AI Alliance — воден от IBM и Meta и включително Dell, Sony, производителите на чипове AMD и Intel и няколко университета и стартиращи фирми за изкуствен интелект – „се събират, за да артикулират, просто казано, че бъдещето на изкуствения интелект ще бъде изградено фундаментално върху отворения научен обмен на идеи и отворените иновации, включително отворен код и отворени технологии“, каза Гил в интервю за Асошиейтед прес преди разкриването му.

Част от объркването около AI с отворен код е, че въпреки името си OpenAI – компанията зад ChatGPT и генераторът на изображения DALL-E — изгражда AI системи, които определено са затворени.

„За да заявя очевидното, има краткосрочни и търговски стимули срещу отворения код“, каза Иля Суцкевер, главен учен на OpenAI и съосновател, във видео интервю, организирано от Станфордския университет през април. Но има и по-дългосрочно безпокойство, свързано с потенциала за AI система с „умопомрачително мощни“ способности, които биха били твърде опасни, за да бъдат публично достъпни, каза той. източник опасности, Sutskever постулира AI система, която се е научила как да стартира своя собствена биологична лаборатория.

ОПАСНО ЛИ Е?

Дори настоящите модели на изкуствен интелект крият рискове и могат да бъдат използвани например за засилване на кампании за дезинформация, за да осуетят демократичните избори, каза ученият от Калифорнийския университет в Бъркли Дейвид Евън Харис.

“ Отвореният код е наистина страхотен в толкова много измерения на технологиите, но AI е различен, каза Харис.

„Всеки, който е гледал филма „Опенхаймер“, знае това, че когато се правят големи научни открития, има много причини да се замислим колко широко да споделяме подробностите за цялата тази информация по начини които могат да попаднат в грешни ръце“, каза той.

Центърът за хуманни технологии, дългогодишен критик на практиките на социалните медии на Meta, е сред групите, които насочват вниманието към рисковете от отворен код или изтекъл AI модели.

„Докато в момента няма поставени парапети, е напълно безотговорно да се пускат тези модели пред обществеността“, каза Камил Карлтън от групата.

СТРАХ ЛИ Е -МАШЕНСТВАНЕ?

Появи се все по-обществен дебат относно ползите или опасностите от възприемането на подход с отворен код към разработването на ИИ.

Главният учен в областта на ИИ на Meta, Ян Лекун, тази есен се прицели в социалните мрежи медии в OpenAI, Google и стартиращата компания Anthropic за това, което той описа като „мащабно корпоративно лобиране“ за написване на правилата по начин, който е от полза за техните високопроизводителни AI модели и може да концентрира властта си върху развитието на технологията. Трите компании, заедно с ключовия партньор на OpenAI Microsoft, създадоха своя собствена индустриална група, наречена Frontier Model Forum.

LeCun каза в X, бивш Twitter, че се тревожи, че насаждането на страх от колегите учени за ИИ „денят на страшния съд“ сценарии” даваше муниции на тези, които искат да забранят изследванията и разработките с отворен код.

„В бъдеще, в което системите с изкуствен интелект са готови да представляват хранилището на цялото човешко знание и култура, имаме нужда от платформи за да бъдат с отворен код и свободно достъпни, така че всеки да може да допринесе за тях“, пише LeCun. „Отвореността е единственият начин да накараме AI платформите да отразяват цялото човешко знание и култура.“

За IBM, ранен поддръжник на операционната система Linux с отворен код през 90-те години, спорът се влива в много по-дълга конкуренция, която предшества бума на изкуствения интелект.

„Това е нещо като класически подход за улавяне на регулациите, който се опитва да предизвика страхове относно иновациите с отворен код“, каза Крис Падила, който ръководи екипа на IBM по глобалните правителствени въпроси.“ Искам да кажа, че това е моделът на Microsoft от десетилетия, нали? Те винаги са се противопоставяли на програми с отворен код, които могат да се конкурират с Windows или Office. Те прилагат подобен подход тук.“

КАКВО ПРАВЯТ ПРАВИТЕЛСТВАТА?

Беше лесно да се пропусне дебатът за „отворен код“ в дискусията около широкообхватната изпълнителна заповед на президента на САЩ Джо Байдън относно ИИ.

Това е така, защото заповедта на Байдън описва отворени модели с изключително техническото наименование „модели на фундаменти с двойна употреба с широко достъпни тежести“ и казва, че се нуждаят от допълнително проучване. Теглата са числени параметри, които влияят върху представянето на AI модел.

„Когато теглата за модел на основа с двойна употреба са широко достъпни — като например когато са публично публикувани в интернет — може да има значителни ползи за иновациите, но също така и значителни рискове за сигурността, като напр. премахване на предпазните мерки в рамките на модела“, се казва в заповедта на Байдън. Той даде срок на министъра на търговията на САЩ Джина Раймондо до юли да разговаря с експерти и да се върне с препоръки как да управлява потенциалните ползи и рискове.

Европейският съюз има по-малко време да го разбере. В преговорите, които достигат върха си в сряда, длъжностни лица, работещи за финализиране на приемането на водещата в световен мащаб регулация за ИИ, все още обсъждат редица разпоредби, включително една, която може да освободи определени „безплатни компоненти на ИИ с отворен код“ от правила, засягащи търговските модели.

Източник: independent.co.uk


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!