Световни новини без цензура!
Редът на Скарлет Йохансон с изкуствен интелект има ехо от лошите стари времена на Силиконовата долина
Снимка: bbc.com
BBC News | 2024-05-22 | 01:27:24

Редът на Скарлет Йохансон с изкуствен интелект има ехо от лошите стари времена на Силиконовата долина

„Движи се бързо и разбивай нещата“ е мото, което продължава да преследва технологичния сектор, около 20 години след като беше измислено от младия Марк Зукърбърг.

Тези пет думите започнаха да символизират Силиконовата долина в най-лошия й вид - комбинация от безмилостна амбиция и доста спираща дъха арогантност - иновация, насочена към печалба, без страх от последствия.

Бях напомнен за тази фраза тази седмица, когато г-жа Йохансон заяви, че и тя, и нейният агент са отказали тя да бъде гласът на новия продукт за ChatGPT – и след това, когато беше разкрито, така или иначе звучеше точно като нея. OpenAI отрича това да е умишлена имитация.

Това е класическа илюстрация на точно това, от което толкова се тревожат творческите индустрии - да бъдат имитирани и в крайна сметка заменени от изкуствен интелект.

Миналата седмица Sony Music, най-големият музикален издател в света, до Google, Microsoft и OpenAI с искане да знае дали някои от песните на неговите изпълнители са били използвани за разработват AI системи, заявявайки, че нямат разрешение за това.

Във всичко това има ехо от старите мачо гиганти от Силиконовата долина. Търсене на прошка, а не на разрешение като неофициален бизнес план.

Но технологичните фирми от 2024 г. са изключително склонни да се дистанцират от тази репутация.

OpenAI не е оформен от този калъп. Първоначално е създаден като организация с нестопанска цел, която ще инвестира всички допълнителни печалби, инвестирани обратно в бизнеса.

През 2019 г., когато сформира ориентирано към печалбите подразделение, те казаха, че печалбата ще бъде ръководена от нестопанската страна и ще има ограничение наложени върху възвръщаемостта, която инвеститорите могат да спечелят.

Не всички бяха доволни от тази промяна - каза се, че тя е била ключова причина зад решението на първоначалния съосновател Илон Мъск да си тръгне.

Когато изпълнителният директор на OpenAI Сам Алтман беше внезапно уволнен от собствения си борд в края на миналата година, една от теориите беше, че той иска да се отдалечи още повече от първоначалната мисия. Никога не разбрахме със сигурност.

Но дори ако OpenAI е станал по-ориентиран към печалбите, той все още трябва да се изправи пред своите отговорности.

В света на правенето на политики почти всички са съгласни, че са необходими ясни граници, за да се поддържат компании като OpenAI в съответствие, преди да се случи бедствие.

Sдосега AI гигантите до голяма степен играят на хартия. На първата в света среща на върха за безопасността на ИИ преди шест месеца куп технологични шефове подписаха доброволен ангажимент за създаване на отговорни, безопасни продукти, които да увеличат максимално ползите от ИИ технологията и да сведат до минимум рисковете.

Тези рискове, първоначално идентифицирани от организаторите на събитието, бяха истински кошмари. Когато попитах тогава за по-приземените заплахи за хората, породени от AI инструменти, които ги дискриминират или ги заместват на работните им места, ми беше доста твърдо казано, че това събиране е посветено на обсъждането само на абсолютните най-лоши сценарии – това беше Терминатор, Съдният ден, AI-goes-rogue-and-destroys-humanity teritorij.

Шест месеца по-късно, когато срещата на върха се събра отново, думата „безопасност ” бяха премахнати изцяло от заглавието на конференцията.

Миналата седмица проект на доклад на правителството на Обединеното кралство от група от 30 независими експерти стигна до заключението, че изкуственият интелект може да генерира биологично оръжие или извършване на сложна кибератака. Вероятността хората да загубят контрол над ИИ е „силно спорна“, се казва в него. заплахата от AI инструментите беше, че те ще заменят работни места или не могат да разпознаят цветовете на кожата. Експертът по етиката на изкуствения интелект д-р Руман Чоудхури казва, че това са „истинските проблеми“.

Институтът за безопасност на изкуствения интелект отказа да каже дали е тествал за безопасност някой от новите изкуствен интелект продукти, които са пуснати на пазара през последните дни; особено GPT-4o на OpenAI и Project Astra на Google, като и двете са сред най-мощните и усъвършенствани генеративни AI системи, достъпни за обществеността, които съм виждал досега. Междувременно Microsoft представи нов лаптоп, съдържащ AI хардуер – началото на AI инструментите, физически вградени в нашите устройства.

Независимият доклад също така посочва, че има понастоящем няма надежден начин да разберем точно защо AI инструментите генерират резултатите, които правят – дори сред разработчиците – и че установената практика за тестване на безопасността на Red Teaming, при която оценителите умишлено се опитват да накарат AI инструмент да се държи неправилно, няма най-добри практически насоки.

На последващата среща на високо равнище, която се проведе тази седмица, организирана съвместно от Обединеното кралство и Южна Корея в Сеул, фирмите се ангажираха да отложат продукт, ако не отговаря на определени прагове за безопасност - но те няма да бъдат определени до следващото събиране през 2025 г.

Някои се страхуват, че всички тези ангажименти и обещания не отговарят отидете достатъчно далеч.

„Доброволческите споразумения по същество са просто средство за фирмите да отбелязват собствената си домашна работа“, казва Андрю Стрейт, асоцииран директор на института Ada Lovelace, независима изследователска организация. „По същество това не е заместител на правно обвързващи и приложими правила, които са необходими за стимулиране на отговорното развитие на тези технологии.“

OpenAI току-що публикува своя собствена 10-точкова безопасност процес, към който твърди, че се е ангажирал - но един от неговите старши инженери, фокусирани върху безопасността, наскоро подаде оставка, като написа на X, че отделът му е „плавал срещу вятъра“ вътрешно.

„През последните години културата на безопасност и процесите останаха на заден план пред лъскавите продукти," публикува Ян Лейке.

Има, разбира се, други екипи в OpenAI, които продължават да се фокусират върху безопасността и сигурността.

Понастоящем обаче няма официален, независим надзор върху това, което някой от тях всъщност прави.

„Нямаме гаранция, че тези компании спазват ангажиментите си“, казва професор Дам Уенди Хол, един от водещите компютърни учени в Обединеното кралство.

„Как да ги държим отговорни за това, което казват, както правим с фармацевтичните компании или в други сектори, където има висок риск?“

Може също така да открием, че тези могъщи технологични лидери стават по-малко податливи, след като дойде натиск и доброволните споразумения станат малко по-изпълними.

Когато правителството на Обединеното кралство заяви, че иска властта да спре внедряването на функции за сигурност от големите технологични компании, ако има потенциал те да компрометират националната сигурност, Apple заплаши да премахне услугите от Великобритания, описвайки това като от законодателите .

Законодателството премина и досега Apple все още е тук.

Европейският Законът за изкуствения интелект на Съюза току-що беше подписан и е едновременно първият и най-строгият закон в света. Има и строги санкции за фирми, които не ги спазват. Но това създава повече работа за потребителите на ИИ, отколкото самите гиганти на ИИ, казва Надер Хенайн, вицепрезидент анализатор в Gartner.

„Бих казал, че мнозинството [от Разработчиците на изкуствен интелект] надценяват въздействието, което Законът ще има върху тях“, казва той.

Всички компании, използващи инструменти на изкуствен интелект, ще трябва да ги категоризират и да ги оценяват по рисков начин - и фирмите за изкуствен интелект, които са предоставили изкуствения интелект, ще трябва да предоставят достатъчно информация, за да могат да направят това, обяснява той.

Но това не означава, че те са извън куката.

„Трябва да преминем към правна регулация с времето, но не можем да бързаме“, казва проф. Хол. „Установяването на принципи за глобално управление, които всички приемат, е наистина трудно.“

„Също така трябва да се уверим, че това е наистина световно, а не само западния свят и Китай, който ние защитаваме.“

Онези, които са присъствали на срещата на високо равнище за ИИ в Сеул, казват, че се е почувствало полезно. Беше „по-малко наперен“ от Bletchley, но с повече дискусии, каза един присъстващ. Интересното е, че заключителната декларация на събитието е подписана от 27 държави, но не и от Китай, въпреки че имаше лично представители там.

Най-важният въпрос, както винаги , е, че регулирането и политиката се движат много по-бавно от иновациите.

Проф Хол вярва, че „звездите се изравняват“ на правителствени нива. Въпросът е дали технологичните гиганти могат да бъдат убедени да ги изчакат.

е новият дом на уебсайта и приложението за най-добри анализи и експертиза от нашите най-добри журналисти. Под отличителна нова марка ще ви предоставим свежи гледни точки, които предизвикват предположения, и задълбочени доклади за най-големите проблеми, за да ви помогнем да разберете един сложен свят. И ние ще демонстрираме провокиращо размисъл съдържание от BBC Sounds и iPlayer също. Започваме с малко, но мислим мащабно и искаме да знаем какво мислите - можете да ни изпратите отзивите си, като щракнете върху бутона по-долу.

Източник: bbc.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!