Световни новини без цензура!
Колко фаталистични трябва да бъдем по отношение на изкуствения интелект?
Снимка: ft.com
Financial Times | 2024-02-22 | 14:24:34

Колко фаталистични трябва да бъдем по отношение на изкуствения интелект?

Дълга поредица от престижни лектори, вариращи от сър Уинстън Чърчил до Дейм Айрис Мърдок, изнесоха годишната лекция по римски език в Оксфордския университет, като се започне с Уилям Гладстон през 1892 г.

Но рядко, ако изобщо, лектор може да е направил толкова завладяващ коментар, както направи Джефри Хинтън тази седмица. Речта на водещия изследовател на изкуствения интелект, провокативно озаглавена, заключава: почти сигурно, да. Но Хинтън отхвърли идеята, често срещана в някои технологични кръгове на Западния бряг, че хуманизмът е някак си „расистки“ в продължаването на отстояването на примата на собствения ни вид над електронните форми на интелект. „Ние, хората, трябва да положим всички усилия да останем наоколо“, пошегува се той.

Британско-канадският компютърен учен стана известен като един от пионерите на техниките за „задълбочено обучение“, които направиха революция в ИИ, позволявайки създаването на генериращи AI чатботове, като ChatGPT. През по-голямата част от кариерата си в академичните среди и в Google Хинтън вярваше, че ИИ не представлява заплаха за човечеството. Но 76-годишният изследовател казва, че миналата година е преживял „богоявление“ и е напуснал Google, за да говори открито за рисковете.

Хинтън осъзна, че все по-мощните модели на ИИ могат да действат като „умове на кошери“, споделяйки какво са научили помежду си, което им дава огромно предимство пред хората. „Това ме накара да осъзная, че те може да са по-добра форма на интелигентност“, ми каза той в интервю преди лекцията си.

Все още изглежда фантастично, че редове софтуерен код могат да застрашат човечеството. Но Хинтън вижда два основни риска. Първият е, че лошите хора ще поставят на машините лоши цели и ще ги използват за лоши цели, като масова дезинформация, биотероризъм, кибервойна и роботи убийци. По-специално моделите на изкуствен интелект с отворен код, като например Llama на Meta, предоставят огромни възможности в ръцете на лоши хора. „Мисля, че е пълна лудост тези големи модели с отворен код“, казва той.

Но той прогнозира, че моделите могат също така да се „развият“ по опасни начини, развивайки преднамереност за контрол. „Ако съветвах правителства, бих казал, че има 10 процента шанс тези неща да унищожат човечеството през следващите 20 години. Мисля, че това би било разумно число“, казва той.

Аргументите на Хинтън са атакувани на два фронта. Първо, някои изследователи твърдят, че генеративните AI модели не са нищо повече от скъпи статистически трикове и че екзистенциалните рискове от технологията са „фантастика на научната фантастика“.

Изтъкнатият учен Ноам Чомски твърди, че хората са благословени с генетично инсталирана „операционна система“, която ни помага да разбираме езика, а това липсва в машините. Но Хинтън твърди, че това са глупости, като се има предвид, че най-новият модел GPT-4 на OpenAI може да учи език и да проявява емпатия, разсъждения и сарказъм. „Правя много силно твърдение, че тези модели наистина разбират“, каза той в лекцията си.

Другата линия на атака идва от Yann LeCun, главен AI учен в Meta. LeCun, поддръжник на моделите с отворен код, твърди, че сегашните ни AI системи са по-глупави от котките и е „абсурдно“ да вярваме, че те представляват заплаха за хората, било то по дизайн или по подразбиране. „Мисля, че Ян е малко наивен. Бъдещето на човечеството се основава на това“, отговаря Хинтън.

Спокойните и премерени тонове на изказването на Хинтън са в ярък контраст с мрачния фатализъм на неговото послание. Може ли да се направи нещо, за да се подобрят шансовете на човечеството? „Иска ми се да знаех“, отговаря той. „Аз не проповядвам конкретно решение, аз просто проповядвам проблема.“

Той беше насърчен, че Обединеното кралство беше домакин на среща на върха за безопасността на изкуствения интелект в Блечли Парк миналата година, стимулирайки международен политически дебат. Но оттогава, казва той, британското правителство „основно е решило, че печалбите са преди сигурността“. Както при изменението на климата, той предполага, че сериозна промяна в политиката ще се случи само след като бъде постигнат научен консенсус. И той приема, че днес не съществува. Позовавайки се на физика Макс Планк, Хинтън мрачно добавя: „Науката напредва едно погребение наведнъж.“

Той казва, че е окуражен, че по-младото поколение компютърни учени поема сериозно екзистенциалния риск и предполага, че 30 процента от Изследователите на AI трябва да се посветят на проблемите на безопасността, в сравнение с около 1 процент днес.

Трябва да бъдем инстинктивно предпазливи към изследователите, които заключават, че са необходими повече изследвания. Но в този случай, предвид залога и несигурността, по-добре да побързаме. Това, което е изключително в дебата за риска от ИИ, е широкият спектър от гледни точки. Трябва да намерим нов консенсус.


Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!