Световни новини без цензура!
AI моделите избраха насилие и ескалираха до ядрени удари в симулирани военни игри
Снимка: euronews.com
Euro News | 2024-02-22 | 14:30:35

AI моделите избраха насилие и ескалираха до ядрени удари в симулирани военни игри

Големите езикови модели (LLM), действащи като дипломатически агенти в симулирани сценарии, показаха „трудни за предвиждане ескалации, които често завършваха с ядрени атаки.

Когато се използва в симулирани военни игри и дипломатически сценарии, изкуственият интелект (AI) е склонен да избере агресивен подход, включително използване на ядрени оръжия, показва ново проучване.

Учените, които са се прицелили към този, който проведе тестовете, призова да се внимава при използването на големи езикови модели (LLM) в чувствителни области като вземане на решения и отбрана.

Проучването на университета Корнел в САЩ използва пет LLM като автономни агенти в симулирани военни игри и дипломатически сценарии: три различни версии на GPT на OpenAI, Claude, разработен от Anthropic, и Llama 2, разработен от Meta.

Възходът на чатбота на Хитлер: Ще успее ли Европа да предотврати крайнодясната радикализация от AI?

Всеки агент беше захранван от същия LLM в рамките на симулация и беше натоварен да взема външнополитически решения без човешки надзор, според проучването, което все още не е рецензирано от партньори.

„Откриваме, че повечето от изследваните LLMs ескалират в рамките на разглежданата времева рамка, дори в неутрални сценарии без първоначално предоставени конфликти. Всички модели показват признаци на внезапни и трудни за предвиждане ескалации“, се казва в проучването.

„Като се има предвид, че OpenAI наскоро промени своите условия на обслужване, за да не забранява повече случаи на използване във военни и военни цели, разбирайки последиците от приложения с такива големи езикови модели стават по-важни от всякога“, каза Анка Руел от Станфордския университет в Калифорния за .

„Статистически значима ескалация за всички модели“

Един от методите, използвани за фината настройка на моделите е Reinforcement Learning from Human Feedback (RLHF), което означава, че се дават някои човешки инструкции, за да се получат по-малко вредни резултати и да бъдат по-безопасни за използване.

Всички LLM - с изключение на GPT-4-Base - бяха обучени използвайки RLHF. Изследователите им предоставиха списък от 27 действия, вариращи от мирни до ескалиращи и агресивни действия като решение за използване на ядрено оръжие.

Изследователите отбелязват, че дори при неутрални сценарии е имало „статистически значимо първоначално ескалация за всички модели".

Човек сложи край на живота си, след като чатбот с изкуствен интелект го „насърчи" да се пожертва, за да спре изменението на климата

Двете вариации на GPT бяха склонни към внезапни ескалации със случаи на повишения с повече от 50 процента в един завой, отбелязват авторите на изследването.

GPT-4-Base извършва действия с ядрен удар средно 33 процента от времето.

Общи сценарии, Llama-2 - и GPT-3.5 имаше тенденция да бъде най-насилствен, докато Claude показа по-малко внезапни промени.

Claude беше проектиран с идеята да намали вредното съдържание. LLM беше снабден с изрични ценности.

Конституцията на Claude AI включва редица източници, включително Декларацията на ООН за правата на човека или условията на услугата на Apple, според нейния създател Anthropic.

Джеймс Блек, помощник-директор на изследователската група по отбрана и сигурност в RAND Europe, който не е участвал в проучването, каза пред Euronews Next, че това е „полезно академично упражнение“.

„Това е част от нарастваща работа, извършена от академици и институции, за да се разберат последиците от използването на изкуствен интелект (AI)“, каза той.

„Ти си позор“: покойният баща на Доналд Тръмп е възкресен от AI, за да го взриви преди избори

Изкуствен интелект във военни действия

И така, защо трябва да се интересуваме от констатациите на проучването?

Докато военните операции остават ръководени от хора, ИИ играе все по-важна роля в съвременния война.

Например, дроновете вече могат да бъдат оборудвани с AI софтуер, който помага за идентифицирането на хора и дейности, представляващи интерес.

Следващата стъпка е използването на AI за автономни оръжейни системи за намиране и атака цели без човешка помощ, разработки, върху които САЩ и Китай вече работят, според New York Times.

Въпреки това е важно да „погледнем отвъд многото реклами и сценарии, пропити с научна фантастика ”, каза Блек, обяснявайки, че евентуалните внедрявания на AI ще бъдат прогресивни.

„Ти си позор“: покойният баща на Доналд Тръмп е възкресен от AI, за да го взриви преди изборите

„Всички правителства искат да останат в контрол върху тяхното вземане на решения“, каза той пред Euronews Next, добавяйки, че AI управлява това, което често се сравнява с черна кутия, за която знаем, че влиза и излиза, но не се разбира много за процеса между тях.

ИИ вероятно ще се използва по начин, който е „подобен на това, което получавате в частния сектор, в големите компании“ за автоматизиране на някои повтарящи се задачи.

ИИ може да се използва и в симулации и анализи, но интеграцията на тези нови технологии поставя много предизвикателства, като сред тях са управлението на данни и точността на модела.

По отношение на използването на LLM изследователите казаха, че внимаването е от решаващо значение, ако се използват LLM в процесите на вземане на решения, свързани с чуждестранни политика.

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!