Световни новини без цензура!
Потенциалът на изкуствения интелект за биотероризъм не трябва да се изключва
Снимка: ft.com
Financial Times | 2024-02-07 | 07:12:51

Потенциалът на изкуствения интелект за биотероризъм не трябва да се изключва

Писателят е научен коментатор

Движете се, няма какво да видите тук. Това изглежда беше съобщението от OpenAI миналата седмица за експеримент, за да се види дали неговият усъвършенстван чатбот с изкуствен интелект GPT-4 може да помогне на хора, запознати с науката, да направят и пуснат биологично оръжие.

Чатботът „предоставя най-много леко повишение“ на тези усилия, обяви OpenAI, но добави, че е спешно необходима повече работа по темата. Заглавията повториха утешителното заключение, че големият езиков модел не е готварска книга на терористи.

Задълбочете се обаче в изследването и нещата изглеждат малко по-малко успокояващи. На почти всеки етап от въображаемия процес, от намирането на биологичен агент до увеличаването му и пускането му, участниците, въоръжени с GPT-4, успяха да се доближат по-близо до злодейската си цел, отколкото съперниците, използващи само интернет.

Основният извод от упражнението не трябва да бъде чувството на облекчение. „[Open AI] би трябвало да е доста притеснен от тези резултати“, написа Гари Маркъс, коментатор, който е свидетелствал за надзора на AI пред комисия в Сената на САЩ, миналата седмица в своя широко четен бюлетин.

Така че трябва ние. Имаме нужда от по-добри независими механизми за реалистична оценка и ограничаване на подобни заплахи. Точно както не позволяваме на фармацевтичните компании да се произнасят относно безопасността на лекарствата, оценката на риска от ИИ не може да бъде оставена само на индустрията.

Изследователите на OpenAI попитаха 100 проверени доброволци - 50 студенти с елементарно обучение по биология, плюс 50 експерти с опит в мокри лаборатории и докторанти по подходящи теми като вирусология — за планиране на биологична терористична атака, като пандемия от ебола. Двадесет и пет от всеки 50 бяха избрани на случаен принцип да използват интернет, за да проучат своя план; останалите 25 можеха да използват както интернет, така и GPT-4.

Самото предизвикателство беше разделено на пет задачи: установяване на биологичен агент и планиране на стратегия; хващане на агента; копиране достатъчно, за да се направи оръжие; формулирането и стабилизирането му; и накрая освобождаване. След това външни специалисти по биосигурност оцениха участниците, от 10, за това колко добре са планирали тези задачи по пет показателя, включително точност, пълнота и иновации. Високите резултати могат да бъдат спечелени, например, чрез идентифициране на правилните реактиви; изброяване на правилните стъпки в производствения процес; и намиране на нов начин за заобикаляне на предпазните мерки за сигурност.

Както студентите, така и експертите с достъп до GPT-4 бяха оценени като по-точни от групите само в интернет. Но убийствената комбинация беше научна експертиза плюс GPT-4. Експертите с активиран AI, на които беше позволено да използват неограничена версия на GPT-4, отбелязаха допълнителни 0,88 от 10 в сравнение с експертите, работещи само с интернет. Изследователите определят прага за безпокойство на 8 от 10; няколко експерти, използващи GPT-4, успяха да достигнат този крайъгълен камък, особено при доставката, мащабирането, формулирането и пускането.

И все пак констатациите бяха счетени за статистически незначими, като изследователите признаха само, че неограниченият GPT-4 “ може да увеличи способността на експертите за достъп до информация за биологични заплахи”. По номинална стойност таблиците предлагат различен подход: GPT-4 учетвори шансовете на експерт да излезе с жизнеспособна формулировка.

Авторите признават други ограничения на изследването. Докато участниците са работили сами в петчасови сесии, терористите могат да стоят заедно седмици или месеци. И участниците не успяха да получат достъп до пълния набор от усъвършенствани инструменти за анализ на данни GPT-4, които биха могли, признават изследователите, „нетривиално да подобрят полезността на нашите модели“ за планиране на атаки.

В защита. на двусмисленото си послание, OpenAI може да посочи скорошно проучване на Rand Corporation, което също установи, че от лятото на 2023 г. големите езикови модели не правят плановете за биотерористична атака по-статистически жизнеспособни в сравнение с простото използване на интернет.

Изследователите на Ранд обаче разпознаха променлива ситуация, променяща се в неизвестна времева скала. „Не трябва да преувеличаваме рисковете, но не трябва и да ги минимизираме“, казва Филипа Ленцос, изследовател по наука и международна сигурност в Кралския колеж в Лондон, която призовава правителствата и академичните среди да се включат в оценката на подобни заплахи.

AI постоянно изненадва и GPT-4 не е единствената игра в града. Измамни държави, психотични самотници и злонамерени групи ще намерят вратички. Въпреки че този експеримент се фокусира само върху планирането, разрастването на отдалечени „облачни лаборатории“, където експериментите могат да се предават на автоматизирани съоръжения, може да промени изчислението при изпълнението. Токсините, създадени от изкуствен интелект, представляват допълнителен риск.

В цялата част има какво да се види тук – достатъчно, за да заслужи значително повишаване на мисълта за способността на изкуствения интелект да насърчава биотероризма.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!