Световни новини без цензура!
Задвижваната от изкуствен интелект дезинформация е най-големият непосредствен риск за глобалната икономика: доклад
Снимка: globalnews.ca
Global News | 2024-01-10 | 14:50:19

Задвижваната от изкуствен интелект дезинформация е най-големият непосредствен риск за глобалната икономика: доклад

Фалшивата и подвеждаща информация, наситена с авангарден изкуствен интелект, който заплашва да подкопае демокрацията и да поляризира обществото, е най-големият непосредствен риск за глобалната икономика, Световният икономически форум се казва в доклад от сряда. ="no-referrer-when-downgrade">

В последния си доклад за глобалните рискове организацията също така каза, че набор от рискове за околната среда представляват най-големите заплахи в дългосрочен план. Докладът беше публикуван преди годишната елитна среща на изпълнителни директори и световни лидери в швейцарския ски курорт Давос и се основава на проучване сред близо 1500 експерти, лидери в индустрията и политици.

Докладът изброява дезинформация и дезинформацията като най-сериозния риск през следващите две години, подчертавайки колко бързият напредък в технологиите също създава нови проблеми или влошава съществуващите.

Авторите се притесняват, че бумът на генеративни AI чатботове като ChatGPT означава че създаването на сложно синтетично съдържание, което може да се използва за манипулиране на групи от хора, вече няма да бъде ограничено до тези със специализирани умения.

ИИ ще бъде гореща тема следващата седмица на срещите в Давос, които се очаква да присъстват шефове на технологични компании, включително главен изпълнителен директор на OpenAI Сам Алтман, главен изпълнителен директор на Microsoft Сатя Надела и играчи от AI индустрията като главния учен на Meta, Ян Лекун. точно както милиарди хора в множество страни, включително големи икономики като Съединените щати, Великобритания, Индонезия, Индия, Мексико и Пакистан, са готови да се отправят към урните тази и следващата година, се казва в доклада.

Вземете най-новите национални новини. Изпраща се на вашия имейл, всеки ден.

„Можете да използвате AI, за да правите дълбоки фалшификации и наистина да въздействате на големи групи, което наистина води до дезинформация“, каза Каролина Клинт, ръководител по управление на риска в Marsh, чиято компания майка Marsh McLennan е съавтор на доклада с Zurich Insurance Group.

„Обществата могат да станат допълнително поляризирани“, тъй като на хората им е по-трудно да проверяват фактите, каза тя. Фалшивата информация също може да се използва за подхранване на въпроси относно легитимността на избраните правителства, „което означава, че демократичните процеси могат да бъдат подкопани и също така ще доведе до още по-голяма поляризация на обществото“, каза Клинт.

Възходът на AI носи множество други рискове, каза тя. Той може да даде възможност на „злонамерените участници“, като улесни извършването на кибератаки, като например чрез автоматизиране на опити за фишинг или създаване на усъвършенстван злонамерен софтуер.

С AI „не е нужно да сте най-умният инструмент в може да бъде злонамерен актьор“, каза Клинт.

Той дори може да отрови данни, които са изтрити от интернет, за да обучават други системи с ИИ, което е „невероятно трудно за обръщане“ и може да доведе до допълнителни отклонения при вграждане в AI моделите, каза тя.

Другото голямо глобално безпокойство за респондентите в проучването за риска е свързано с изменението на климата.

След дезинформацията и дезинформацията, екстремното време е второто най- належащ краткосрочен риск.

В дългосрочен план — определен като 10 години — екстремното време беше описано като заплаха №1, следвана от четири други свързани с околната среда риска: критична промяна в системите на Земята; загуба на биоразнообразие и колапс на екосистеми; и недостиг на природни ресурси.

„Можем да бъдем изтласкани от тази повратна точка на необратимото изменение на климата“ през следващото десетилетие, тъй като системите на Земята претърпяват дългосрочни промени, каза Клинт.

Източник: globalnews.ca


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!