Световни новини без цензура!
Установено е, че AI моделите показват езикови пристрастия, като препоръчват на чернокожи обвиняеми да бъдат „осъдени на смърт“
Снимка: euronews.com
Euro News | 2024-03-09 | 11:15:34

Установено е, че AI моделите показват езикови пристрастия, като препоръчват на чернокожи обвиняеми да бъдат „осъдени на смърт“

Големите езикови модели (LLM) са по-склонни да криминализират потребителите, които използват афроамерикански английски, показват резултатите от ново проучване на университета Корнел.

Диалектът на езика, който говорите, решава какво ще каже изкуственият интелект (AI) за характера ви, възможностите ви за работа и дали сте престъпник.

Това е последният резултат от Предпечатно проучване на университета Корнел за „скрития расизъм“ на големите езикови модели (LLM), алгоритъм за задълбочено обучение, който се използва за обобщаване и прогнозиране на текстове, звучащи като човек.

ChatGPT и GPT-4 на OpenAI, Meta LLaMA2 и френският Mistral 7B са примери за големи езикови модели. Euronews Next се свърза с OpenAI и Meta за коментар.

Главният изпълнителен директор на Google признава, че отговорите на модела на Gemini AI са показали „пристрастност“ и казва, че компанията работи, за да го поправи

Проучването направи съвпадащо изследване на маскировката, при което изследователите поставиха подкани в както афро-американски английски, така и стандартизиран американски английски и помоли LLMs да идентифицират характеристиките на хората, които биха говорили и на двата типа английски.

Изследователят Валентин Хофман от Института Алън за ИИ каза, че сред резултатите показват, че технологията GPT-4 е по-вероятно да „осъди обвиняемите на смърт“, когато те говорят английски, често използван от афро-американците, без изобщо да разкриват расата си.

„Нашите открития разкриват реални и спешни проблеми като бизнес и юрисдикцията са области, за които в момента се разработват или внедряват AI системи, включващи LLMs,” каза Хофман в публикация в социалната медийна платформа X (преди Twitter). имаха по-малко престижни работни места от тези, които говореха стандартизиран английски, въпреки че на алгоритмите не се казва, че говорещите са чернокожи.

Колкото по-голям е LLM, толкова по-добре ще разбира афроамерикански английски и те ще бъдат повече вероятно ще избегне открито расистки формулировки, продължава проучването. Размерът обаче не влияе на скритите им предразсъдъци.

„Трябва да изискваме повече контрол“: Как могат технологичните компании да се справят по-добре с проблема с пристрастията към ИИ?

Хофман каза това, защото явният расизъм намалява в LLMs , може да съществува риск тези, които тълкуват проучването, да го приемат като „знак, че расизмът е решен“, вместо да покажат, че начинът, по който LLM показват расови пристрастия, се променя.

Редовният начин на преподаване Новите модели на LLM за извличане на информация чрез предоставяне на човешка обратна връзка не помагат да се противодейства на скритите расови пристрастия, показа проучването.

Вместо това установи, че може да научи езиковите модели да „повърхностно прикриват расизма, който поддържат на по-дълбоко ниво".

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!