Световни новини без цензура!
Технологични фирми, които не успяват да „вървят пътя“ към етичния AI, се казва в доклада
Снимка: aljazeera.com
Aljazeera News | 2023-12-08 | 09:55:33

Технологични фирми, които не успяват да „вървят пътя“ към етичния AI, се казва в доклада

Технологичните компании, които са обещали да подкрепят етичното развитие на изкуствения интелект (AI), не успяват да изпълнят обещанията си, тъй като безопасността се завръща място към показатели за ефективност и пускане на продукти, според нов доклад на изследователи от Станфордския университет.

Въпреки публикуването на принципите на AI и наемането на социални учени и инженери за провеждане на изследвания и разработване на технически решения, свързани с етиката на AI, много частни компании все още не са приоритизирали приемането на етични предпазни мерки, се казва в доклада на Станфордския институт за изкуствен интелект, ориентиран към човека пуснат в четвъртък.

„Компаниите често „говорят за разговори“ за етиката на ИИ, но рядко „продължават“ чрез адекватно ресурсно осигуряване и овластяване на екипи, които работят върху отговорен ИИ“, казаха изследователите Санна Дж. Али, Анджеле Кристин, Андрю Смарт и Риита Катила в доклад, озаглавен Walking the Walk of AI Ethics in Technology Companies.

Въз основа на опита на 25 „практици по етика на ИИ“, в доклада се казва, че работниците, участващи в насърчаването на етиката на ИИ, се оплакват от липса на институционална подкрепа и са изолирани от други екипи в големи организации въпреки обещанията за обратното.

Служителите съобщават за култура на безразличие или враждебност, дължаща се на продуктови мениджъри, които виждат работата им като вредна за производителността, приходите или сроковете за пускане на продукта на компанията, се казва в доклада.

„Да бъдеш много силен за налагането на повече спирачки върху [развитието на AI] беше рисковано нещо“, каза един човек, анкетиран за доклада. „Не е вградено в процеса.“

Докладът не посочва фирмите, в които са работили анкетираните служители.

Правителствата и учените изразиха загриженост относно скоростта на развитие на ИИ, като етичните въпроси засягат всичко - от използването на лични данни до расовата дискриминация и нарушаването на авторски права.

Подобни опасения станаха по-шумни след пускането на ChatGPT от OpenAI миналата година и последвалото развитие на конкурентни платформи като Gemini на Google.

Служителите казаха на изследователите от Станфорд, че етичните проблеми често се разглеждат много късно в играта, което затруднява извършването на корекции в нови приложения или софтуер, и че етичните съображения често се нарушават от честата реорганизация на екипите.

>

„Метриките около ангажираността или производителността на моделите на ИИ са толкова високо приоритетни, че препоръките, свързани с етиката, които биха могли да повлияят негативно на тези показатели, изискват неопровержими количествени доказателства“, се казва в доклада.

„И все пак количествените показатели за етика или справедливост са трудни за намиране и предизвикателство за дефиниране, като се има предвид, че съществуващите инфраструктури за данни на компаниите не са пригодени за такива показатели.“

Източник: aljazeera.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!