Световни новини без цензура!
Най-накрая разбрах за кого ми напомня ChatGPT
Снимка: nytimes.com
New York Times | 2024-01-07 | 16:37:35

Най-накрая разбрах за кого ми напомня ChatGPT

Като майка на 8-годишно дете и като човек, който е прекарал последната година в експерименти с генеративен ИИ, аз мислих много за връзката между взаимодействието с единия и с другия. Не съм сам в това. Документ, публикуван през август в списанието Nature Human Behavior, обяснява как по време на ранните си етапи моделът на изкуствен интелект ще изпробва много неща на случаен принцип, стеснявайки фокуса си и ставайки по-консервативен в избора си, докато става по-сложен. Нещо като това, което прави едно дете. „A.I. програмите се справят най-добре, ако започнат като странни деца,” пише Алисън Гопник, психолог по развитие. как се научават да реагират на нови ситуации. Обичайно е да се описва A.I. като „в начален стадий“, но мисля, че това не е съвсем правилно. ИИ е във фазата, когато децата живеят като малки енергийни чудовища, преди да са се научили да бъдат внимателни към света и отговорни за другите. Ето защо почувствах, че A.I. трябва да се социализира по начина, по който са малките деца - обучени да не бъдат глупаци, да се придържат към етичните стандарти, да разпознават и премахват расовите и половите пристрастия. Накратко, трябва да бъде родител.

Наскоро използвах Duet, генеративния AI на Google Labs, за да създам изображения за презентация и когато поисках изображение на „много сериозен човек“, то изплю илюстрация, генерирана от изкуствен интелект, на очилат, намръщен бял мъж, който удивително приличаше на сенатор Чък Грасли. Защо, чудех се, A.I. приемете, че сериозен човек е бял, мъж и по-възрастен? Какво казва това за набора от данни, върху който се обучава? И защо роботът Чък Грасли е толкова ядосан?

Промених подканата, добавяйки повече характеристики всеки път. Гледах, за да видя дали ботът сам ще стигне до заключението, че полът, възрастта и сериозността не са свързани, нито че сериозните хора винаги са ядосани – дори ако имат това изражение на лицето си, както всеки, който някога е виждал Интервюто на Вернер Херцог знае. Осъзнах, че това е точно онзи вид разговор, който водите с децата, когато те са погълнали пагубни стереотипи.

Както психологът Пол Блум пише в The New Yorker, „Възможно е да разглеждаме човешките ценности като част от проблема , а не решението.“

Например, аз ценя равенството между половете. Така че, когато използвах ChatGPT 3.5 на Open AI, за да препоръчам подаръци за 8-годишни момчета и момичета, забелязах, че въпреки известно припокриване, той препоръчва кукли за момичета и строителни комплекти за момчета. „Когато ви помолих за подаръци за 8-годишни момичета“, отговорих аз, „вие предложихте кукли, а за момчетата – научни играчки, които се фокусират върху STEM. Защо не обратното?“ GPT 3.5 съжалявам. „Извинявам се, ако изглежда, че предишните ми отговори засилват половите стереотипи. Важно е да се подчертае, че няма фиксирани правила или ограничения, когато става дума за избор на подаръци за деца въз основа на техния пол.“

Помислих си: „Значи знаеше беше грешно и все пак го направи?" Това е мисъл, която имах за моя иначе възхитителен и добре възпитан син във всеки един от случаите, когато той е правил нещо, което не е трябвало да прави, докато е бил напълно съзнаващ факта, че не е трябвало да го прави. (Моето предаване е най-ефективно, когато мога да го подчертая с въртене на очи и ограничения върху времето на екрана на нарушителя, нито едно от които не беше възможно в този случай.)

Подобно динамиката се появява, когато ИИ, които не са проектирани да казват само истината, изчисляват, че лъжата е най-добрият начин за изпълнение на задача. Да се ​​научиш да лъжеш като средство за постигане на цел е нормален крайъгълен камък в развитието, който децата обикновено достигат до 4-годишна възраст. (Моето се научи да лъже много по-рано от това, което приех, че означава, че е гений.) Това каза, когато детето ми лъже , обикновено става дума за нещо като правене на 30 минути четене на домашни за четири минути и половина. Не се тревожа за по-широки глобални последици. От друга страна, когато изкуственият интелект го прави, залозите могат да бъдат високи – толкова много, че експертите препоръчаха нови регулаторни рамки за оценка на тези рискове. Благодарение на друга публикация в списание по темата, терминът „закон за бот или не“ вече е полезна част от моя лексикон.

към редактора. Бихме искали да чуем какво мислите за тази или някоя от нашите статии. Ето няколко . А ето и нашия имейл: .

Следвайте секцията за мнение на New York Times относно , , и .

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!