Трябва ли да започнем да приемаме благосъстоянието на A.I. Сериозно?
Една от най-дълбоко държаните ми ценности като технологичен колонист е хуманизмът. Вярвам в хората и мисля, че технологията трябва да помага на хората, а не да ги обезсърчава или заменя. Грижа се за привеждане в съответствие на изкуствения интелект - тоест, като се уверя, че A.I. Системите действат в съответствие с човешките ценности-защото смятам, че нашите ценности са коренно добри или поне по-добри от стойностите, които един робот може да измисли.
Така че, когато чух, че изследователите в антропика, A.I. Компания, която направи Claude Chatbot, започваше да изучава „благополучие на модела“ - идеята, че A.I. Моделите скоро могат да станат съзнателни и да заслужат някакъв морален статус - хуманистът в мен мислеше: Кой се интересува от чатботите? Не трябва ли да се притесняваме от A.I. Направете ни, не ни малтретираме?
Трудно е да се спори, че днешният A.I. Системите са в съзнание. Разбира се, големи езикови модели са обучени да говорят като хора, а някои от тях са изключително впечатляващи. Но може ли Chatgpt да изпита радост или страдание? Дали Близнаците заслужават правата на човека? Много A.I. Експерти, които знам, биха казали не, все още не, дори не са затворени.
но бях заинтригуван. В крайна сметка повече хора започват да се отнасят с A.I. Системи, сякаш са в съзнание - се влюбват в тях, използвайки ги като терапевти и призовават съветите си. Най -умният A.I. Системите надминават хората в някои домейни. Има ли праг, при който A.I. би започнал да заслужава, ако не и права на човешко ниво, поне същото морално съображение, което даваме на животните?
уволнен през 2022 г., след като твърди, че чатботът на Lamda на компанията е станал съзнателен.)
, но това може да започне да се променя. Има малък набор от академични изследвания на A.I. благополучие на модела и скромен, но нарастващ брой експерти в области като философия и невронаука предприемат перспективата на A.I. Съзнанието по -сериозно, както A.I. Системите стават по -интелигентни. Наскоро Tech Podcaster Dwarkesh Patel сравнява A.I. благополучие на хуманното отношение към животните, казвайки, че е вярвал, че е важно да се увери, че „цифровият еквивалент на фабричното земеделие“ не се случва с бъдещия A.I. Същества.
Техническите компании също започват да говорят за това повече. Наскоро Google публикува списък за работа за „Post-a.g.i.“ Учен за изследване, чиито области на фокус ще включват „машинно съзнание“. И миналата година Anthropic нае първия си A.I. Изследовател на благосъстоянието, Kyle Fish.
Интервюирах господин Фиш в офиса на Антропик в Сан Франциско миналата седмица. Той е приятелски веган, който подобно на редица антропични служители има връзки с ефективния алтруизъм, интелектуално движение с корени в технологичната сцена на Bay Area, което е фокусирано върху A.I. Безопасност, хуманно отношение към животните и други етични проблеми.
MR. Рибите ми казаха, че работата му в антроп се фокусира върху два основни въпроса: първо, възможно ли е Клод или други A.I. Системите ще станат съзнателни в близко бъдеще? И второ, ако това се случи, какво трябва да направи антропиката?
Сам Алтман казва, никога не знаеш.)
Но засега ще запазя най-дълбоката си загриженост за житейските форми на базата на въглерод. В идващия A.I. Буря, това е нашето благополучие, за което най -много се притеснявам.