Световни новини без цензура!
Скарлет Йохансон е права: AI компаниите трябва да бъдат по-прозрачни
Снимка: ft.com
Financial Times | 2024-05-23 | 14:14:05

Скарлет Йохансон е права: AI компаниите трябва да бъдат по-прозрачни

Във филма Her, самотен писател на име Теодор Туомбли се влюбва в безплътния глас на Саманта, дигитален асистент, изигран от актьора Скарлет Йохансон. „Не мога да повярвам, че водя този разговор с моя компютър“, казва Туомбли на Саманта. "Ти не си. Водиш този разговор с мен“, гука Саманта.

Гениалността на сценария на Спайк Джонз е неговото изследване на границите между изкуственото и реалното. Но научнофантастичният филм, издаден през 2013 г., придоби ироничен отзвук днес, след като OpenAI пусна най-новия си GPT-4o мултимодален чатбот с изкуствен интелект, привидно имитирайки гласа на Йохансон.

Йохансон каза, че е отхвърлила молбите на OpenAI да я използва глас, добавяйки, че е „шокирана и ядосана“ да открие, че компанията е разположила „зловещо подобен“ на нейния собствен. Тя призова за по-голяма прозрачност и подходящо законодателство, за да се гарантира, че индивидуалните права са защитени. OpenAI постави на пауза използването на гласа, за който по-късно обясни, че принадлежи на друг неназован актьор.

Инцидентът може да е поразил длъжностни лица, присъстващи на последната среща на високо равнище за безопасността на изкуствения интелект в Сеул тази седмица, като отклоняващ изблик на знаменитости. Но спорът съвпада с три по-общи опасения относно генеративния ИИ: кражба на самоличност, разяждане на интелектуалната собственост и ерозия на доверието. Могат ли AI компаниите да внедрят технологията отговорно? Изнервящо, дори някои от онези, които преди са отговаряли за осигуряването на безопасност, задават този въпрос.

Миналата седмица Ян Лейке подаде оставка като ръководител на екип по безопасност в OpenAI след напускането на Иля Суцкевер, един от сътрудниците на компанията -основатели и главен научен сътрудник. На X Leike твърди, че безопасността в компанията е отстъпила на заден план пред „лъскавите продукти“. Той твърди, че OpenAI трябва да посвети много повече честотна лента на сигурността, поверителността, човешкото подравняване и въздействието върху обществото. „Тези проблеми са доста трудни за коригиране и аз съм загрижен, че не сме на траектория, за да стигнем до там“, публикува той.

В собствените си раздяла Сутскевер каза, че е уверен, че OpenAI ще изгради AI, който беше „и безопасен, и полезен“. Въпреки това Суцкевер беше един от членовете на борда, които миналата година се опитаха да отстранят главния изпълнителен директор на компанията Сам Алтман. След като Алтман беше възстановен след бунт на персонала, Суцкевер каза, че съжалява за участието си в преврата. Но собственото му напускане ще премахне друга противотежест на Алтман.

Въпреки това не само OpenAI се препъна при внедряването на AI технологията. Google имаше свои собствени проблеми с генеративния AI, когато неговият чатбот Gemini генерира неисторически изображения на черни и азиатски нацистки щурмоваци. И двете компании казват, че грешните стъпки са неизбежни при пускането на нови технологии и реагират бързо на грешките си.

Все пак би вдъхнало по-голямо доверие, ако водещите AI компании бяха по-прозрачни. Те имат да извървят дълъг път, както показва индексът за прозрачност на модела на фондацията, публикуван тази седмица от Станфордския университет. Индексът, който анализира 10 водещи разработчици на модели по 100 показателя, включително достъп до данни, надеждност на модела, политики за използване и въздействия надолу по веригата, подчертава как големите компании са предприели стъпки за подобряване на прозрачността през последните шест месеца, но някои модели остават „изключително непрозрачни“ .

„Това, което тези модели позволяват и забраняват, ще определи нашата култура. Важно е да ги изследваме внимателно“, ми казва Пърси Лианг, директор на Станфордския център за изследване на моделите на основите. Най-много го тревожи концентрацията на корпоративна власт. „Какво се случва, когато имате няколко организации, които контролират съдържанието и поведението на бъдещите системи за изкуствен интелект?“

Подобни опасения могат да подхранват искания за по-нататъшна регулаторна намеса, като например Закона за изкуствения интелект на ЕС, който получи одобрение от Европейския съюз съвет този месец. Повече от една четвърт от законодателните органи на американските щати също обмислят законопроекти за регулиране на ИИ. Но някои в индустрията се страхуват, че регулацията може само да засили хватката на големите AI компании.

„Гласовете в стаята са Big Tech. Те могат да утвърдят властта си чрез регулиране“, ми казва Мартин Касадо, инвестиционен партньор във фирмата за рисков капитал Andreessen Horowitz. Политиците трябва да обърнат много повече внимание на Little Tech, множеството стартиращи компании, използващи AI модели с отворен код, за да се конкурират с по-големите играчи.

Десет нации и ЕС на срещата на върха в Сеул тази седмица се съгласиха да създаване на международна мрежа от институти за безопасност за наблюдение на ефективността на граничните AI модели, което е добре дошло. Но сега трябва да се вслушат в Йохансон и да се впуснат много по-дълбоко в мощните корпоративни структури, които внедряват тези модели.


Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!