Световни новини без цензура!
Адвокат в гореща вода, след като използва изкуствен интелект за представяне на измислена информация: `некомпетентен`
Снимка: foxnews.com
Fox News | 2024-02-07 | 14:36:35

Адвокат в гореща вода, след като използва изкуствен интелект за представяне на измислена информация: `некомпетентен`

Адвокат от Ню Йорк може да бъде наказан дисциплинарно, след като беше открито, че случай, който тя цитира, е генериран от изкуствен интелект и не действително съществуват.

Вторият окръжен апелативен съд на САЩ нареди на адвокат Jae Lee да участва в своя панел за оплаквания миналата седмица, след като откри, че е използвала ChatGPT на OpenAI, за да проучи предишни случаи за съдебно дело за медицинска грешка, но не успя потвърди дали случаят, който тя цитира, действително е съществувал, според доклад на Ройтерс.

Адвокатът е включил фиктивното решение на щатския съд в жалба по делото на нейния клиент, в което се твърди, че лекар от Куинс е провалил аборт, според доклада, карайки съда да нареди на Лий да представи копие от решението, което адвокатът по-късно установи, че „не може да предостави“.

Поведението на адвоката „пада доста под основните задължения на адвоката“, Вторият окръжен апелативен съд на САЩ заключи в своя дисциплинарен преглед, който беше изпратен на Лий.

Логото на ChatGPT на лаптоп. (Габи Джоунс/Блумбърг чрез Getty Images)

По-късно Лий ще признае, че е използвала случай, който й е бил „предложен“ от ChatGPT, популярен AI чатбот, и не е успяла сама да провери резултатите.

Решението на адвоката да използва популярното приложение идва, въпреки че експертите предупредиха срещу подобни практики, отбелязвайки, че AI е сравнително нова технология, която също е добре известна с „халюцинациите“ на фалшиви или подвеждащи резултати.

p>

„Когато използвате всяко AI приложение, важно е да разберете, че цел номер едно на AI е да ви направи щастливи, а не да откриете абсолютната истина. Освен това е от решаващо значение да разпознаете как работи AI,“ Кристофър Александър , главен анализатор на Pioneer Development Group, каза пред Fox News Digital. „ИИ не е съзнателен гений, който е върховният арбитър на цялото знание.“

Лий твърди, че в нейното решение не е имало „лоша воля, умишленост или предразсъдъци към противниковата страна или съдебната система“. да използва фалшивия случай, като каза на Ройтерс, че е „отдадена на спазването на най-високите професионални стандарти и на подхода към този въпрос със сериозността, която заслужава.“

Лий не отговори веднага на искане на Fox News за коментар .

Случаят на адвоката идва, когато съдебната система все по-често трябва да се сблъсква с използването на AI в съдебни документи, включително случай през юни 2023 г., в който двама нюйоркски адвокати бяха санкционирани след като беше установено, те подадоха кратка информация, която съдържаше шест измислени цитата, според Ройтерс. Друг адвокат от Колорадо беше отстранен от адвокатска професия за подобни действия през ноември.

„Това илюстрира как американската професионална класа става все по-некомпетентна“, каза Самуел Манголд-Ленет, щатен редактор във The Federalist, пред Fox News Digital . „Самата мисъл за използване на chatGPT или друга услуга за тази цел трябваше да бъде изтръгната от този адвокат по време на училище. Че не е имало дължима грижа и по-нататъшно разследване на съдебното дело, генерирано от ChatGPT, е неприлично.“

Манголд-Ленет добави, че професионалните организации и адвокатските асоциации трябва да направят повече, „за да държат своите членове отговорни и да ги образоват допълнително за последствията от прекомерната зависимост от ИИ за изследвания“, като твърди, че използването на ИИ за изследвания не е проблем, а че работата трябва да бъде проверена от тези, които използват технологията.

Известно е, че изкуственият интелект и преди халюцинира фалшиви съдебни дела. (iStock)

„Некомпетентността и самодоволството са широко разпространени в професионалните кръгове, неща като това ще продължат да бъдат проблем, докато хората не бъдат образовани и подведени под отговорност," каза Манголд-Ленет.

Джейк Дентън, научен сътрудник в Центъра за техническа политика на Heritage Foundation, се съгласи, че AI " има огромно обещание", но предупреди, че технологията все още има много предизвикателства за преодоляване.

"Настоящата липса на прозрачност в много Al системи е тревожна, тъй като рискува професионалисти, като адвокати, да се доверят на резултатите от системата въпреки че не разбират напълно как е генериран изходът“, каза Дентън пред Fox News Digital.

Тези проблеми, включително халюцинациите, „не са нов феномен“, според на директора на политиката на проекта Bull Moose Зивен Хейвънс, който каза на Fox News Digital, че технологията трябва да се използва само от адвокати за „допълване“ на изследванията.

„Те трябва да прегледат цялата информация, за да гарантират нейната автентичност“, каза Хейвънс. „Освен това разработчиците на изкуствен интелект трябва да продължат да работят за намаляване на броя на халюцинациите.“

Проблемите, довели до дисциплината на Лий, едва ли ще се променят скоро, което означава, че хората, които използват платформи като ChatGPT, вероятно ще продължат да бъдат държани отговорни, когато технологията се обърка.

„Когато хората представят генерирана от AI работа като своя собствена, от тях трябва да се изисква да поемат пълната отговорност за тази работа – и да понесат последствията, когато е плагиатствана, небрежен или неточен“, каза Джон Швепе, политически директор на проекта American Principles, пред Fox News Digital. „Междувременно AI компаниите трябва да направят всичко възможно, за да напомнят на потребителите, че AI все още е в начален стадий и не трябва да се разглежда като надежден или надежден по никакъв начин.“

Приложенията за чат на Microsoft Bing Chat и ChatGPT AI се виждат на мобилно устройство. (Jaap Arriens/NurPhoto чрез Getty Images)

Според доклада на Reuters комитетът по правилата на 2-ра верига проведе дискусии относно изкуствения интелект, но все още не е сформирал група, която да разгледа напълно проблема. Междувременно отделен доклад на Reuters през ноември разкри, че 5-ти окръжен апелативен съд на САЩ предлага ново правило, което ще изисква от адвокатите да удостоверят, че не разчитат на AI за изготвяне на бюлетини и че информацията, получена с помощта на AI, е била прегледана за точност от хора .

Такива предложения идват, тъй като AI не е готов да се справи с това, което се иска от него от някои адвокати, до голяма степен благодарение на липсата на достатъчно данни за случаи, за да може технологията черпете от.

„Количеството данни за казуси в моделите днес не е достатъчно, за да ги използваме за изготвяне на сводки или писмени становища без огромно количество бърникане в подканите. Така че моделите ще халюцинират“, Фил Сийгъл, основателят на Центъра за усъвършенствана готовност и симулация на отговор на заплахи (CAPTRS), каза пред Fox News Digital. „Дори след това ще има нужда от много качествен контрол, тъй като моделите ще поемат както правния език, така и интерпретации, което може да допринесе за халюцинация на модела, дори след като всички данни са в модела.“

Междувременно Александър вижда път напред за използване на AI в правната област, въпреки че предупреди, че такава платформа за тази употреба в момента не съществува.

„Със сигурност е възможно да се изгради или може би да се промени AI от, за и с правни експерти, но това в момента не съществува на нивото, необходимо за използване за правни цитати“, каза Александър. „Най-добре представящите се платформи за изкуствен интелект в частния сектор са общи по природа и се усъвършенстват чрез взаимодействие и непрекъснато обучение и това трябва да служи като предупреждение за всеки, който използва изкуствен интелект за каквато и да е цел. ИИ е инструмент, който ви води до решението, но рядко предоставя самото решение."

Източник: foxnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!