Световни новини без цензура!
Жена, която е използвала девет „изфабрикувани“ случая с ИИ в съда, губи обжалване
Снимка: independent.co.uk
Independent News | 2023-12-11 | 18:40:05

Жена, която е използвала девет „изфабрикувани“ случая с ИИ в съда, губи обжалване

Тя беше попитана дали е бил използван ИИ и потвърди, че е „възможно“.

Когато се сблъска с реалността, г-жа Харбър каза пред съда, че „не можеше да види, че има значение“, ако AI е бил използван, тъй като беше убедена, че ще има случаи, в които психичното здраве или невежеството на законът е разумно извинение в нейна защита.

Тя продължи да пита трибунала как могат да бъдат уверени, че някой от случаите, използвани от HMRC, е истински.

Трибуналът информира г-жа Харбър, че случаите са публично изброени заедно с техните решения на уебсайтове за съдебна практика, за което тя каза, че не е знаела.

Г-жа Харбър каза, че случаите са й били предоставени от „приятел в кантората на адвокат“.

Нейната жалба обаче беше отхвърлена, въпреки че съдията отбеляза, че резултатът би бил постигнат дори и при липсата на изфабрикуваните случаи.

Съдия Ан Редстън също добави: „Но това не означава, че цитирането на измислени съдебни решения е безобидно... предоставянето на авторитети, които не са истински, и искането съд или трибунал да разчита на тях е сериозен и важен въпрос .”

Съдът прие, че г-жа Харбър не е знаела, че случаите не са оригинални и че не е знаела как да провери валидността им с помощта на правни инструменти за търсене

Идва след Британски съдия призна, че използва „весело полезен“ ChatGPT, когато пише решения.

Според Law Society Gazette лорд съдия Бирс каза за ИИ: „Той е там и е много полезен. Поемам пълната лична отговорност за това, което поставям в преценката си – не се опитвам да прехвърля отговорността на някой друг.

„Всичко, което направи, беше задача, която щях да направя и която аз знаеше отговора и можеше да разпознае отговора като приемлив.“

По-рано тази година двама американски адвокати бяха наказани за използване на фалшиви съдебни цитати, генерирани от изкуствен интелект, в иск за авиационни наранявания.

Известно е, че ChatGPT и други инструменти за изкуствен интелект имат „проблем с халюцинации“, при който се създава невярна информация и се представя като факт, когато потребителите задават въпроси.

Органът за регулиране на адвокатите (SRA) предупреди срещу използването на AI с думите: „Всички компютри могат да правят грешки. Езиковите модели на AI като ChatGPT обаче могат да бъдат по-податливи на това.

„Това е така, защото те работят, като предвиждат текста, който трябва да следва въведените им данни, но нямат концепция за „реалност“. Резултатът е известен като „халюцинация“, където системата дава много правдоподобни, но неправилни резултати.

Източник: independent.co.uk


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!