Световни новини без цензура!
AI „халюцинира“ фалшиви съдебни дела, за които се твърди, че са заведени до B.C. съд в Канада първо
Снимка: globalnews.ca
Global News | 2024-01-24 | 05:56:20

AI „халюцинира“ фалшиви съдебни дела, за които се твърди, че са заведени до B.C. съд в Канада първо

A B.C. смята се, че съдебната зала е мястото на първия случай в Канада на изкуствен интелект, изобретяващ фалшиви съдебни дела.

Адвокатите Лорн и Фрейзър Маклийн казаха пред Global News, че са открили фалшива съдебна практика, представена от противния адвокат в гражданско дело в Британска Колумбия. Върховен съд.

„Въздействието на делото е смразяващо за правната общност“, каза Лорн Маклийн, K.C.

„Ако не проверим фактите на материалите с изкуствен интелект и те са неточни, това може да доведе до екзистенциална заплаха за правната система: хората пилеят пари, съдилищата пилеят ресурси и данъчни долари и има риск решенията да бъдат погрешни, така че това е огромна работа.“

Източници казаха на Global News, че случаят е семеен въпрос с висока нетна стойност, като са заложени най-добрите интереси на децата.

Твърди се, че Laywer Chong Ke е използвал ChatGPT, за да подготви правни бележки в подкрепа на молбата на бащата до заведе децата си в Китай на посещение – в резултат на което един или повече дела, които всъщност не съществуват, са представени на съда. беше ненадежден и не провери дали случаите действително съществуват - и се извини на съда.

Ке напусна съдебната зала със сълзи, стичащи се по лицето й във вторник, и отказа коментар.

Вземете последните национални новини. Изпраща се на вашия имейл, всеки ден.

Известно е, че AI chatbots като ChatGPT понякога измислят реалистично звучаща, но невярна информация, процес, известен като „халюцинация“.

Проблемът вече е проникнал в правната система на САЩ, където се появиха няколко инцидента — смущаване на адвокати и пораждане на загриженост относно потенциала за подкопаване на доверието в правната система.

В един случай съдия наложи глоба на адвокати от Ню Йорк, които представиха правна справка с въображаеми случаи, халюцинирани от ChatGPT — инцидент, който адвокатите твърдяха, че е грешка на добра воля.

В друг случай бившият адвокат на Доналд Тръмп Майкъл Коен каза в съдебна документация, че случайно е дал на своя адвокат фалшиви дела, измислени от AI.

„Изпрати ударни вълни в САЩ, когато се появи за първи път през лятото на 2023 г. ... ударни вълни в Обединеното кралство, а сега ще изпрати ударни вълни в цяла Канада“, каза Маклийн.

„Това подкопава доверието в основателността на съдебното решение или в точността на съдебното решение, ако се основава на фалшиви случаи.“

Правни наблюдатели казват, че пристигането на технологията — и нейните рискове — в Канада трябва да има адвокати на високо ниво предупреждение.

„Адвокатите не трябва да използват ChatGPT, за да правят проучвания. Ако трябва да използват chatGPT, това трябва да е, за да помогнат при съставянето на определени изречения“, каза адвокатът от Ванкувър Робин Хира, който не е свързан със случая.

„И въпреки това, след като съставят тези изречения и параграфи, те трябва да ги прегледа, за да се увери, че точно излагат фактите или точно адресират идеята, която адвокатът се опитва да изтъкне.“

Адвокатът Рави Хира, K.C., който също не е замесен в случая, каза последствията за злоупотреба с технологията може да бъде тежко.

„Ако съдебното производство е било удължено поради неправилно поведение на адвоката, лично поведение, той или тя може да се изправи пред разноски и съдът може да изиска от адвоката да плати разходите на другата страна“, каза той.

„И което е важно, ако това е направено умишлено, адвокатът може да прояви неуважение към съда и да понесе санкции.“

Хира каза, че адвокати, които злоупотребяват с инструменти като ChatGPT, също могат да бъдат изправени пред дисциплина от юридическото общество в тяхната юрисдикция.

„Предупреждението е много просто“, добави той. „Правилно ли работите. Вие сте отговорни за работата си. И го провери. Не карайте трета страна да върши вашата работа.“

Юридическото общество на Британска Колумбия предупреди адвокатите за използването на AI и предостави насоки преди три месеца. Global News търси коментар от обществото, за да попита дали е запознато с настоящия случай или какви дисциплинарни наказания може да понесе Ке.

Върховният съдия на B.C. Върховният съд също издаде директива миналия март, с която каза на съдиите да не използват изкуствен интелект, а федералният съд на Канада последва примера миналия месец.

В разглеждания случай семейство Маклийн заяви, че възнамерява да поиска от съда да присъди специални разходи по въпроса с ИИ.

Въпреки това Лорн Маклийн каза, че се притеснява, че този случай може да е само върхът на айсберга.

„Едно от страшните неща е, че вече има фалшиви случаи се промъкна през канадската съдебна система и ние дори не знаем?“

— с файлове от Румина Дая

Източник: globalnews.ca


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!