Световни новини без цензура!
Евроизгледи.
            
Може ли Законът за ИИ на ЕС да обхване нуждите на хората, докато предефинира алгоритмите?
Снимка: euronews.com
Euro News | 2024-01-29 | 14:45:41

Евроизгледи. Може ли Законът за ИИ на ЕС да обхване нуждите на хората, докато предефинира алгоритмите?

Водещото законодателство на ЕС в областта на ИИ не обхваща всички случаи, сценарии или терминология, но може да допълни съществуващото законодателство на държавите-членки, включително законите за достъпност, равенство или социална защита, пише Йона Уелкър.

На 8 декември преговарящите от Европейския парламент и Европейския съвет постигнаха временно споразумение относно Закона за изкуствения интелект.

Текстът, който излезе от триалога, трябваше да бъде гласуван от Европейския парламент, а също и от Европейския съвет.

Одобрението и на двете институции беше необходимо, за да може постигнатият политически компромис да стане закон. Миналата седмица окончателният текст на Закона за ИИ беше споделен със страните членки. Той ще бъде последван от обратна връзка от Техническата работна група и държавите-членки до петък.

След предишните коментари на държави-членки като Франция, окончателният текст остави въпроси от обществеността как този регламент ще засегне МСП, иновации и механизми за трансфер на технологии в региона.

По-специално, наред с широко обсъжданите модели на основаване, е известно, че екосистемата на ЕС произвежда различни успешни технологични проекти, насочени към достъпността на обществените пространства, когнитивните и сетивните увреждания, медицинските и образователни технологии, като социална роботика за деца с аутизъм, системи за проследяване на очите, поддържащи проблеми с четенето и дислексия, умни таблети за хора със зрителни увреждания, разнообразие от рехабилитационни и медицински технологии.

Тези технологии са свързани с използването на разпознаване на емоции, проследяване на очите и въвеждане на сложни данни от няколко заинтересовани страни.

През ноември ОИСР издаде доклад и хранилище, обхващащи над сто случая на помощни, трудови и работни технологии, поддържащи увреждания с ИИ.

Окончателната разпоредба на Закона за ИИ разширява категориите системи с висок и неприемлив риск, въвежда по-стриктно спазване на разпознаването на емоции, обществено достъпни работни места и образователни пространства, специални правила, насочени към ИИ с общо предназначение, „специфични рискове за прозрачност“ и списък със специални случаи, изключения и коментари, включително биометрични данни системи и правоприлагане.

Как тези правила могат да балансират улесняването и защитата за нововъзникващите системи и трансфера на технологии, по-конкретно насочени към помощни и обществени алгоритми, свързани с определени групи и сложни процеси на осиновяване?

Разпоредби, класификации и алгоритми

През призмата на помощни, достъпни и социални категории и алгоритми трябва да се подчертаят няколко компонента на разпоредбите на Закона за ИИ:

На първо място, заедно с приложения, които могат да манипулират човешкото поведение, правителствено „социално оценяване“ и определени приложения на предсказуема полиция, въвежда пълната забрана на конкретни публични случаи и случаи в реално време на биометрични данни и системи за разпознаване на емоции.

По-специално, той забранява използването на разпознаване на емоции в четири публични случая: работни места и образователни институции, правоприлагане и миграция.

[Законът за изкуствения интелект] също забранява системите, насочени към категоризиране или „оценяване“ на хора, включително дистанционна биометрична идентификация в реално време за целите на правоприлагането в обществено достъпни пространства — с изключение на „изчерпателно изброените и тясно дефинирани ситуации”.

Той също така забранява системите, насочени към категоризиране или „оценяване” на хора, включително дистанционна биометрична идентификация в реално време за целите на правоприлагането в обществено достъпни пространства (с изключение на „изчерпателно изброени и тясно дефинирани ситуации”).

Второ, скорошната разпоредба също премества общите случаи на „идентифициране или предположение за емоции или намерения на физически лица въз основа на техните биометрични данни” към категорията „висок риск”, която също включва системи свързани с определени критични инфраструктури, медицински устройства, системи за определяне на достъпа до образователни институции или за набиране на хора, правоприлагане и правосъдие.

„Потенциално катастрофален“ за иновациите: Технологичният сектор реагира на Закона за изкуствения интелект на ЕС, казвайки, че отива твърде далеч. Какво въздействие може да има Законът за изкуствения интелект на ЕС върху работните места?

И въпреки че не всяка „ефективна компютърна“ система ще принадлежи на категорията с висок риск. В настоящата разпоредба тази категория изисква необходимостта да се информира потребителят, ако такива алгоритми са налице, да се въведе намаляване на риска и човешки надзор и да се гарантират висококачествени набори от данни, надеждност и точност, подробна документация (която може да включва регулаторни пясъчни кутии).

Прозрачност в основата

Също така, документът въвежда категорията „специфичен риск за прозрачност“. Това означава, че когато използват AI системи като chatbots, потребителите трябва да са наясно, че взаимодействат с машина.

Съдържанието, генерирано от AI, ще трябва да бъде етикетирано като такова и потребителите трябва да бъдат информирани, когато се използват системи за биометрична категоризация или разпознаване на емоции. По-специално, помощните случаи на използване на системи за разпознаване на емоции и експресия могат да включват социални асистенти и роботика или интелигентни устройства, поддържащи разстройства от аутистичния спектър или когнитивни увреждания, свързани с нарушени емоции, изрази и социална обработка.

Четвърто, Законът за ИИ въвежда специални правила за ИИ с общо предназначение. Такива модели, включително широки приложения на текст, изображение, разпознаване и преобразуване на реч, откриване на шаблони и базирана на езика механика, могат да подхранват съществуващите екосистеми за достъпност, помощни средства и настаняване, изискващи комуникация или взаимодействие с пациента или ученика.

Такива алгоритми могат да се използват в различни социални и обществени контексти, образователни или зареждащи терапевтични ботове, лични асистенти, инструменти за когнитивни или сензорни увреждания, разстройства от аутистичния спектър или дислексия.

Въз основа на разпоредбите такива модели трябва да гарантират прозрачност през всички етапи на развитие.

За много мощни модели, които биха могли да представляват системни рискове, ще има допълнителни обвързващи задължения, свързани с управлението на рисковете и наблюдението на сериозни инциденти, извършването на оценка на модела и състезателното тестване. Освен това организациите, които стоят зад големи езикови модели с отворен код, трябва да разкрият своите данни за обучение.

Лицемерието на правителствата на ЕС е наяве по отношение на опасната полиция ИИ Борбата за Закона за ИИ е ясен случай на защита на общественото благо

Най-накрая , разпоредбите на политиката въвеждат механизмите за глоби и санкции. Глобите ще варират от 35 милиона евро или 7% от световния годишен оборот за нарушения на забранени приложения за ИИ до 15 милиона евро или 3% за нарушения на други задължения. Предвидени са по-пропорционални тавани за административни глоби за МСП и стартиращи фирми.

Балансиране на улесняването и защитата

Въпреки по-стриктното спазване на определени категории, важно е да запомните, че топологията и рискът базираният механизъм на Закона за изкуствения интелект на ЕС не възниква във вакуум, а по-скоро разширява механизма, който вече е бил в употреба и еволюирал с времето.

По-специално, той следва историята на критериите за оценка, използвани от технологичен трансфер, МСП и иновационни екосистеми като Хоризонт 2020, програмата на ЕС за финансиране на научни изследвания и иновации, с близо 80 милиарда евро налично финансиране за 7 години.

Европейската комисия получи обжалвания и коментари относно правата на ИИ и хората с увреждания, използването на биометрични системи, системи за разпознаване на лица и емоции и случаи, засягащи бежанци и имигранти, включително автоматизирана оценка на риска и профилиране системи.

Такива програми използваха безопасността, поверителността и въздействието като един от критериите за оценка на приложенията.

С течение на времето определени програми бяха допълнени с други специфични критерии, включително социално и икономическо въздействие на държавите членки, използвани техники за намаляване на риска.

То също така логично следва естеството на съществуващото законодателство за данните и поверителността на държавите-членки и рамки за целия ЕС, като GDPR, които преди това се отнасяха до определени групи, системи за профилиране и биометрични данни.

За да защитим нашите права, Законът за ИИ на ЕС трябва да включва гаранции за върховенството на закона. Всички погледи към ЕС: Ще защити ли европейското законодателство за ИИ правата на хората?

Освен това, след първоначалното предложение за Закон за ИИ на ЕС през 2021 г., Европейската комисия получи обжалвания и коментари, насочени към ИИ и правата на хората с увреждания, използването на биометрични системи, системи за разпознаване на лица и емоции и случаи, засягащи бежанци и имигранти, включително автоматизирана оценка на риска и системи за профилиране. Тези съображения също се отразиха на разпоредбите на закона.

Обществеността, заинтересованите страни, приемането и пътят напред

От самото си създаване Законът за ИИ имаше за цел да стане първият документ в света, който внедрява повече системи и алгоритми, ориентирани към човека, осигуряващи както неговото улесняване, така и регулиране.

Това изпрати мощен сигнал към технологичната екосистема, извеждайки я от черната кутия на работата на оценителя към по-широко общество.

Това беше последвано от подобни разпоредби и усилия на глобалната сцена, включително срещата на върха за безопасността в Обединеното кралство и Декларацията от Блечли, директивата на САЩ за ИИ, специални рамки, управлявани от ЮНЕСКО, СЗО и ОИСР, насочени към големи езикови модели в области на здравеопазването, образованието, труда и работата, обществените системи, с приноса на специализирани институции, изследователи, експерти и заинтересовани страни.

Окончателната разпоредба на закона беше приветствана и от Digital SME alliance, подчертавайки „подход, базиран на риска, който се насърчава чрез точни, ограничени и международно признати дефиниции и прагове“, установявайки регулаторни пясъчни кутии и реални световни възможности за тестване.

Що се отнася до определени групи и специални категории помощни технологии, Законът за ИИ не забранява използването на алгоритми в тази област, но предоставя допълнително съответствие и изисквания.

На настоящия етап не обхваща всички случаи и сценарии, топологии и терминология, но може да допълни съществуващото законодателство на държавите-членки, включително законите за достъпност, равенство или социална защита.

Накрая, за да се гарантира по-добра социална защита и достъп за уязвими групи, непълнолетни или специални случаи на употреба — като манипулиране на платформата, невидими рискове или пристрастяващ алгоритмичен дизайн, също отразени в член 5.1 на Закона за ИИ — може да да бъдат допълнени от законодателство, което не е свързано с изкуствен интелект, като например Закона за достъпността, конкретни членове от Закона за цифровите услуги, специални директиви и насоки.

Йона Уелкър е експерт по изкуствен интелект, технологичен изследовател и публичен глас за алгоритмично разнообразие, работещ върху Финансирани от Европейската комисия проекти за научни изследвания, технологии и иновации.

Ние в Euronews вярваме, че всички мнения имат значение. Свържете се с нас на [email protected], за да изпратите предложения или предложения и да станете част от разговора.

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!