Световни новини без цензура!
Евроизгледи.
            
Лицемерието на правителствата на ЕС е наяве по отношение на опасния полицейски AI
Снимка: euronews.com
Euro News | 2023-12-04 | 18:18:09

Евроизгледи. Лицемерието на правителствата на ЕС е наяве по отношение на опасния полицейски AI

Нашите правителства трябва да са готови да влагат парите си там, където им е устата, като гарантират, че държавните употреби на ИИ са предмет на същите разумни правила и изисквания като всяка друга система с ИИ, пише Ела Якубовска.

Обещанията за решаване на най-големите проблеми на обществото, както и твърденията за риск от изчезване на хората, изглежда са най-горещите теми за изкуствения интелект, доминиращи в заглавията.

Но този фокус върху обещаното далечно бъдеще често отклонява вниманието от реалните и настоящи рискове.

Един от проблемите, които опасно сме пренебрегнали, е, че използването на AI системи ще разшири вече огромния дисбаланс на властта между държави и хора.

Като обекти на използването на AI технологии от полицията и други органи, това трябва да тревожи всеки един от нас. Бързо нарастващото използване на AI системи в полицията и границите, социалните грижи и образованието трансформира публичната администрация и публичните пространства до неузнаваемост.

Крайно време е да приложим добре установени процедурни правила и гаранции за контекста на AI. Твърденията, че „свръхрегулирането“ ще „убие“ иновациите, са червена херинга, отклоняваща вниманието от факта, че вече непропорционалният държавен — и корпоративен — контрол върху живота ни ще бъде утвърден, ако не успеем да приложим същите проверки и баланси към системите за ИИ, които правим във всички други области на живота.

Въпреки това правителствата на ЕС отблъскват рязко, опитвайки се да изпразнят всякакъв смисъл от законодателните опити да предпазят хората от най-вредните употреби на ИИ.

Законът за изкуствения интелект на ЕС наближава края си

В ЕС дългоочакваният Закон за изкуствения интелект достига своя последен етап от преговори. Един от ключовите принципи на този законопроект винаги е бил, че хората и обществата трябва да могат да се „доверяват“ на използването на AI системи, по-специално знаейки, че рисковите системи са правилно регулирани и че изключително рисковите системи са забранени.

Активистите за граждански права твърдят, че инвазивните и манипулативни практики като публично лицево разпознаване и предсказуема полиция трябва да бъдат напълно забранени. Биометричното масово наблюдение на протести, търговски улици, паркове и други обществени пространства не може да бъде прието в едно свободно общество.

Основният аргумент на правителствата на ЕС е, че трябва да им се доверим, за да ги използват системи по начини, които ще ни предпазят [...], че забраните са твърде груб инструмент и че предпазните мерки са достатъчни, за да предотвратят злоупотреби.

И все пак опитите на Европейския парламент да попречи на правителствата да не могат използването на AI системите по този начин са възпрепятствани от поне двадесет и шест правителства на държавите-членки на ЕС.

С наближаването на гласуването на Закона за изкуствения интелект ЕС трябва да начертае червена линия на расисткото наблюдение.Ретроспективното наблюдение с лицево разпознаване прикрива нарушенията на човешките права пред очите

Тези държави-членки дават приоритет на удобството и дори на целите за строги икономии пред правилните проверки и баланси, които биха ни предпазили от нараняване от рискови AI системи.

Основният аргумент на правителствата на ЕС е, че трябва да им вярваме да използват тези системи по начини, които ще ни предпазят. Те твърдят, че забраните са твърде груб инструмент и че предпазните мерки са достатъчни, за да предотвратят злоупотреби.

Доверието в полицейския ИИ трябва да се спечели

И все пак, когато става въпрос за други държавни употреби на AI, разказът не може да бъде по-различен.

Същите правителства, които искат от нас да им се доверим, за да използват обществено лицево разпознаване и предсказуема полиция по „безопасен“ начин, са същите, които твърдят, че не трябва да следват правилата за ИИ, когато става въпрос за най-опасните държавни употреби на AI — като използването на AI от полицията и миграционните власти.

Това са точно случаите, в които най-много се нуждаем от прозрачност и отчетност. Цифровите технологии не променят факта, че за да контролират чрез съгласие, държавите разчитат на волята и доверието на хората, които управляват.

Но как трябва да се доверим на нашите правителства за безопасното използване на AI системи, когато те отказват да следват каквито и да било правила, които биха ни предпазили от вредата, която тази потенциално опасна технология може да причини?

Държавите от ЕС няма да спечелят доверието на хората, като държат използването на AI технологии в сянка, като отхвърлят контроли, които гарантират безопасен дизайн на системата, нито като позволяват безскрупулни сделки с AI корпорации, жадни за печалба.

Държавите от ЕС няма да спечелят доверието на хората, като държат използването на AI технологии в сянка, като отхвърлят контроли, които гарантират безопасен дизайн на системата, нито като позволяват безскрупулни сделки с AI корпорации, жадни за печалба.

Непрозрачността и технокрацията на AI индустрията прави още по-важно от всякога обществеността да получи разумна представа за това как нашите правителства използват тези системи.

Връщането към саморегулиране означава, че Законът за изкуствения интелект на ЕС няма да успее да спре вредите Всички погледи към ЕС: Ще защити ли европейското законодателство за ИИ правата на хората?

Без тази прозрачност рискуваме да имаме системи за ИИ, които изострят дискриминационните и вредни модели , хващайки хората в примки от фалшиви обвинения и изпитания чрез алгоритъм.

Забрана на най-опасните употреби

Въпреки твърденията на ястребови правителствени служители и доставчици на AI системи, забрани за неприемливо вредни употреби на AI системите не са тъп инструмент.

От гледна точка на правата на човека, ние говорим за спектър от предпазни мерки: от по-минимални предпазни мерки за по-малко рискови системи, чак до пълна забрана, когато знаем, че нещо просто не е съвместимо с справедливо общество.

Реалността е, че само много малък брой добре дефинирани случаи на използване на ИИ са на масата за забрана в целия ЕС в Закона за ИИ. Дори и тогава страните членки изглежда искат да правят изключения.

Групите на гражданското общество твърдят, че защитата на правата на личен живот, достойнство, свободно изразяване и равенство налага пълна забрана на масовото наблюдение [...] Правителствата на ЕС обаче настояват за предпазни мерки, които са толкова слаби, че са безсмислени.

Вземете публично лицево разпознаване — според първоначалния проект, само използването на системи в „реално време“ , „от разстояние“, от полицията и на „обществено достъпни места“ ще бъде предмет на забраната.

Забавете съвпадението с един час, направете го в павилион или от административен орган, или произволен брой други изключения, и вече няма да бъде забранено.

РЕКЛАМА За да защитим правата си, Законът за изкуствения интелект на ЕС трябва да включва гаранции за върховенството на закона Законът за изкуствения интелект на ЕС: Може ли забележителният стремеж на Европа да регулира изкуствения интелект да падне при последното препятствие?

Групите на гражданското общество обаче твърдят, че защитата на правата на неприкосновеност на личния живот, достойнство, свободно изразяване и равенството налага пълна забрана на масовото наблюдение и произволното използване на биометрични системи, както и строг контрол върху други употреби. Правителствата на ЕС обаче настояват за предпазни мерки, които са толкова слаби, че са безсмислени.

Проблемът с двойното мислене

Двойното мислене на правителствата на ЕС по тези въпроси издава липсата на съдържание на техните аргументи.

Неотдавнашната изпълнителна заповед на САЩ относно ИИ, например, показа, че наистина е възможно да се включат правоприлагащите органи и агенциите за национална сигурност в обхвата на правилата за ИИ.

Нашите правителства трябва да бъдат готови да влагат парите си там, където им е устата, като гарантират, че държавните употреби на ИИ са предмет на същите разумни правила и изисквания като всяка друга система с ИИ.

И в малкия брой случаи, в които използването на AI е доказано, че е твърде вредно, за да бъде безопасно, имаме нужда от забрани.

Без това няма да можем да се доверим, че Законът за ИИ на ЕС наистина дава приоритет на хората и правата.

Ела Якубовска е старши съветник по политиката в European Digital Rights (EDRi), мрежов колектив от организации с нестопанска цел, експерти, застъпници и академици, работещи за защита и напредък на цифровите права на целия континент.

В Euronews вярваме, че всички мнения имат значение. Свържете се с нас на [email protected], за да изпратите предложения или предложения и да станете част от разговора.

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!