Световни новини без цензура!
Индийското правителство на Моди бърза да регулира изкуствения интелект преди националните избори
Снимка: aljazeera.com
Aljazeera News | 2024-03-13 | 08:00:43

Индийското правителство на Моди бърза да регулира изкуствения интелект преди националните избори

Ню Делхи, Индия — Индийското правителство поиска от технологичните компании да потърсят изричното му съгласие, преди публично да лансират „ненадеждни“ или „под -тествани” генеративни AI модели или инструменти. Той също така предупреди компаниите, че техните AI продукти не трябва да генерират отговори, които „застрашават целостта на изборния процес“, докато страната се подготвя за национален вот.

Усилията на индийското правителство за регулиране на изкуствения интелект представляват отстъпление от предишната му позиция на подход на бездействие, когато информира парламента през април 2023 г., че не разглежда никакво законодателство за регулиране на ИИ.

Съветът беше издаден миналата седмица от индийското Министерство на електрониката и информационните технологии (MeitY) за кратко след като Gemini на Google се сблъска с дясна реакция за отговора си на въпрос: „Моди фашист ли е?“

Той отговори, че индийският премиер Нарендра Моди е „обвинен в прилагане на политика, която някои експерти характеризират като фашистка“, цитирайки „репресиите на неговото правителство срещу несъгласието и използването на насилие срещу религиозни малцинства“.

Раджиев Чандрасекар, младши министър на информационните технологии, отговори, като обвини Gemini на Google в нарушаване на законите на Индия. „„Съжалявам, „ненадеждни“ не освобождават от закона“, добави той. Чандрашекар твърди, че Google се е извинил за отговора, заявявайки, че е резултат от „ненадежден“ алгоритъм. Компанията отговори, като каза, че се занимава с проблема и работи за подобряване на системата.

На Запад големите технологични компании често са изправени пред обвинения в либерални пристрастия. Тези обвинения в пристрастност се пренесоха към генеративни AI продукти, включително ChatGPT на OpenAI и Microsoft Copilot.

Междувременно в Индия съветите на правителството породиха опасения сред предприемачите с изкуствен интелект, че тяхната зараждаща се индустрия може да бъде задушена от твърде много регулации. Други се притесняват, че тъй като националните избори ще бъдат обявени скоро, препоръката може да отразява опит на правителството на Моди да избере кои AI приложения да разреши и кои да забрани, което на практика му дава контрол над онлайн пространствата, където тези инструменти са влиятелни.

„Усещане за лицензиран радж“

Съветът не е законодателство, което е автоматично обвързващо за компаниите. Неспазването обаче може да доведе до наказателно преследване съгласно Закона за информационните технологии на Индия, казаха адвокати пред Al Jazeera. „Този ​​необвързващ съвет изглежда по-скоро политическа поза, отколкото сериозна политика“, каза Миши Чудхари, основател на индийския Център за софтуерна свобода. „Ще видим много по-сериозен ангажимент след изборите. Това ни дава възможност да надникнем в мисленето на политиците.“

Въпреки това съветът вече изпраща сигнал, който може да се окаже задушаващ за иновациите, особено при стартиращи фирми, каза Харш Чудри, съосновател на Sentra World, базирана в Бенгалуру компания за решения за изкуствен интелект. „Ако всеки AI продукт се нуждае от одобрение – това изглежда невъзможна задача и за правителството“, каза той. „Може да се нуждаят от друг GenAI (генеративен AI) бот, за да тестват тези модели“, добави той, смеейки се.

Няколко други лидери в генеративната AI индустрия също критикуваха съвета като пример за регулаторно превишаване. Мартин Касадо, генерален партньор в базираната в САЩ инвестиционна фирма Andreessen Horowitz, написа в платформата на социалните медии X, че този ход е „пародия“, „антииновация“ и „антипублика“.

Бинду Реди, главен изпълнителен директор на Abacus AI, написа, че с новия съвет „Индия току-що се сбогува с бъдещето си!“

На фона на тази обратна реакция Чандрашекар издаде пояснение относно X, като добави, че правителството ще освободи стартиращите фирми от търсенето на предварително разрешение за внедряване на генеративни AI инструменти в „индийския интернет“ и че препоръката се отнася само за „значими платформи“.

Но остава облак от несигурност. „Съветът е пълен с двусмислени термини като „ненадежден“, „непроверен“ [и] „индийски интернет“. Фактът, че бяха необходими няколко разяснения, за да се обясни обхватът, приложението и намерението, е показателен признак за прибързана работа“, каза Миши Чоудхари. „Министрите са способни хора, но нямат необходимите средства, за да оценят моделите за издаване на разрешения за работа.“

„Нищо чудно, че [е] събудил чувствата на лицензиран радж от 80-те“, добави тя, имайки предвид бюрократичната система за изискване на правителствени разрешения за бизнес дейности, преобладаваща до началото на 90-те години, която задушаваше икономическия растеж и иновациите в Индия .

В същото време изключенията от съветите само за ръчно подбрани стартиращи фирми може да дойдат с техните проблеми — те също са уязвими за създаване на политически пристрастни отговори и халюцинации, когато AI генерира погрешни или изфабрикувани резултати. В резултат на това изключението „повдига повече въпроси, отколкото дава отговори“, каза Миши.

Харш Чудри каза, че вярва, че намерението на правителството зад регламента е да държи компаниите, които монетизират инструменти за ИИ, отговорни за неправилни отговори. „Но подходът на първо разрешение може да не е най-добрият начин да го направите“, добави той.

Сенките на deepfake

Стъпката на Индия да регулира съдържанието на AI също ще има геополитически последици, твърди Шрути Шрея, старши програмен мениджър за регулиране на платформите в The Dialogue, мозъчен тръст за технологична политика.

„С бързо нарастващата интернет потребителска база политиките на Индия могат да създадат прецедент за начина, по който други нации, особено в развиващия се свят, подхождат към регулирането на съдържанието на ИИ и управлението на данните“, каза тя.

За индийското правителство справянето с регулациите за ИИ е труден акт за балансиране, казаха анализатори.

Планира се милиони индийци да гласуват в националните избори, които вероятно ще се проведат през април и май. С нарастването на лесно достъпните и често безплатни генеративни AI инструменти Индия вече се превърна в площадка за манипулирани медии, сценарий, който хвърли сянка върху почтеността на изборите. Основните политически партии в Индия продължават да използват deepfakes в кампании.

Камеш Шекар, старши програмен мениджър с фокус върху управлението на данни и AI в мозъчния тръст The Dialogue, каза, че неотдавнашният съвет трябва да се разглежда и като част от продължаващите усилия на правителството сега да изготви всеобхватни регулации за генериране на AI.

По-рано, през ноември и декември 2023 г., индийското правителство поиска от големите технологични фирми да премахнат дълбоко фалшиви артикули в рамките на 24 часа след жалба, да поставят етикети на манипулирани медии и да положат проактивни усилия за справяне с дезинформацията – въпреки че не споменаха никаква изрични наказания за неспазване на директивата.

Но Шекар също каза, че политика, според която компаниите трябва да търсят одобрение от правителството, преди да пуснат продукт, би попречила на иновациите. „Правителството би могло да обмисли създаването на пясъчна среда – среда за тестване на живо, където AI решения и участващи субекти могат да тестват продукта без широкомащабно внедряване, за да се определи неговата надеждност“, каза той.

Не всички експерти обаче са съгласни с критиките към индийското правителство.

Тъй като AI технологията продължава да се развива с бързи темпове, за правителствата често е трудно да се справят. В същото време правителствата наистина трябва да се намесят, за да регулират, каза Хафиз Малик, професор по компютърно инженерство в Университета на Мичиган със специализация в откриването на дълбоки фалшификати. Да оставим компаниите да се регулират сами би било глупаво, каза той, добавяйки, че съветите на индийското правителство са стъпка в правилната посока.

„Регламентите трябва да бъдат въведени от правителствата“, каза той, „но те не трябва да идват с цената на иновациите“.

В крайна сметка обаче, добави Малик, това, което е необходимо, е по-голяма обществена осведоменост.

Да видиш нещо и да повярваш, че е вече изключено“, каза Малик. „Освен ако обществеността няма осведоменост, проблемът с deepfake не може да бъде решен. Осъзнаването е единственият инструмент за решаване на много сложен проблем.“

Източник: aljazeera.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!