Световни новини без цензура!
Meta премахна ненужно два видеоклипа на Израел-Хамас, казва Надзорният съвет
Снимка: cnn.com
CNN News | 2023-12-19 | 13:30:26

Meta премахна ненужно два видеоклипа на Израел-Хамас, казва Надзорният съвет

Автоматизираните инструменти на компанията-майка на Facebook за контролиране на потенциално вредно съдържание премахнаха ненужно два видеоклипа, свързани с войната Израел-Хамас, се казва в изявление на Надзорния съвет на Meta във вторник. Технологията за модериране може да е попречила на потребителите да гледат съдържание, свързано с човешкото страдание и от двете страни в конфликта, се казва в съобщението.

Коментарите са резултат от първия „експресиран преглед“ на Надзорния съвет, който подчертава интензивния контрол, пред който са изправени компаниите за социални медии относно тяхното боравене със съдържание, свързано с конфликта.

Бордът отмени първоначалното решение на Meta да премахне две части от съдържание. Като част от решението групата призова Meta да зачита правата на потребителите на „свобода на изразяване … и способността им да комуникират в тази криза“.

„Бордът се фокусира върху защитата на правото на свобода на изразяване на хората от всички страни относно тези ужасяващи събития, като същевременно гарантира, че нито едно от свидетелствата не подбужда към насилие или омраза“, каза Майкъл Макконъл, съпредседател на борда, в изявление. „Тези свидетелства са важни не само за лекторите, но и за потребителите по целия свят, които търсят навременна и разнообразна информация за революционни събития.“

В отговор на решението на борда, Meta каза, че тъй като вече е възстановила двете части от съдържанието преди решението на борда, няма да предприема допълнителни действия. „Както изразяването, така и безопасността са важни за нас и хората, които използват нашите услуги“, каза компанията в публикация в блог.

Надзорният съвет на Meta е организация, съставена от експерти в области като свободата на изразяване и човешките права. Често се описва като вид върховен съд за Meta, тъй като позволява на потребителите да обжалват решения за съдържание в платформите на компанията. Бордът дава препоръки на компанията за това как да се справи с определени решения за модериране на съдържание, както и по-общи предложения за политика.

Бордът каза по-рано този месец, че е решил да предприеме по-бърз преглед в този случай, тъй като решенията за съдържанието, свързани с войната, могат да имат „спешни последствия в реалния свят“. В седмиците след избухването на конфликта Израел-Хамас бордът каза, че е забелязал почти трикратно увеличение на средните дневни потребителски обжалвания на решения относно съдържание, „свързано с региона на Близкия изток и Северна Африка“.

Мета каза пред CNN през октомври, че е създал „център за специални операции, обединен от експерти, включително владеещи иврит и арабски, за да наблюдава отблизо и да реагира на тази бързо развиваща се ситуация“, и че координира с трети страни проверяващи факти в регион.

Надзорният съвет каза във вторник, че след избухването на конфликта Meta е въвела временни мерки за справяне с потенциално опасно съдържание, включително намаляване на праговете за автоматично премахване на съдържание, което би могло да наруши нейните политики за реч на омраза, насилие и подстрекаване, както и за малтретиране и тормоз.

„С други думи, Meta използва автоматизираните си инструменти по-агресивно, за да премахне съдържание, което може да е забранено“, каза бордът, добавяйки, че компанията е предприела тези стъпки, за да приоритизира безопасността, но този ход също така „увеличава вероятността Meta погрешно да премахне не- нарушаване на съдържание, свързано с конфликта.“ Бордът каза, че към 11 декември Meta не е върнала праговете за модериране на съдържанието за своите автоматизирани системи до нормалните нива.

Прегледът на борда разгледа две части от съдържание: видео, публикувано в Instagram, което изглежда показва последиците от стачка пред болницата Al-Shifa в град Газа и друго видео, публикувано във Facebook, показващо двама заложници, отвлечени от бойци на Хамас.

Първото видео се появи, показвайки „хора, включително деца, ранени или мъртви, лежащи на земята и/или плачещи“. Надпис под видеото на арабски и английски се позовава на израелската армия, като се посочва, че болницата е била „мишена на „узурпаторската окупация“, каза бордът.

Автоматизираните системи на Meta първоначално премахнаха публикацията за нарушаване на нейните правила за графично и насилствено съдържание. Потребител обжалва решението, като поиска видеото да бъде възстановено, което беше автоматично отхвърлено от системите на Meta, след като те определиха с „високо ниво на увереност“, че съдържанието нарушава правилата. След като бордът реши да се заеме със случая, Мета направи видеото достъпно за гледане с предупреждение, че съдържанието е смущаващо; предупреждението също така не позволява видеото да бъде гледано от непълнолетни и да не бъде препоръчвано на възрастни потребители.

Надзорният съвет каза във вторник, че видеоклипът не е трябвало да бъде премахван на първо място, и разкритикува хода на Meta да ограничи разпространението на видеоклипа, заявявайки, че „не е в съответствие с отговорностите на компанията да зачита свободата на изразяване“.

Второто видео, прегледано от борда, показва жена на мотоциклет и мъж, отведени от бойци на Хамас, с надпис, призоваващ хората да гледат, за да придобият „по-задълбочено разбиране“ за атаката срещу Израел на 7 октомври.

Първоначално Meta премахна публикацията за нарушаване на своята политика за опасни организации и лица, която забранява изображения на терористични атаки срещу видими жертви, дори ако се споделят с цел повишаване на осведомеността за такава атака. (Мета определя Хамас като опасна организация според политиката си и определя атаката от 7 октомври като терористична атака.)

Компанията възстанови видеото с предупредителен екран, след като бордът се зае със случая, част от по-мащабен ход за разрешаване на ограничени изключения от нейната политика за опасни организации и лица в случаите, когато съдържанието има за цел да осъди, да повиши осведомеността или да докладва за отвличанията , или да призовават за освобождаване на заложниците. Подобно на другия видеоклип, предупредителният екран ограничава видимостта на видеоклипа за непълнолетни и предотвратява препоръчването му на други потребители на Facebook.

Както в случая с първия видеоклип, бордът каза, че съдържанието не трябва да бъде премахнато и каза, че предотвратяването на видеоклипа да бъде препоръчан поставя Meta извън съответствие с отговорностите си за правата на човека.

Meta заяви във вторник, че няма да промени ограниченията си за препоръчване на двата видеоклипа, прегледани от борда, тъй като бордът не е съгласен с ограниченията, но не е направил официална препоръка за това как трябва да се третират.

„Бордът намира, че изключването на съдържание, което повишава осведомеността за потенциални нарушения на човешките права, конфликти или терористични актове от препоръките, не е необходимо или пропорционално ограничение на свободата на изразяване, с оглед на много високия обществен интерес към такова съдържание“, се казва в него. се казва в решението си.

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!