Световни новини без цензура!
Становище: Изключителното извинение на Марк Зукърбърг трябва да е само началото
Снимка: cnn.com
CNN News | 2024-02-01 | 16:31:27

Становище: Изключителното извинение на Марк Зукърбърг трябва да е само началото

Бележка на редактора: Кара Алаймо, доцент по комуникация в университета Феърли Дикинсън, пише за проблеми, засягащи жените и социалните медии. Нейната книга „ ще бъде публикувана от Alcove Press на 5 март 2024 г. Следвайте я на ,  и . Мненията, изразени в този коментар, са нейни собствени. Прочетете в CNN.

В сряда главните изпълнителни директори на Meta, TikTok, X, Snap и Discord свидетелстваха пред Сената за това какво правят, за да защитят децата от вреда онлайн. Докато Марк Зукърбърг от Meta и Shou Chew от TikTok се явиха доброволно, сенаторът от Демократическата партия Дик Дърбин от Илинойс наказа Евън Шпигел от Snap, Линда Якарино от X и Джейсън Ситрон от Discord, че трябва да бъдат призовани и отбеляза, че федералните маршали трябва да бъдат изпратени в офисите на Citron, за да служат на неговите призовка.

Дърбин обвини социалните мрежи в увреждане на психичното здраве на децата, като каза, че те не само „са допринесли за тази криза, те са отговорни за много от опасностите, пред които са изправени нашите деца онлайн“.

Сенаторите също изразиха загриженост относно начина, по който децата биват експлоатирани онлайн. „Сексуалните изнудвачи“ например убеждават децата да споделят пикантни изображения – понякога като се преструват, че създават романтична връзка – и след това ги изнудват, като заплашват да направят изображенията публични, ако не предоставят по-явно съдържание или пари (или понякога , и двете). Това може да унищожи живота на хората и да ги изложи на риск от депресия и самоубийство. „Имате кръв по ръцете си“, каза сенаторът републиканец от Южна Каролина Линдзи Греъм на ръководителите.

В навечерието на свидетелските показания технологичните компании обявиха нови инициативи за защита на децата. Приложения като Instagram и TikTok карат децата да си правят почивки или да ограничават времето си пред екрана и са променили своите алгоритми, за да показват на децата по-малко токсично съдържание, като публикации за хранителни разстройства. Meta казва, че крие този вид неподходящо съдържание от децата и е променила настройките за поверителност по подразбиране на тийнейджърите, за да предотврати хората, които не познават, да им изпращат съобщения. Snapchat дава на родителите повече възможности за контрол, като информация за настройките за безопасност на децата им.

Чу свидетелства, че в TikTok акаунтите за деца под 16-годишна възраст са зададени като частни и не се препоръчват на хора, които не познават, а Яккарино каза, че децата на възраст между 13 и 17 не могат да приемат съобщения от хора, които не познават одобри на X. Spiegel отбеляза, че няма публични харесвания или коментари в Snapchat. Това са всички критични характеристики.

Зукърбърг също се изправи и се извини на семействата на деца, наранени от социалните медии, които присъстваха на изслушването, като каза: „Съжалявам за всичко, през което сте преминали. Никой не трябва да преминава през нещата, които вашите семейства са претърпели, и затова ние инвестираме толкова много и ще продължим да полагаме усилия в цялата индустрия, за да сме сигурни, че никой не трябва да преминава през нещата, които вашите семейства са претърпели.“

Но не е достатъчно. Законодателите и технологичните компании трябва да направят много повече, за да защитят нашите деца.

Законът Stop CSAM (Child Sexual Abuse Materials) от 2023 г. ще направи възможно технологичните компании да бъдат подведени под гражданска отговорност за хостване на материали със сексуално насилие над деца. Това би бил важен начин за стимулиране на технологичните компании да направят повече, за да защитят децата от сексуално изнудване и други форми на онлайн експлоатация.

Законът SHIELD би криминализирал споделянето или заплахата за споделяне на интимни изображения без съгласието на лицето (което е популярно известно като „порно за отмъщение“). Това също е основен начин за защита на деца и възрастни.

Технологичните компании също имат много повече работа. Въпреки че може да твърдят, че показват на децата по-малко вредни публикации, все още не е ясно как идентифицират какво е вредно. Технологичните компании трябва да работят с експерти по здравето на подрастващите, за да разработят и споделят стандарти за съдържание, което може да се показва на деца, така че потенциално вредни публикации за неща като изображение на тялото и психично здраве изобщо да не се появяват в техните емисии, така че създателите на съдържание да знаят какви са правилата и може да се опита да ги спазва. След това те трябва да наемат много повече човешки модератори, за да определят дали съдържанието отговаря на тези стандарти, преди да го покажат на деца.

Не можем да се доверим на инструменти за изкуствен интелект за извършване на тази проверка – един вътрешен документ показа, че автоматизираните системи са премахнали по-малко от 1% от съдържание, което нарушава правилата на компанията за насилие и подбуждане, например. (Зукърбърг каза по време на изслушването, че „около 99%“ от съдържанието, което Meta премахва, се идентифицира автоматично с помощта на AI.) Но да се открият начини хората да проверяват съдържанието не е толкова трудно, колкото може да звучи – Snapchat, например, не t популяризира видеоклипове от своята създателска програма на повече от 25 души, докато не бъдат прегледани от човешки модератори.

Също така трябва да знаем на какви големи тенденции са изложени нашите деца онлайн. Понастоящем никоя от тези платформи не ни дава добри метрики за това какво е тенденцията в техните платформи. TikTok, например, наскоро деактивира функцията за търсене на инструмент, който позволява на хората да търсят популярни хаштагове в приложението, на фона на доклад, според който теми, цензурирани от китайското правителство, са по-малко разпространени в TikTok, отколкото в Instagram. Всички социални приложения трябва да предоставят инструменти, които показват какво е тенденцията, и също така разбиват какво е тенденцията сред потребителите под 18 години, така че родителите да знаят за какво да говорят с децата си.

Както пиша в моята предстояща книга „Над влиянието: защо социалните медии са токсични за жените и момичетата – и как можем да си ги върнем“, когато децата търсят съдържание, свързано с психичното здраве, технологичните компании трябва да им показват кутии с връзки на организации, които могат да им помогнат. Учудващо е да се мисли, че вместо това на децата, които търсят това съдържание, може да се предоставят видеоклипове, които влошават проблемите им.

В моята книга също твърдя, че тези приложения трябва да идентифицират кога снимките са били филтрирани или манипулирани по друг начин, така че на децата постоянно да се напомня, че изображенията, които виждат на телата на други хора, често не са реални. Това може да им помогне да развият реалистични изображения на тялото.

Вземете нашия безплатен седмичен бюлетин

И накрая, тези технологични компании трябва да се справят по-добре с използването на своите платформи, за да предоставят на децата информация, която им помага и ги овластява – като уроци как да използват социалните медии по здравословен начин. Например, по петите на голи deepfakes на Тейлър Суифт, които циркулират онлайн през последните дни, социалните приложения трябва да показват на децата съдържание за това как да разпознават фалшиви изображения и защо никога не трябва да ги създават или да се ангажират с тях. Както пиша в книгата си, когато голи изображения на жена циркулират онлайн, това я излага на по-голям риск от сексуално насилие, безработица, затруднено запознанство, депресия и дори самоубийство.

Техническите ръководители обещаха да защитят децата в показанията си пред сенатори. Но те не обещаха да направят това, което всъщност е необходимо, за да защитят физическото и психическото благополучие на децата. За да защитят децата в своите приложения, те трябва да създадат и наложат по-добри стандарти за съдържание, което се показва на децата, заедно с повече човешки модератори, ресурси за психично здраве, уроци за деца и разкриване, когато съдържанието е манипулирано. И законодателите трябва да приемат законодателство за борба със сексуалната експлоатация онлайн. Тези видове решения биха дали на родителите нещо, което наистина да харесат.

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!