Human Rights Watch denuncia il fallimento dell'azienda di Zuckerberg nel garantire la protezione dei diritti umani sulle sue piattaforme
Erano state fatte promesse circa un cambiamento di paradigma. Ma, a due anni di distanza, le politiche di censure applicate da Meta non sono ancora cambiate. È quanto sostiene in un rapporto di oltre 50 pagine Human Rights Watch che denuncia la rimozione sistemica di contenuti su Facebook e Instagram riguardanti gli eventi che si stanno attualmente svolgendo nella Striscia di Gaza a danno della popolazione palestinese e i discorsi che promuovono la pace e i dibattiti pubblici.
L'Ong ha analizzato 1'050 casi di censura online in 60 Paesi e individuato sei pattern chiave in almeno 100 casi: questi sono rimozione del contenuto, sospensione o cancellazione dell'account, incapacità di interagire con i contenuti, di seguire o taggare un account, restrizioni all'uso delle features come le dirette e shadow banning. In oltre 300 casi, inoltre, gli utenti non potevano appellarsi alle misure perché le funzioni di ricorso non funzionavano e impedivano quindi di porre rimedio alla situazione.
Numerosi utenti e attivisti - nella maggior parte dei casi sono persone comuni che vogliono esprimere il proprio punto di vista - hanno comunque trovato un modo per discutere con la propria community della situazione palestinese, inserendo asterischi al posto delle lettere nei post, bippando la voce su parole quali "Palestina", "guerra" e "genocidio" e, alle volte, pubblicando lo screenshot dell'avviso di censura di un contenuto da parte da Meta, in cui si vede il contenuto stesso.
Il problema deriverebbe, spiega l'Ong «da politiche Meta imprecise e dalla loro attuazione incoerente ed errata, dall'eccessivo affidamento a strumenti automatici per moderare i contenuti e dall'indebita influenza del governo sulla rimozione dei contenuti». In particolare in centinaia di casi Meta avrebbe fatto ricorso alla sua "Dangerous organizations and Individuals" policy, applicandola «in modo radicale» per «limitare i discorsi legittimi sulle ostilità tra gruppi armati palestinesi e israeliani».
Ma non solo. «Meta ha applicato in modo errato le sue politiche sui contenuti forti e violenti, sulla violenza istigazione alla violenza, sull'incitamento all'odio e sulle immagini di nudo e atti sessuali di adulti. Ha applicato in modo incoerente la sua politica sui contenuti rilevanti, rimuovendo decine di contenuti che documentavano ferite e morti di palestinesi e che avevano valore di notizia».
Eppure, quasi due anni fa, Meta aveva ammesso che i suoi filtri potessero discriminare determinate tipologie di contenuti, censurandoli, e promesso che avrebbe implementato seri cambiamenti nella moderazione dei post. Il fatto che la l'azienda di Mark Zuckerberg non abbia mantenuto la sua parola, afferma Human Rights Watch, significa che ha «adempiuto le sue responsabilità di protezione dei diritti umani e le sue promesse infrante hanno replicato e amplificato i pattern di abuso».