Stando a un'indagine di Amnesty International, Facebook avrebbe contribuito allo scoppiare delle violenze contro il popolo senza patria
NAYPYIDAW - Senza patria. Senza casa. E senza giustizia. È il popolo Rohingya, perseguitato da decenni e che sei anni fa è stato vittima di un genocidio in Myanmar. Da allora, questa popolazione vive tra la Malaysia e il Bangladesh - in enormi campi profughi -, e ha richiesto l'asilo politico in Nepal, Indonesia, India e Thailandia. Se da un lato, la persecuzione di questo popolo ha radici molto lontane, dall'altro a fomentare l'odio fino a farlo scoppiare ci sarebbe stato un mezzo più che moderno: Facebook, chiamato oggi a risarcire le vittime.
Meta - che al tempo ancora non esisteva, ma il cui proprietario resta Mark Zuckerberg -, stando a un'indagine svolta da Amnesty International, non avrebbe tutelato i Rohingya - che dal 1982 non sono riconosciuti in Myanmar e sono quindi la più grande popolazione senza Stato - sulla sua piattaforma social e lasciato che i discorsi di odio e di incitamento alla violenza contro questa popolazione proliferassero in nome della merce di scambio più ambita di quest'era: i dati.
Utenti legati all’esercito e ai gruppi ultranazionalisti buddisti del Myanmar hanno usato per anni la piattaforma creando contenuti contro le persone che si professano musulmane e, scrive l'Ong in una dichiarazione del 2022, riempito il social «di fake news, come quelle che i Rohingya fossero “invasori” e che stessero preparando un colpo di stato di matrice islamista».
Siamo tra il 2012 e il 2017, e Facebook lancia una serie di sticker che invitano alla pace e che dovrebbero «far pensare due volte» gli utenti quando scrivono un contenuto. Tuttavia, gli sticker sono stati presi e utilizzati anche da chi veicolava messaggi di odio e l’algoritmo, interpretando i contenuti come positivi - data la presenza appunto degli sticker nei post -, li ha resi più visibili.
Nonostante in quel periodo Meta avesse ricevuto «ripetute comunicazioni e visite da parte di attivisti locali, l’azienda non aveva recepito l’allarme e non aveva applicato, quando sarebbe stato fondamentale applicarle, le sue politiche sul discorso d’odio». Negli anni l'Ong ha anche appurato che «studi interni di Facebook, risalenti al 2012, indicavano che Meta era a conoscenza del fatto che i suoi algoritmi potevano provocare gravi danni nel mondo reale». Solo nel 2016 la piattaforma ha riconosciuto che «i nostri sistemi di raccomandazione fanno crescere il problema» dell'estremismo.
Ma veniamo al presente. Oggi ricorrono i sei anni dal più grande esodo di Rohingya dallo Stato Rakhine del Myanmar - parliamo di 700mila persone, la metà delle quali bambini - a causa della persecuzione. In questa occasione, Amnesty afferma che «Meta dovrebbe risarcire immediatamente i Rohingya per il ruolo svolto da Facebook nella pulizia etnica nei confronti di questa minoranza perseguitata», che ha visto i suoi villaggi bruciare, la morte di migliaia di persone e l'abuso sessuale contro donne e ragazze.
«Gli algoritmi di Facebook e la spietata ricerca di profitti da parte di Meta hanno creato una cassa di risonanza che ha contribuito a fomentare l'odio verso il popolo Rohingya e a creare le condizioni che hanno costretto il gruppo etnico a fuggire in massa dal Myanmar». E, secondo Pat de Brún, responsabile Big Tech Accountability per l'Ong, «è giunto il momento che Meta affronti le proprie responsabilità pagando un risarcimento ai Rohingya e correggendo il proprio modello di business per evitare che questo si ripeta».