Facebook permette annunci che chiedono lo “Olocausto” dei palestinesi

Washington – MEMO. Una serie di pubblicità incendiarie inviate a Facebook che invocavano la violenza e il genocidio contro i palestinesi sono state approvate dalla piattaforma, come ha rivelato Intercept.

Gli annunci hanno violato sfacciatamente le politiche di Facebook, contenendo inviti espliciti a “spazzare via donne e bambini gazawi” e chiedendo un “Olocausto per i palestinesi”, eppure hanno superato i filtri di moderazione automatica della piattaforma.

“L’approvazione di questi annunci è solo l’ultimo di una serie di fallimenti di Meta nei confronti del popolo palestinese”, ha dichiarato a Intercept Nadim Nashif, fondatore del gruppo di ricerca e difesa dei social media palestinesi 7amleh, che ha presentato gli annunci di prova. “Nel corso di questa crisi, abbiamo visto un modello continuo di chiari pregiudizi e discriminazioni di Meta nei confronti dei palestinesi”.

Gli annunci presentati, sia in ebraico che in arabo, includevano flagranti violazioni delle politiche di Facebook e della sua società madre Meta. Alcuni avevano contenuti violenti che invitavano direttamente all’omicidio di civili palestinesi.

L’idea di testare il sistema di filtraggio automatico dei contenuti di Facebook è nata quando Nashif ha visto una pubblicità su Facebook che invitava direttamente all’omicidio dell’attivista per i diritti dei palestinesi Paul Larudee.

Il post sponsorizzato era passato e approvato dagli strumenti di valutazione automatica di Facebook che dovrebbero moderare i contenuti dannosi. Sebbene l’annuncio sia stato rimosso in seguito a un reclamo, la questione riguarda il modo in cui i post che invocano l’assassinio, che costituiscono una violazione delle regole di Facebook, siano consentiti sulla piattaforma.

Secondo Intercept, gli annunci che invocavano l’omicidio di Larudee erano sponsorizzati da Ad Kan, un gruppo israeliano di destra fondato da ex-militari e membri dell’intelligence israeliana. Secondo il suo sito web, Ad Kan mira a colpire “organizzazioni anti-israeliane”.

L’anno scorso, un audit esterno ha rilevato che Facebook non aveva algoritmi per rilevare i contenuti ebraici violenti contro gli arabi. Nonostante le successive promesse di miglioramenti, queste nuove rivelazioni indicano il contrario. L’ipotesi è che i tanto sbandierati strumenti di intelligenza artificiale di Facebook, destinati a contenere i discorsi d’odio, non vengano utilizzati quando i filo-israeliani invocano l’omicidio e il genocidio dei palestinesi.

“Sapevamo dall’esempio di ciò che è accaduto ai Rohingya in Myanmar che Meta ha uno storico di mancata protezione delle comunità emarginate”, ha detto Nashif, “e che il suo sistema di gestione degli annunci era particolarmente vulnerabile”.

Nel frattempo, Facebook ha censurato in modo aggressivo i contenuti arabi sulla base del minimo sospetto di violazione delle politiche. Le discrepanze tra il controllo dei discorsi in arabo e in ebraico hanno sollevato interrogativi preoccupanti sull’imparzialità di Facebook e sui suoi pregiudizi anti-palestinesi. La portavoce di Facebook, Erin McPike, ha affermato che gli annunci sono stati approvati per sbaglio.

“Nonostante i nostri continui investimenti, sappiamo che ci saranno esempi di cose che ci sfuggono o che eliminiamo per errore, poiché sia le macchine che le persone commettono errori”, ha dichiarato. “Per questo motivo gli annunci possono essere rivisti più volte, anche una volta pubblicati”.

Per i palestinesi, questa è l’ultima prova che la piattaforma sociale dominante al mondo applica le regole selettivamente quando si tratta di proteggere le loro vite e la loro dignità. E in un ambiente carico di odio etnico, le implicazioni reali di questi due pesi e due misure possono rivelarsi letali, come si è visto in Myanmar, dove i post di Facebook avrebbero avuto un ruolo nel genocidio dei musulmani Rohingya.

(Foto: [Harun Özalp – Anadolu Agency]).

Traduzione per InfoPal di F.L.