5 Luglio 2021
Repubblica

«Come Instagram ha rimosso le storie dei migranti dal mio account»

di Luca Scarcella


Francesca Napoli, PhD in studi politici, operatrice legale dal 2013 in materia di diritto di asilo abilitata all’esercizio della professione forense, vive e lavora a Roma, con esperienza all’estero – in Sud America, Africa e Asia – sempre occupandosi di migrazioni forzate. Nell’aprile 2019 ha sentito la necessità di raccontare il suo lavoro: «A un certo punto non mi bastava più “fare”, volevo anche condividere le informazioni che avevo. Mi sentivo come in un altro mondo – spiega l’avvocata – da qui, il nome del mio account Instagram: @StorieDallAltroMondo». Oggi il profilo conta quasi 35mila follower: una community cresciuta costantemente e in poco tempo, fortemente interessata a leggere le storie dei migranti, ossia delle persone che stanno dietro ai freddi numeri di un fenomeno al centro del dibattito politico. 

Le infinite guerre che dilaniano i Paesi arabi hanno molteplici conseguenze, tra cui quella di spingere intere famiglie a scappare dalla morte, affidandosi a scafisti criminali, per cercare la vita in Europa, terra di possibile asilo. Consapevoli dei rischi, accettano anche di pagare pur di poter fuggire su barconi insicuri e inadatti a trasportare niente altro che flebili speranze.

Francesca Napoli, su Instagram, narra dunque dei volti e dei nomi di chi riesce ad arrivare sulle sponde del Vecchio Continente: storie positive, a volte; spesso, invece, piene di violenza, torture e sofferenza. «Raccontare ciò che ascolto nei centri di accoglienza mi permette di condividere il peso emotivo che la sera, dopo lavoro, porto a casa con me».

Su Instagram, quanto interesse ha trovato sul tema rifugiati?

«Quando ho iniziato l’attività di divulgazione non mi aspettavo l’enorme riscontro avuto. Il mio intento era quello di portare in un social network le storie e i drammi a cui io avevo accesso quotidiano, facendo emergere il singolo da ogni tragedia. Non si dà abbastanza peso alle storie delle persone, ma si scrive e si narra soltanto di un generico “fenomeno migratorio”, criminalizzandolo e disumanizzandolo. Chi segue il mio account vuole sapere cosa c’è dietro allo storytelling sul tema, e l’interesse è molto alto, soprattutto tra i giovanissimi».

Lei condivide contenuti cruenti, che spesso testimoniano le violenze subite dai migranti prima della loro ultima tappa in mare verso l’Europa. Ciò cosa ha comportato per il suo account?

«All’inizio, quando ero più inesperta delle dinamiche di Instagram, ho condiviso immagini molto forti, senza inserire l’avvertenza di “contenuti graficamente violenti”, ma non mi sono mai stati tolti dalla piattaforma. Quando l’account è cresciuto sono cominciati i ban e le censure, oltre che funzioni temporaneamente bloccate, come dirette video e pubblicità. Sebbene io avessi messo il disclaimer di “contenuti violenti”, sono stati comunque eliminati, forse perché ho ricevuto un numero elevato di segnalazioni da parte degli utenti. Nonostante la mia sia un’attività di informazione, nella quale verifico ogni volta la veridicità di ciò che posto, questa mi viene impedita. Credo che in casi del genere debba esserci più attenzione da parte di chi decide cosa rimuovere e cosa no da Instagram. Il rischio concreto è che venga chiuso l’account».

Come funziona la revisione dei contenuti di Facebook e Instagram

Innanzitutto è bene ricordare che i social network sono piattaforme private, dove esistono regole decise dal gestore del servizio: regole che chiunque voglia utilizzarli accetta nel momento in cui si iscrive. Quindi, parlando di censura si scivolerebbe in una retorica banale e negligente.

Secondariamente, c’è la volontà di connettere quante più persone possibili, con l’ovvio intento di accrescere il proprio valore economico, e – con quello più di facciata – di offrire uno strumento per avvicinare le persone. Ciò comporta il tentativo da parte delle piattaforme di tenersi in equilibrio tra la libertà di espressione e la protezione della propria community: una impresa oggettivamente ardua quando parliamo di miliardi di utenti, e innumerevoli diversità legali e sociali dei loro Paesi di provenienza.

Proprio in questa direzione va la formazione del Oversight Board di Facebook, una struttura indipendente chiamata a deliberare su ban e rimozione contenuti decisi dal social: l’ultimo caso salito agli onori delle cronache è la sospensione per due anni della pagina di Donald Trump.

Abbiamo contattato Facebook Italia, per approfondire il caso di @StorieDallAltroMondo, e per comprendere meglio il funzionamento di segnalazione e rimozione dei contenuti.

Dal 2016 Facebook utilizza una strategia chiamata «rimuovere, ridurre, informare»: vengono rimossi quelli dannosi che vanno contro le policy del social, viene ridotta la distribuzione di contenuti problematici che non violano le policy, e le persone vengono informate con un contesto aggiuntivo in modo che possano decidere cosa cliccare, leggere o condividere.

Le policy vengono fatte rispettare utilizzando sia tecnologie di intelligenza artificiale, sia la revisione umana, attraverso collaborazioni con molteplici agenzie.

«Quando si tratta di contenuti estremamente cruenti, che mostrano sangue, parti di corpi e mutilazioni, il nostro regolamento è molto chiaro – affermano dagli uffici di Facebook Italia -. Contenuti del genere non vengono rimossi solo se è palese che si tratta di ambiente medico, altrimenti li banniamo, poiché il rischio sarebbe quello di urtare altri utenti. Dobbiamo cercare di rispettare le sensibilità di tutti gli oltre tre miliardi di persone che usano i nostri servizi».

È vero che un contenuto ha più possibilità di essere rimosso se riceve molteplici segnalazioni?

«No, è un falso mito. Non fa alcuna differenza la ricezione di una sola segnalazione o di centinaia su un post. In ogni caso l’intelligenza artificiale su cui ci appoggiamo, sviluppata da Microsoft, inoltra un solo alert al team di competenza».

Quali sono, quindi, gli step [i passaggi, Ndr] di valutazione sui contenuti?

«Il primo filtro è la tecnologia: grazie al machine learning e all’intelligenza artificiale riusciamo a capire di che contenuto si tratta, applicando quindi filtri per avvertire della presenza di immagini violente o sensibili, o nei casi più gravi rimuovere il contenuto. Si aggiungono poi le segnalazioni degli utenti come spiegato poc’anzi. A ogni decisione di Facebook si può inviare un reclamo, e una persona competente valuterà di nuovo il contenuto, inviando una risposta all’utente nel giro di 24 ore. Se un account ha ricevuto più volte rimozioni di post, va incontro a dei ban temporanei. Il nostro servizio è in continua evoluzione, e cerchiamo di offrire un supporto via via sempre migliore».

Come non disperdere il tesoro della divulgazione su temi sensibili

È bene tenere a mente che Facebook e gli altri social media non sono infallibili nel prendere decisioni. Abbiamo visionato alcuni contenuti di @StorieDallAltroMondo che sono stati bannati, nonostante rispettassero i requisiti di idoneità richiesti.

Coloro che hanno le risorse e la volontà di approcciarsi alla divulgazione su temi complessi – come quello trattato dall’avvocata Francesca Napoli – con il rischio di veder vanificato il proprio sforzo, è consigliabile postare foto e video con sfocature per coprire le parti graficamente violente. Successivamente, nel caso di bisogno, proporre alla propria community di accedere al contenuto senza censura ad esempio su un proprio blog.


(repubblica.it, 5 luglio 2021)

Print Friendly, PDF & Email