Facebook rivela come censura i post. E gli utenti possono fare appello
di Biagio Simonetta
4' di lettura
L'operazione trasparenza è iniziata da qualche settimana. Prima con una serie di nuove specifiche sulla privacy e sull'utilizzo dei dati personali, ora con un documento diviso in sette capitoli che spiega come vengono giudicati - e quindi censurati - i post sospetti. Sono giorni intensi per Facebook. Lo scandalo Cambridge Analytica ha acceso i riflettori su tematiche che per troppi anni sono rimaste nel limbo del non detto, nell'infame territorio dei sospetti. E adesso, nei palazzoni bianchi e rossi di Menlo Park, è arrivato il momento di dare risposte, di riconquistare la fiducia degli utenti.
Pubblicate le linee guida
Mira alla trasparenza la decisione odierna di rendere pubbliche per la prima volta quelle che sono le linee guida interne di applicazione degli standard della comunità. Linee guida che nel corso degli anni sono finite più volte nel mirino della critica, come in occasione della foto della guerra in Vietnam rimossa per la nudità della bambina vittima del napalm, poi ripristinata dopo molte proteste. Ma anche in occasione di contenuti relativi ad incitamento all'odio che nascondevano propaganda politica.
Oggi con un post a firma del capo del Global Product Management, Monika Bickert, la società californiana ha messo tutto per iscritto e ha introdotto la procedura per fare appello sui singoli post. «Una delle domande che riceviamo più spesso – ha scritto la Bickert - è come decidiamo cosa è ammesso su Facebook. Queste decisioni sono tra le più importanti che prendiamo, perché sono fondamentali per garantire che Facebook sia un luogo sicuro, ma anche un posto dove sia possibile discutere liberamente scambiando diversi punti di vista. Per anni abbiamo avuto degli Standard della Comunità che spiegavano cosa poteva trovare spazio su Facebook e cosa non veniva ammesso. Oggi facciamo un ulteriore passo avanti pubblicando le linee guida interne che utilizziamo per applicare quegli Standard. E, per la prima volta, diamo agli utenti il diritto di fare appello contro le nostre decisioni sui singoli post, per i quali sarà possibile richiedere una seconda opinione quando si ritiene che abbiamo commesso un errore».
Va detto che da sempre Facebook ha un team specifico che si occupa appositamente di far convivere sicurezza e libertà di espressione, e spesso si affida ai suggerimenti di esperti esterni. «Quello che non è cambiato, e che non cambierà, - ha detto Monika Bickert - sono i principi di base sulla sicurezza, libertà di espressione ed eguaglianza sui quali si fondano questi Standard. Per dare vita a conversazioni e creare connessioni, le persone hanno bisogno di sapere che sono al sicuro».
AI e segnalazioni umane
Secondo la manager, identificare le potenziali violazioni degli standard è una bella sfida: «La tecnologia in questo caso può aiutare. Utilizziamo una combinazione di intelligenza artificiale e segnalazioni delle persone per identificare post, immagini e altri contenuti che potrebbero violare i nostri Standard della Comunità. Queste segnalazioni vengono riviste dal nostro team di Community Operations, che lavora 24 ore su 24, 7 giorni su 7, in oltre 40 lingue. Ad oggi abbiamo 7,500 revisori di contenuti, oltre il 40% in più i quelli che avevamo nello stesso periodo l'anno scorso. In alcuni casi, commettiamo degli errori a causa del fatto che le nostre politiche non sono sufficientemente chiare per i revisori dei contenuti; quando succede, lavoriamo per colmare queste mancanze. Il più delle volte, però, commettiamo errori perché i nostri processi coinvolgono le persone e le persone non solo infallibili».
Così sarà possibile fare appello
La stessa Bickert ha annunciato che nel giro di un anno sarà data la possibilità ad ogni singolo utente di fare appello alla decisione di Facebook di rimuovere un contenuto: daremo alle persone la possibilità di appellarsi alle nostre decisioni. Come primo passo, oggi lanciamo la possibilità di fare appello per post che vengono rimossi per nudità/attività sessuale, incitamento all'odio o violenza esplicita». Come funziona: se una foto, un video o un post è stato rimosso perché viola gli standard di Facebook, l'utente che li ha pubblicati riceverà una notifica e potrà decidere di chiedere un'ulteriore revisione. Questa richiesta verrà presa in carico da un revisore generalmente entro 24 ore. Se Facebook riconoscerà di aver commesso un errore, l'utente sarà informato e il post, la foto o il video in questione verrà ripristinato».
Facebook è un editore?
Facebook deve recuperare la fiducia della sua comunità dunque, se non lo fa rischia molto, in Borsa e non solo. Per questo è necessario puntare molto sulla trasparenza, a partire da un interrogativo mai sciolto: Facebook è un editore? La discussione non è mai stata dipanata. Zuckerberg, anche durante l'audizione davanti al congresso Usa, ha fornito risposte a metà. Il Ceo ha detto di considerare Facebook u na tech company e non una media company, perché «è vero, siamo responsabili dei contenuti, ma non li produciamo noi». Un dilemma irrisolto che in Gran Bretagna ha acceso una nuova miccia giudiziaria, con un noto giornalista finanziario finito a sua insaputa in alcune inserzioni su tematiche legate alle criptovalute. Facebook, dopo la denuncia, ha eliminato gli annunci. Ma il problema è gigante, perché editori ed inserzionisti sono responsabili delle pubblicità diffamatorie. Ma non è mai staro chiarito se il social network sia classificabile come editore, e questo lascia tutto irrisolto.
loading...