Impresa & Territori

Contro gli insulti online arriva il «filtro» made in Google

media

Contro gli insulti online arriva il «filtro» made in Google

Afp
Afp

Il machine learning per identificare i troll, i commenti offensivi sui siti e aiutare gli editori a bloccarli. Google scende in campo per rimettere ordine sul complicato tema di insulti e odio che si esprimono attraverso i commenti online. E lo fa con una tecnologia open source basata sull’intelligenza artificiale e sviluppata con il suo incubatore tecnologico Jigsaw, ex Google Ideas. Si chiama “Perspective” questa tecnologia ancora sperimentale che rivede i commenti assegnando loro un punteggio basato su quanto simili siano ai commenti dagli utenti già identificati come tossici.

Test con NYT e Wikipedia
Questa iniziativa per cercare di arginare l’azione dei “leoni da tastiera” era già stata annunciata lo scorso settembre. In questi mesi Jigsaw ha testato la soluzione in vari step con New York Times e Wikipedia. Con Perspective sono state esaminate decine di migliaia di commenti poi etichettati manualmente da revisori umani. «La sfida – ha spiegato in una conference call Jared Cohen, fondatore e presidente di Jigsaw – è creare le possibilità per garantire buone conversazioni su Internet. Ci sono molte persone che cercano di impegnarsi in discussioni online serie, ma spesso finiscono per lasciare la conversazione. E lo fanno a causa di insulti o di mancanze di rispetto da parte di altri».

Perspective, come detto, può essere utilizzato liberamente da editori e sviluppatori di contenuti, dal momento che è open source. «L’obiettivo – ha aggiunto Cohen - è responsabilizzare gli autori di pubblicazioni e piattaforme in modo che possano decidere che cosa possa essere o non possa essere detto sui propri siti web». La tecnologia analizza infatti i commenti e assegna loro un punteggio di “tossicità” da 1 a 100. È uno strumento che Google lascia nelle mani degli editori: saranno loro a decidere come utilizzarlo. I commenti possono essere rivisti dai moderatori cui spetterà poi la decisione finale sull’includerli o meno nelle conversazioni. Ma anche gli utenti stessi potrebbero essere messi in condizione di capire il potenziale di “tossicità” dei propri commenti.

Si inizia con la lingua inglese
Per ora Perspective è disponibile solo in inglese, ma presto – non è stata fornita alcuna data – ci sarà l’implementazione della versione in altre lingue. Un primo test della tecnologia in maniera strutturata è stato fatto con il New York Times. La “Vecchia Signora in grigio” ha una squadra responsabile per la revisione e la moderazione dei commenti. A essere analizzati in tempo reale sono circa 11mila commenti ogni giorno. Così tanti che è anche difficile pensare a un lavoro maggiore che invece sarebbe anche richiesto dal momento che il New York Times, proprio per far fronte con professionalità alla mole di commenti da moderare, mette a disposizione dei feedback dei lettori solo il 10% degli articoli.

L'iniziativa di Google non è comunque nuova. Altre aziende come Twitter o Mozilla hanno già iniziato a muoversi in questa direzione. Del resto aziende come Salesforce e Disney hanno rinunciato a un attività social per problemi di moderazione. Di recente Twitter ha reso disponibile agli utenti gli strumenti per silenziare una conversazione e contrassegnare le parole ritenute intollerabili.
Anche Instagram ha introdotto filtri anti-bulli e Facebook, ultimamente incalzato in Italia dalla presidente della Camera Laura Boldrini, ha una policy di condanna dell'incitazione all'odio: sul social tali contenuti possono essere segnalati e l’impegno è a cancellarli entro 24 ore. Nel nostro paese è nato anche il manifesto “Parole Ostili”, un decalogo per un uso consapevole della Rete

© Riproduzione riservata