Tecnologia

Non solo algoritmi: Facebook e Reuters contro le bufale online

post-verità

Non solo algoritmi: Facebook e Reuters contro le bufale online

Foto Afp
Foto Afp

Ora che c’è un termine per definire le “bufale” che girano su Internet, si cerca di passare alle contromisure. L'èra della post-verità vede scendere in campo due colossi - peraltro molto diversi - dell’informazione, che hanno annunciato il lancio di algoritmi in grado di riconoscere le notizie false che circolano online. Da una parte Reuters, blasonata agenzia di stampa che della tempestività e dell’affidabilità ha fatto nei decenni una religione; e dall’altra Facebook, molto più giovane della precedente ma ormai il più importante player della comunicazione planetaria con quasi un quarto della popolazione mondiale iscritta. Le notizie false che circolano sulla rete da eccezione fisiologica sono diventate nella recente campagna elettorale per la Casa Bianca, strumento di marketing elettorale, contribuendo a sostenere sia il fronte democratico che quello repubblicano che, grazie anche alla generazione automatica di account che moltiplicano queste notizie, hanno spinto Donald Trump fino alla presidenza degli Stati Uniti.

Per Reuters la guerra al fake è istituzionale e lo scopo è automatizzare il processo di raccolta delle notizie: l’algoritmo di cui è stato annunciato il lancio,

ha come target i post pubblicati su Twitter, con lo scopo di comprendere quali cinguettìi contengano notizie degne di diventare un titolo nel notiziario dell’agenzia di stampa. La ricerca per la messa a punto di “Reuters News Tracer” - questo il nome dell’applicazione - è iniziata due anni fa. L'algoritmo consente di analizzare i tweet in tempo reale, filtrare la spam e raggruppare tweet simili in “cluster” basati sulla presenza della stessa parola (tweet contenenti i termini 'bomba' e 'attentato' andranno nel cluster 'terrorismo' e cosi' via).

«Buona parte del nostro Dna e' costruito sull'arrivare primi - ha detto in un’intervista il direttore del settore dati e innovazione di Reuters, Reg Chua -, quindi abbiamo voluto capire come costruire sistemi che ci dessero una marcia in più nel seguire queste cose, in termini di velocità e di scala; potresti buttare un milione di persone su questo fronte senza risolvere il problema». L'algoritm assegna a ogni cluster un punteggio che ne valuta la credibilità sulla base di una serie di parametri quali la sede e l'identita' della persona che twitta, la viralità del 'cinguettio' e il numero di conferme o smentite che appaiono sul social network. In sostanza, Reuters sta cercando di utilizzare un algoritmo che “pensa” come un giornalista.

Già lo scorso anno la Associated Press ha iniziato ad utilizzare algoritmi (gli “Automatic Insights”) che compongono interi lanci. Le Monde sta invece lavorando a un'estensione per browser che segnali in automatico le notizie false o fuorvianti, non si sa ancora bene in base a quale principio.

Per Facebook il tema è ancora a un livello preliminare. Ma è rilevante sottolineare come l’affidabilità dei contenuti, al di là della quantità di traffico generata e su cui guadagna in termini pubblicitari, inizia a essere un tema scottante. Yann LeCun, direttore di Facebook per l'intelligenza artificiale ha aperto alla possibilità di fronteggiare le bufale che circolano sul social media

ponendo un problema etico: «Qual è il bilanciamento tra il filtraggio e la censura? La libertà di sperimentare e la decenza? La tecnologia o esiste già o può essere sviluppata, ma la domanda è come ha senso utilizzarla, e questo non mi compete» ha detto ad un recente incontro con la stampa. Occorre tuttavia, ha aggiunto , che la società si doti di regole su come applicare in modo responsabile uno strumento del genere. Facebook potrebbe di conseguenza utilizzare l'intelligenza artificiale per far piazza pulita delle notizie false e per individuare violenza o nudità nei video trasmessi in diretta, filtrando i contenuti del social.

Ma il problema per Fabebook non sono solo le bufale o gli account falsi: un problema serio è rappresentato dai 'live video', che potrebbero avere contenuti pornografici o comunque immagini di nudo, vietate dalla compagnia, così come immagini e messaggi violenti quali possono essere quelli di estremisti e terroristi. Facebook, ha spiegato il direttore del settore apprendimento automatico della compagnia, Joaquin Candela, è in “fase di ricerca” per usare l'intelligenza artificiale per rilevare in automatico violenza e altri contenuti inappropriati nelle dirette video.

@maloconte

© Riproduzione riservata