Tecnologia

Fake news, algoritmi e ora il chatbot che contrasta la disinformazione in…

news

Fake news, algoritmi e ora il chatbot che contrasta la disinformazione in rete

Che cosa si dicono due Bot lasciati a parlare da soli? Non è l'inizio di una barzelletta per nerd, ma un esperimento condotto recentemente da da Mike Lewis e altri quattro colleghi della Fair (Facebook AI Research), l'unità di Facebook per la ricerca sull'intelligenza artificiale. Ebbene, lasciati a se stessi, i due automi digitali hanno sviluppato una lingua indipendente, in maniera analoga a come avviene talvolta tra bambini e, se la loro missione era negoziare un accordo, si sono appropriati di comportamenti umani come fingere un iniziale disinteresse. L'azienda di Menlo Park è interessata a questi sistemi automatici per sostituire l'uomo nei compiti secondari o ripetitivi. Un po' come già fa la californiana Trim, che propone bot in grado di negoziare per noi offerte migliori con Comcast, uno dei maggiori network di tv via cavo statunitensi, celebre il suo pessimo customer care.

Sicuramente c'è ancora molta strada da fare perché nonostante Lewis e colleghi abbiano posto il vincolo di non abbandonare la negoziazione prima di un accordo, i bot non ci sono mai. In più, le conversazioni in rete sono molto difficili da navigare per chi non possiede neuroni. Un anno fa Tay, il bot lanciato da Microsoft come esperimento di conversazione automatica, durò appena 24 ore perché, inondato di insulti e commenti razzisti, cominciò ad esprimersi negli stessi termini. Tuttavia, l'idea di utilizzare bot sociali, in grado di dialogare in linguaggio naturale potrebbe rivelarsi interessante proprio nel contrasto allo hate speech e alla disinformazione. Un caso di successo è stato Wahlbot (voto-bot) lanciato dal broadcaster Orf in occasione delle ultime elezioni austriache per informare e rispondere a domande sui dati elettorali in tempo reale limitando la diffusione di inesattezze. Qualche giorno fa Selene Biffi, startupper seriale oltre che consulente Onu per l'imprenditoria sociale Young Global Leader del World Economic Forum, ha lanciato Loudemy.com, il primo progetto esplicitamente mirato ad aiutare gli utenti a sviluppare dei propri bot conversazionali, mirati a contrastare la disinformazione in rete. Loudemy, la cui parte tecnologica è sviluppata dalla padovana E.W.T., è ancora in beta.«L'idea mi è venuta circa un anno fa, mentre lavoravo in Afghanistan e ci fu un violentissimo attentato – spiega Biffi, che a breve sarà in Somalia per lavorare a un incubatore per le microimprese locali – Sui social si scatenavano ondate di di odio pieni di falsità, ma era impossibile rispondere a tutti. Per questo cominciai a chiedermi come automatizzare». Il risultato è un sistema configurabile, basato su un algoritmo proprietario che non è legato a un flusso predefinito di informazioni (le condizioni del meteo o i risultati delle partite). «Il sistema fa un'analisi testuale – spiega Biffi – e poi si esprime attraverso un bot utilizzando una serie di fonti che gli sono state indicate. Per ora funziona su Twitter, Facebook, Youtube e Instagram in inglese, italiano, spagnolo e francese e vogliamo aggiungere anche l'arabo e altre lingue non appena avremo raccolto più finanziamenti». Il progetto si muove su uno dei fronti scientificamente più impervi dell'interazione uomo macchina. «Lo sviluppo di bot in grado di negoziare accordi è estremamente interessante, ma il problema è riuscire a inquadrare bene il problema sul quale applicare poi l'abbondante matematica della teoria dei giochi che già esiste. Non credo però i bot ci possano aiutare sul fronte del contrasto alle fake news perché è difficile isolare automaticamente un'affermazione falsa all'interno di una conversazione umana» osserva Walter Quattrociocchi, coordinatore del laboratorio di science sociali computazionali dell'Imt di Lucca, cha martedì sarà a Roma per un'audizione parlamentare sulle facke news e sta lavorando sul tema anche con l'AgCom italiana e la Commissione europea. «Credo piuttosto – continua il ricercatore – che dobbiamo spingere sulla trasparenza degli algoritmi».

La viralità delle fake news non sembra però spiegarsi solo con fattori tecnologici. Una ricerca pubblicata domani sul sito di Nature Human Behaviour da Diego Fregolente Mendes de Oliveira e Filippo Menczer del Center for Complex Networks and Systems Research dell'Indiana University, negli Usa mostra, che, più che la qualità del contenuto, un fattore rilevante nel determinare la viralità di un'informazione è la limitata attenzione individuale e l'information overload. I ricercatori suggeriscono che il modo migliore per ridurre il flusso di informazione di bassa qualità potrebbe essere la limitazione, da parte delle piattaforme, dell'attività dei social che diffondono informazioni di bassa qualità.

Articolo pubblicato su Nova24 Il Sole 24 Ore del 25 giugno 2017

© Riproduzione riservata