LA SPERIMENTAZIONE DI BANKITALIA

Ecco come algoritmi e big data misurano in tempo reale fiducia e inflazione

di Davide Colombo


default onloading pic
(ANSA)

2' di lettura

Misurare le aspettative di inflazione pescando le parole giuste in un “lago” (data lake) in cui vengono filtrati oltre 20 milioni di tweet al mese. Analizzare la microstruttura del mercato immobiliare sondando oltre un milione di offerte di vendita settimanali (e il numero di clic su ciascuna offerta) su portali come Immobiliare.it. O, ancora, filtrare con esami semantici milioni di messaggi che corrono sui social network e sui media tradizionali per costruire modelli predittivi del comportamento dei risparmiatori nel rapporto con la loro banca. Dare un peso a indicatori di incertezza delle politiche economiche costruiti sulla ricorrenza di parole-chiave nei flussi informativi di piattaforme come Bloomberg o Reuters per scoprire, per esempio, in che misura questa incertezza influisca sulle operazione di pagamento-prelievo sulla rete Bancomat.

È la nuovissima frontiera di ricerca e analisi economica e statistica su cui è concentrato un team di tecnici della Banca d’Italia raccolti tra i principali dipartimenti, tra cui in particolare, Economia, Statistica e Informatica. Un cantiere aperto tre anni fa con la messa a punto dell’infrastruttura informatica che consente di alimentare giornalmente una mega base dati (il data lake) gestita da un cluster di computer e dalla quale vengono estratte ricorrenze semantiche con le più avanzate tecniche di elaborazione testuale.

Di nuova analisi economica basata sui big data e sul machine learning s’è discusso in occasione del workshop internazionale che si è tenuto in Bankitalia a fine marzo, con la partecipazione di oltre 150 economisti e statistici provenienti da tutto il mondo. E il gruppo di esperti di via Nazionale ha spiegato che i primi indicatori congiunturali periodici potrebbero essere disponibili entro fine anno.

Un primo obiettivo che potrebbe essere colto è una stima flash sulle aspettative di inflazione mensile, per fare un esempio, capace di integrare le stime campionarie classiche a cadenza trimestrale come quelle fatte per la storica Indagine sulle aspettative di inflazione e crescita che la Banca d’Italia realizza in collaborazione con Il Sole24Ore.

Ma l’utilizzo di dati granulari o mega-dati testuali per stime flash (nowcasting) potrebbe portare a breve a risultati significativi anche per misure sulla fiducia dei consumatori o il sentiment nei confronti di particolari aziende, in questo caso incrociando i risultati dei filtri algoritmici con indici di mercato come la volatilità, i volumi scambiati, i valori di prodotti derivati come i Cds.

Il treno dei big data che l'Italia non vuole prendere

Un altro fronte di utilizzo operativo di questa nuova strumentazione basata sui big data riguarda l’Unità di informazione finanziaria (Uif) che da un decennio ha preso il posto dell’Ufficio italiano cambi come autorità antiriciclaggio indipendente all’interno di Bankitalia: qui la potenza di analisi sui microdati è mirata a intercettare con anticipo movimentazioni sospette (a esempio verso paesi a rischio) prima che vengano raggiunte le soglie di allarme attuali.

L’attività di analisi sui big data di Bankitalia è stata costruita con una rete di collaborazioni anche universitarie e rappresenta una punta avanzata nell’ambito dell’Eurosistema: gli scambi di esperienze a livello internazionale sono continue sia in Bce sia presso la Banca per i regolamenti internazionali di Basilea e con altre banche centrali come la Bank of England o la Banca centrale della Norvegia, i cui tecnici sono stati a Roma lo scorso 7 giugno.

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti
Loading...