CommentoPromuove idee e trae conclusioni basate sull'interpretazione di fatti e dati da parte dell'autore.Scopri di piùdiritto

Sul digitale si cerca un linguaggio comune tra Italia e Ue

Una delle più grandi debolezze della strategia per il mercato unico digitale sta nel fatto che i segmenti più rilevanti non sono comunicanti: si pensi ai temi come copyright, servizi media audiovisivi, normativa antiterrorismo

di Oreste Pollicino

default onloading pic

6' di lettura

Non si può certo dire che, negli ultimi tempi, si sia sentita la mancanza di report, position paper, indagini conoscitive e libri bianchi adottati tanto a livello nazionale, quanto europeo (non solo Unione ma anche Consiglio d’Europa e Ocse) che hanno proposto differenti strategie e prospettive circa i rapporti, sempre più complessi, tra tutela del dato, crescita esponenziale della capacità di apprendimento dell’intelligenza artificiale e protezione dei diritti fondamentali nell’era digitale.

Eppure, la settimana scorsa sarà a lungo ricordata come una settimana cruciale a questo riguardo: mercoledì 21 febbraio, nella stessa mattinata, mentre a Roma si presentavano i risultati dell’indagine conoscitiva congiunta da parte delle tre autorità nazionali coinvolte (privacy, concorrenza e comunicazioni) in materia di big data, a Bruxelles, contestualmente, la Commissione europea illustrava il suo pacchetto di proposte legato alle prossime sfide regolatorie dell’Unione europea, alle prese con amplificazione dei rischi (e delle opportunità) connessi alla crescente pervasività dell’ecosistema – non si tratta di una semplice tecnologia- che fa capo all’esistenza artificiale.

Il “pacchetto” della Commissione è piuttosto voluminoso e variegato e comprende, oltre l’atteso libro bianco su intelligenza artificiale, anche le linee guida per la presenza della stessa Commissione nello scenario digitale e la strategia europea per la tutela dei dati.

Impossibile in questa sede potersi soffermare su tutti gli interessanti spunti che emergono tanto dall’indagine conoscitiva delle tre autorità nazionale, quanto dal pacchetto “digitale” della Commissione.
L’obiettivo delle riflessioni che seguiranno è assai meno ambizioso. Si vuol soltanto mettere l’accento sui punti di interconnessione tra le due iniziative, nella speranza di fare emergere l’importanza, prima ancora che di una strategia, di un linguaggio comune tra la dimensione nazionale e quella europea in materia di digitale. Non fosse altro perché il periodo è cruciale: l’Italia, nei prossimi mesi, dovrà recepire tre assai rilevanti normative europee in materia di servizi media audiovisivi, tutela del diritto d’autore e comunicazioni elettroniche. Non ci si può permettere di parlare linguaggi diversi, e di non capirsi.

L’Italia, nei prossimi mesi, dovrà recepire tre assai rilevanti normative europee in materia di servizi media audiovisivi, tutela del diritto d’autore e comunicazioni elettroniche

Innanzitutto, il primo collante tra la dimensione nazionale e quella europea che emerge dalla lettura in parallelo delle due iniziative menzionate in apertura è relativo al metodo, alla direzione che si vuole seguire. Non più una frammentazione degli interventi, siano essi, a livello nazionale, portati avanti da una singola autorità di garanzia o, a livello europeo, con l’adozione di singole normative di settore spesso anche in parziale contraddizione con iniziative parallele. Non è un caso che una delle più grandi debolezze della strategia per il mercato unico digitale lanciata dalla Commissione nel 2015 stia nel fatto che i segmenti più rilevanti alla base di detta strategia non siano comunicanti, ansi spesso si trovino in contraddizione. E qui c’è ben poco di strategico. Si pensi, per esempio, a come, in questi anni, si sia affrontato in modo settoriale (solo a titolo esemplificativo, copyright, servizi media audiovisivi, normativa antiterrorismo) la questione del necessario aggiornamento della disciplina, datata 2000, in materia di esenzione di responsabilità dei providers, alla natura attuale, assai più evoluta, non solo da un punto di vista tecnologico, delle nuove piattaforme digitali.

Consapevoli dei rischi conseguenti alla frammentazione evocata, tanto a livello nazionale quanto, in misura ancora più significativa, a livello europeo, emerge la volontà di affrontare in modo finalmente unitario – si farà alla fine del 2020 con l’adozione del Digital Service Act - la questione dell’adozione nuove regole che siano in grado di trovare risposte più adeguate per prevenire il predominio, non solo di carattere economico, ma anche politico, delle nuove piattaforme, definite testualmente “gatekeepers” nel documento della Commissione relativo alla nuova strategia dei dati. In altre parole poteri privati che competono a tutti gli effetti con quelli statali.

Il secondo elemento che sembra poter fare da collante tra le due iniziative contestualmente presentate a Roma e a Bruxelles si scorge nella comune volontà di emancipare definitivamente il regime di protezione dati dal requisito del carattere personale dei dati stessi, in forza del quale questi ultimi sarebbero tutelabili soltanto in quanto in grado di ricondurre all’identificazione del titolare. È vero che, già in passato, qualche passo in questa direzione si è fatto, e la normativa europea sui dati non personali ne è un esempio. Ma è anche vero che l’arma più efficace dell’Unione a tutela della privacy digitale, l’ormai leggendario GDPR, non si applica ai dati del tutto anonimi, per cui risulta essere un’arma del tutto spuntata a questo riguardo. E quale, poi, la sottile linea rossa, oggi, tra dati definitivamente anonimi e quali che invece posso essere soggetti a procedure di de-anonomizzazione da parte delle grandi piattaforme digitali?

A questo proposito, e con specifico riferimento ai big data, a entrambi i livelli, nazionale ed europeo, alla luce delle iniziative contestali che si stanno commentando, sembra si stia finalmente andando oltre lo slogan delle 3 V (volume, varietà e velocità) per concentrarsi sulla qualità e sui rischi che trattamenti massivi di dati, anche non personali, possono avere sulla tutela di diritti fondamentali del titolare. In altre parole, cosi come la forma è sostanza, anche la quantità a volte è qualità, specialmente pensando all’ammontare esponenziale di dati che fa da serbatoio alla profilazione algoritmica. Infatti, una volta elaborati e organizzati dalle grandi piattaforme, ecco il passaggio da quantità a qualità, tali dati assumono un rilievo qualitativo essenziale, pur essendo non ricollegabili alla identità di un soggetto. Detto valore, evidentemente, sta nella capacità di fornire informazioni in grado di mettere a punto una assai efficace capacità predittiva nelle mani dei nuovi giganti del web, novelli profeti digitali in grado di volta ad anticipare, prima ancora che realizzare, i bisogni degli individui.

In termini più distopici, ma più efficaci, Shoshana Zuboff, nel suo “Il capitalismo della sorveglianza”, identifica il potere cruciale da parte dei giganti del web nella capacità di strumentalizzazione del comportamento degli utenti al fin di modificarlo, predirlo, monetizzarlo e controllarlo.

Due riflessioni finali sembrano poter essere fatte alla luce di quanto fino qui osservato. In primo luogo, attenzione alla tentazione, una volta capito che, nell’era digitale, il controllo assoluto dei dati da parte del titolare è una chimera, di optare per l’opzione solo apparentemente più pragmatica della monetizzazione del dato personale. Sarebbe negare la matrice propria del costituzionalismo europeo, per cui la privacy è prima di tutto, come la lezione di Stefano Rodotà ci insegna, un diritto fondamentale e inalienabile della persona.

In secondo luogo, come osservato qualche giorno fa da Giovanni Pitruzzella sulle pagine del Corriere, «la lezione è che la sovranità digitale si allontana dalla visione westfatliana di sovranità legata al potere esclusivo dello Stato su un territorio». È, dunque, necessario andare oltre i confini nazionali, guardando al ponte di interconnessione, come si è cercato di fare in queste pagine, tra il livello nazionale e quello europeo. Attenzione però. Vi è un altro ponte che ha bisogno di una continua manutenzione: è quello transatlantico che collega l’esperienza europea di protezione dati a quella statunitense. E non si tratta di un ponte a senso unico, in cui il modello europeo va soltanto esportato e preso, come d’altronde a ragione sta succedendo, a modello da parte di molti Stati Usa, a cominciare dalla California. Al contrario, deve trattarsi di un ponte a doppio senso di marcia.

Fuor di metafora: non c’è solo da insegnare, ma anche molto da imparare per l’Europa nei rapporti transatlantici in tema di protezione dati. Basti pensare a come è stato interpretato il IV Emendamento della Costituzione statunitense dalla Corte suprema americana. Una previsione che risale al 1791, in cui si parla esclusivamente di intrusione nella proprietà altrui, che è stato letta in modo tale da essere tecnologicamente adeguata per fornire una copertura costituzionale ai big data, grazie alla “teoria del mosaico” che guarda all’aggregazione di una moltitudine di dati quale elemento caratterizzante la violazione costituzionale. Esattamente quel percorso evolutivo che in Europa, a ragione considerata fortezza della privacy digitale, si fa più fatica a realizzare a causa della connessione ancestrale del regime europeo al dato personale.
Bisogna superare tale connessione, e bisogna farlo in fretta. Le iniziative a livello nazionale ed europeo che si è cercato di sintetizzare sembrano andare nella giusta direzione.

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti
Loading...