Interventi

Tecnologie e norme, una lotta contro il tempo

di Alessandro Curioni


3' di lettura

Il grande problema di ogni tentativo giuridico di regolamentare la società dell'informazione è il tempo. Qualunque iter legislativo, se non in situazioni di assoluta emergenza o in caso di regimi democraticamente carenti, richiede normalmente anni.

Per contro la tecnologia si evolve in mesi, trasformando il quadro sociale in modo talmente rapido da rendere la norma inadeguata al nuovo contesto. Questo dato di fatto sta progressivamente spingendo i legislatori a modificare l'approccio nella redazione dei testi di legge per evitare quella che potremmo definire come una precoce obsolescenza normativa. In tal senso l'Unione Europea è un caso esemplare, soprattutto se esaminiamo la sua produzione in tema di data protection, cybersecurity e gli indirizzi che stanno prendendo corpo rispetto all'intelligenza artificiale. I correttivi della UE possono essere sintetizzati in tre elementi: approccio risk based, concetto di adeguatezza (conseguenza del precedente) e accountability.

Loading...

Il primo fattore ha l'obiettivo di mantenere l'attualità delle disposizioni. Il concetto di rischio è dinamico e pertanto cambia in funzione del contesto, dell'evoluzione tecnologica e sociale. Di conseguenza rende la norma ad “assetto variabile” poiché non la vincola a uno specifico evento. Estremizzando è come se l'insieme dei reati penali contro la persona non fosse declinato puntualmente nelle sue fattispecie (omicidio, violenza carnale, aggressione a mano armata, etc.), ma restasse nelle sua descrizione generica lasciando al destinatario della legge l'onere di comprendere quali sia un reato con la persona oggi, ma anche un domani. Rispetto al rischio, data la sua natura variabile, è impossibile definire cosa è corretto fare in termini puntuali, quindi interviene il tema dell'adeguatezza del comportamento che inevitabilmente cambierà nel tempo.

Emblematico è l'articolo 32 del Regolamento Europeo in Materia di Protezione dei Dati. Nel primo passaggio del primo paragrafo evidenzia la necessità di un approccio risk based laddove recita: “Tenendo conto dello stato dell'arte e dei costi di attuazione, nonché della natura, dell'oggetto, del contesto e delle finalità del trattamento, come anche del rischio di varia probabilità e gravità per i diritti e le libertà delle persone fisiche…” In seguito introduce il tema dell'adeguatezza: “… Il titolare del trattamento e il responsabile del trattamento mettono in atto misure tecniche e organizzative adeguate per garantire un livello di sicurezza adeguato al rischio…”

Il concetto di adeguatezza porta con sé due conseguenze non banali. Da un lato è piuttosto “sfuggente” perché offre ampi margini di interpretazione, dall'altro, in caso di evento che produce conseguenze nefaste, il titolare si vedrà costretto ad affrontare l'inversione dell'onere della prova (colpevole se non dimostra il contrario).

Terzo pilastro riguarda l'accountability che presenta immediatamente un problema di traduzione in quanto non interpretabile soltanto come “responsabilità”, ma anche come capacità di giustificare le proprie scelte. Proprio per il suo particolare significato essa diventa il complemento perfetto rispetto agli altri due elementi fondati di normative come il GDPR che hanno l'aspirazione a superare la prova del tempo. Se queste premesse offrono l'opportunità al legislatore di porre un freno all'obsolescenza normativa, non di meno rappresentano un tema di enorme portata per le organizzazioni costrette a confrontarsi con norme che stabiliscono più dei principi che delle regole. Una situazione di incertezza che si combina con il multiforme contesto della società dell'informazione e le sue tecnologie da cui emergono fenomeni come l'Internet delle Cose e l'intelligenza artificiale, entrambe vissute come straordinarie opportunità, ma che celano rischi di cui si stenta ancora a comprendere la reale portata (di certo non piccola, ma quanto grande è tutto da scoprire). Proprio sul tema degli algoritmi intelligenti la Commissione Europea ha sottolineato l'importanza dell'accountability nel suo documento dal titolo “Progetto di orientamenti etici per un'IA affidabile” dell'aprile 2019. Un'affermazione condivisibile, ma che potrebbe gettare nello sconforto migliaia di organizzazioni che per utilizzare le intelligenze artificiali dovranno fare un'assunzione di responsabilità sacrosanta, ma enorme, nel momento in cui una manciata di persone sa cosa sono, ancora meno come funzionano e praticamente nessuno quali sono i rischi.

Alessandro Curioni Presidente DI.GI. Academy S.r.l.

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti