ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùIntelligenza artificiale

ChatGPT, Garante-OpenAI: incontro proficuo. Si lavora allo sblocco

Le parti sono più vicine dopo il primo video-confronto. Intanto la società americana prova a tranquillizzare tutti sullo sviluppo della tecnologia

di Biagio Simonetta

Chat Gpt, Mollicone: "Verbalizzata potenziale pericolosità per diritto d'autore"

3' di lettura

Lo avevamo anticipato nelle scorse ore: l’incontro fra il Garante per la Privacy italiano e OpenAI (la società californiana che sviluppa ChatGPT) ha aperto buoni varchi per trovare una soluzione al ban imposto qualche giorno fa. E la conferma arriva adesso da un comunicato ufficiale, diffuso dallo stesso regolatore, che lascia trasparire un certo ottimismo. OpenAI, infatti, ha lasciato intendere di voler collaborare per trovare una soluzione. Una scelta strategicamente importante, anche alla luce delle spie d’allarme accese in altri Paesi, scaturite proprio dal blocco imposto dal garante italiano.

L’incontro sì è svolto in video conferenza, e vi ha preso parte anche Sam Altman, Ceo di OpenAI. Erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.

Loading...

Secondo la nota diffusa dal Garante, «OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha confermato la volontà di collaborare con l'Autorità italiana con l'obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT».

Il regolatore con sede a Roma, da parte sua «ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell'Intelligenza Artificiale e dell'innovazione tecnologica ed ha ribadito l'importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei».

La società californiana, invece, «si è impegnata a rafforzare la trasparenza nell'uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell'Autorità».

In conclusione, «il garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI». E a quanto pare seguiranno altri incontri a breve.

La situazione, insomma, sembra meno tesa di quanto ci si potesse aspettare, ed è probabile che entro i 20 giorni canonici imposti dal GDPR (a partire dal 31 marzo, data effettiva della comunicazione di ban diffusa dal Garante) si possa trovare una soluzione.

Dicevamo dell’importanza di trovare una soluzione per OpenAI. Con le tensioni crescenti in Paesi come Germania e Francia, risolvere la questione italiana potrebbe voler dire mettersi in regola con la normativa europea.

Ad ogni modo, la società californiana ha scritto una lettera aperta, dal titolo “Il nostro approccio alla sicurezza dell’AI” nella quale prova a replicare alle preoccupazioni emerse negli ultimi giorni: «Ci impegniamo a mantenere l’intelligenza artificiale sicura e vantaggiosa. Riconosciamo che, come qualsiasi altra tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli». Riguardo a come utilizza i dati degli utenti, Open AI precisa: «Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone. Li usiamo invece per rendere i nostri modelli più utili. ChatGpt, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti». La lettera aperta della società americana pubblicata sul suo blog dettaglia in che modo viene protetta la privacy degli utenti, anche minori, e come riduce il rischio di risposte errate. «Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio. Ad esempio, dopo aver terminato lo sviluppo del nostro ultimo modello, Gpt-4, abbiamo trascorso più di 6 mesi per renderlo più sicuro e allineato, prima di rilasciarlo pubblicamente. Riteniamo che i potenti sistemi di AI debbano essere soggetti a rigorose valutazioni. La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi». La partita, comunicati a parte, è ancora aperta.

Riproduzione riservata ©

loading...

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti