Commissione Ue: contro le fake news servono «etichette» sui contenuti AI
La vicepresidente Vera Jourova: l’Intelligenza artificiale solleva «nuove sfide per la lotta alla disinformazione»
I punti chiave
3' di lettura
La Commissione europea si lancia contro la diffusione di “fake news” generate dai sistemi di Intelligenza Artificiale invitando le piattaforme online ad aggiungere etichette a testo, foto e altri contenuti generati da AI.
L’invito viene direttamente dalla vicepresidente della Commissione europea Vera Jourova, che ha affermato che la capacità della nuova generazione di chatbot di intelligenza artificiale di creare contenuti e immagini complessi in pochi secondi solleva «nuove sfide per la lotta alla disinformazione».
Jourova ha quindi chiesto a Google, Meta, Microsoft, TikTok e altre società tecnologiche che hanno aderito all’accordo volontario sottoscritto nei Paesi dell’Unione europea sulla lotta alla disinformazione di lavorare per affrontare il problema dell’IA.
Le piattaforme online che hanno integrato l’intelligenza artificiale generativa nei loro servizi, come il motore di ricerca Bing di Microsoft e il chatbot Bard di Google, dovrebbero creare tutele per impedire che «attori malintenzionati» generino disinformazione, ha affermato Jourova in un briefing a Bruxelles.
«Serve una chiara etichetta»
Le aziende che offrono servizi che possono diffondere disinformazione generata dall’intelligenza artificiale dovrebbero implementare tecnologie per «riconoscere tali contenuti ed etichettarli chiaramente», ha specificato Jourova.
Jourova ha affermato che i regolamenti dell’Ue mirano a proteggere la libertà di parola, ma quando si tratta di intelligenza artificiale, «non vedo alcun diritto per le macchine di avere la libertà di parola».
La rapida ascesa della tecnologia dell’intelligenza artificiale generativa, che ha la capacità di produrre testi, immagini e video simili a quelli umani, ha stupito molti e allarmato altri con il suo potenziale di trasformare molti aspetti della vita quotidiana.
L’Europa ha assunto un ruolo guida nel movimento globale per regolamentare l’intelligenza artificiale con il suo AI Act, ma la legislazione necessita ancora dell’approvazione finale e non entrerà in vigore per ancora parecchio tempo.
I funzionari dell’UE temono però di dover agire più rapidamente per tenere il passo con il rapido sviluppo dell’IA generativa.
Deep fake e intelligenza artificiale
Due esempi recenti di deepfake sfatati includono un’immagine apparentemente realistica di Papa Francesco con addosso un piumino bianco e un’immagine di fumo nero fluttuante accanto a un edificio accompagnata dall’affermazione che mostrava un’esplosione vicino al Pentagono.
Alcuni uomini politici europei hanno persino utilizzato l’intelligenza artificiale per avvertire dei suoi stessi pericoli. Per esempio, la settimana scorsa il primo ministro danese Mette Frederiksen ha utilizzato ChatGPT di OpenAI per generare la prima parte di un discorso tenuto al Parlamento nazionale, dicendo che è stato scritto «con una tale convinzione che pochi di noi crederebbero che dietro ci fosse un chatbot - e non un essere umano».
Funzionari europei e statunitensi hanno dichiarato la scorsa settimana che stanno elaborando un codice di condotta volontario per l’intelligenza artificiale che potrebbe essere pronto entro poche settimane, e che potrebbe essere un sistema per colmare il divario prima che le regole dell’UE sull’IA entrino effettivamente in vigore.
Nuove regole in vigore da fine agosto
Simili impegni volontari diventeranno obblighi legali alla fine di agosto ai sensi del Digital Services Act dell’UE, che costringerà le più grandi aziende tecnologiche a sorvegliare meglio le loro piattaforme per proteggere gli utenti da incitamento all’odio, disinformazione e altro materiale dannoso. Jourova ha affermato, tuttavia, che tali aziende dovrebbero iniziare immediatamente a etichettare i contenuti generati dall’intelligenza artificiale.
La maggior parte dei giganti digitali è già iscritta al codice contro disinformazione dell’UE, che richiede alle aziende di misurare il proprio lavoro nella lotta alle false informazioni e di pubblicare relazioni periodiche sui propri progressi. Twitter è uscito il mese scorso da questo gruppo di aziende, in quella che è sembrata una ulteriore mossa da parte di Elon Musk per allentare le restrizioni alla società di social media dopo averla acquistata l’anno scorso.
L’uscita ha suscitato un severo rimprovero, con la stessa Jourova che l’ha definita un errore. Twitter dovrà affrontare un test importante alla fine di questo mese, quando il commissario europeo Thierry Breton si recherà nella sua sede di San Francisco con un team per eseguire uno «stress test», inteso a misurare la capacità della piattaforma di conformarsi al Digital Services Act. Breton, che è responsabile della politica digitaledell’Unione, ha detto ai giornalisti che visiterà anche altre società tecnologiche della Silicon Valley tra cui OpenAI, il produttore di chip Nvidia e Meta.
loading...