2' di lettura
L'Intelligenza Artificiale generativa somiglia sempre più a una strada bella e piena di insidie. Un disegno attraente, ma anche preoccupante. E preoccupato si è detto anche Sam Altman, amministratore delegato di OpenAI (la società madre di ChatGPT) che davanti a una sottocommissione del Senato degli Stati Uniti, ha confessato che la sua più grande preoccupazione è il potenziale dell’intelligenza artificiale di poter persuadere e disinformare gli elettori, in vista delle elezioni statunitensi del prossimo anno.
Altman, il Ceo più in vista del momento nell'industria tecnologica americana, davanti ai senatori Usa si è detto pronto ad aiutare i regolatori alle prese con la stesura norme che garantiscano flessibilità alle aziende e un accesso ampio e sicuro dei consumatori all'Intelligenza Artificiale generativa.
«Ritengo che ci sia bisogno di nuove regole, di linee guida. Possiamo e dobbiamo lavorare insieme per identificare e gestire i potenziali» rischi in modo che tutti possano «godere degli enormi» benefici che la nuova tecnologia offre. Altman si è detto convinto che l’AI vada «sviluppata su valori democratici», perché «non è un social media e ha bisogno di un risposta diversa. La mia maggiore paura è che possa creare significativi danni», mette in evidenza osservando come la tecnologia è «ancora nelle fasi iniziali e può ancora commettere degli errori».
Da qui l’invito del Ceo di OpenAI a valutare la possibile concessione di licenze per lo sviluppo di modelli di intelligenza artificiale, senza però soffocare la crescita delle piccole start up del settore. «La pressione regolamentare dovrebbe essere su di noi, su Google» e in generale sui big del settore. Altman è stato molto chiaro: «Se questa tecnologia va male, può andare molto male. E noi vogliamo farci sentire su questo. Vogliamo lavorare con il governo per prevenire che ciò accada».
L’audizione di Altman, la prima per il Ceo di OpenAI, è coincisa con la pubblicazione di un report di Microsoft (primo investitore di OpenAI, con un impegno da oltre 10 miliardi di dollari), secondo il quale l’intelligenza artificiale è in grado in alcuni casi di capire le cose come un essere umano. Chiamato «Sparks of Artificial General Intelligence», il rapporto alimenta un dibattito molto acceso su quanto possa essere umana l'intelligenza artificiale.
loading...