OpenAi lancia Bug Bounty, fino a 20mila dollari per chi trova un errore in ChatGpt
Questa settimana anche il presidente americano Biden ha iniziato a valutare la necessità di controllare gli strumenti di intelligenza artificiale “generativa” come appunto ChatGPT
di Alessandro Longo
I punti chiave
3' di lettura
OpenAI, messa sulla graticola nel mondo, farebbe ora di tutto per dimostrare che è intenzionata a creare una intelligenza artificiale sicura, volta al bene dell'umanità. È in questo contesto che ha appena lanciato un bounty program: fino a 20mila dollari, a partire da 200 dollari, per chi trova un bug in ChatGpt.
Così scrive nel suo blog: «il programma OpenAI Bug Bounty è un modo per riconoscere e premiare le preziose intuizioni dei ricercatori di sicurezza che contribuiscono a mantenere sicura la nostra tecnologia e la nostra azienda. Vi invitiamo a segnalare le vulnerabilità, i bug o le falle di sicurezza che scoprite nei nostri sistemi. Condividendo le vostre scoperte, svolgerete un ruolo cruciale nel rendere la nostra tecnologia più sicura per tutti».
Perché un Bug Bounty?
«Per incentivare i test e come segno di apprezzamento, offriremo ricompense in denaro in base alla gravità e all’impatto dei problemi segnalati. Le ricompense vanno da 200 dollari per le scoperte di bassa gravità fino a 20.000 dollari per le scoperte eccezionali. Riconosciamo l’importanza dei vostri contributi e ci impegniamo a riconoscere i vostri sforzi». OpenAi ha stretto, a tal scopo, una partnership con Bugcrowd, una piattaforma leader nel settore dei bug bounty, per gestire il processo di invio delle segnalazioni e delle ricompense. A conferma di quali siano le intenzioni di fondo, però, la pagina di OpenAi dedicata al bounty program si apre con il paragrafo “Il nostro impegno per un’intelligenza artificiale sicura”. «La missione di OpenAI è creare sistemi di intelligenza artificiale che vadano a beneficio di tutti. A tal fine, investiamo molto in ricerca e ingegneria per garantire che i nostri sistemi di IA siano sicuri e protetti. Tuttavia, come per ogni tecnologia complessa, siamo consapevoli che possono emergere vulnerabilità e difetti», spiega l'azienda.
Non solo bounty
«Siete interessati a contribuire ulteriormente? Stiamo assumendo: esplorate i ruoli di sicurezza aperti nella nostra pagina delle carriere. Unitevi a noi per garantire che la frontiera della tecnologia sia sicura».OpenAi, proprio nei giorni in cui è stata messa sotto accusa dal nostro Garante Privacy, ha pubblicato articoli per rassicurare il mondo. Da una parte, ribadisce che l'obiettivo – molto ambizioso – di fondo è andare oltre l'attuale ChatGpt e arrivare a una “intelligenza artificiale generale (AGI)”, in grado quindi davvero di riprodurre tutte le caratteristiche dell'intelligenza umana (ma con il vantaggio ulteriore di una super velocità e una memoria quasi infinita). Dall'altra, dice che vuole una AGI allineata ai valori umani e in grado di seguire le intenzioni umane. Insomma, non una AI fuori controllo e dannosa. «Le IA non allineate – spiega infatti OpenAI - potrebbero comportare rischi sostanziali per l’umanità».
Per allineare l'IA all'umanità OpenAI fa tre cose:
Addestra i sistemi di intelligenza artificiale utilizzando il feedback umano; li addestra per assistere la valutazione umana; li addestra anche, espressamente, con una continua ricerca di allineamento ai valori umani. Questa settimana anche il presidente americano Biden ha iniziato a valutare la necessità di controllare gli strumenti di intelligenza artificiale “generativa” come appunto ChatGPT, in seguito alle crescenti preoccupazioni che la tecnologia possa essere utilizzata per discriminare o diffondere informazioni dannose.Come primo passo verso una potenziale regolamentazione, il Dipartimento del Commercio americano ha presentato una richiesta pubblica formale di commenti su quelle che ha definito misure di responsabilità, tra cui la possibilità che nuovi modelli di intelligenza artificiale potenzialmente rischiosi debbano essere sottoposti a un processo di certificazione prima di essere rilasciati. Questo tipo di regolazione può ricordare il concetto di “valutazione di impatto”, presente nell'attuale bozza di AI Act della Commissione europea, che però la prevede solo per applicazioni di IA ad alto rischio (in ambito sanitario o di sicurezza ad esempio).OpenAI qualche giorno fa sempre sul proprio blog ha promesso di collaborare con istituzioni di ricerca e politiche. «Cerchiamo di creare una comunità globale che lavori insieme per affrontare le sfide globali dell’AGI».
loading...