Promesse, privacy e policy aziendali. Come funzionano i plugin di ChatGpt
Microsoft pochi giorni fa nel corso della Buld 2023 ha annunciato che utilizzerà per le estensioni lo stesso standard aperto di OpenAi
di Luca Tremolada
3' di lettura
Partiamo dalle basi: i plugin sono applicazioni di terze parti. In praticano collegano ChatGPT e tutto quello che può fare ad applicazioni esterne. Come? Per esempio, forniscono a ChatGPT informazioni aggiuntive, gli (o le) consentono di eseguire azioni specifiche o ad accedere a dati da fonti proprietarie. Una delle funzioni chiave è la possibilità di accedere a internet come fonte di dati.
La scelta di OpenAi
I primi plugin sono stati resi disponibili a marzo su servizi come OpenTable, Zapier, Expedia, Instacart, Kayak, Shopify. Con l’ultimo aggiornamento gli utenti Plus (che pagano 20 dollari al mese) hanno la possibilità di sfruttare più di 70 plugin sul servizio. Quindi non tutti sono disponibili per tutti, serve l’abbonamento. Peraltro va detto anche che non tutti sono buoni e molti promettono di più di quello che mantengono. Ecco perché prima di utilizzarli è meglio prendere informazioni. Partiamo da quello più utile con una premessa. Ogni plugin ha la possibilità di accedere al Web. “Scraper” recupera le informazioni da qualsiasi URL del sito Web che gli viene fornito. Quindi sei hai bisogno di un riassunto di quello che dice un sito ha trovato lo strumento giusto.
Il più promettente è Wolfram
Il più interessante invece è Wolfram che utilizza come suggerisce il nome le informazioni provenienti da Wolfram Alpha e Wolfram Language). Parliamo di un motore di ricerca intelligente nel senso che non accede a internet ma a un database scientifico. Per essere superficiali potremmo dire che è un secchione che sa tutto su matematica, fisica, chimica, biologia, astronomia, meteorologia, demografia e tutte le materie tecniche. Secondo alcuni la combinazioni delle reti neurale LLM (Large Language Model) tipo ChatGpt con questo tipo di motori computazionali di conoscenza può essere la vera novità dell’Ai generativa.
Non tutti fanno quello che promettono
Per esempio, la rivista Mashable non parla benissimo di ChatWithVideo che dovrebbe “guardare” i video al posto vostro e rispondere alle vostre domande, ma quanto dicono non capisce tutto. I Am Rich infine più che un plugin sembra una citazione. Dovrebbe generare immagini ma se usate come prompt la frase «I am rich” genera sempre la stessa immagine. Come l’app lanciata nel 2008 per iPhone che altro non faceva che disegnare un rubino. All’epoca, siamo agli esordi di iPhone, fu un successo.
La mossa di Microsoft al Build 2023
Alla conferenza annuale Build di Microsoft che si è tenuta mercoledì scorso hanno annunciato l’adozione dello stesso standard di plugin introdotto da OpenAi con ChatGpt. Verrà consentito così agli sviluppatori di creare estensioni che funzionano su prodotti come Bing, Microsoft Edge, Dynamics 365 Copilot, Microsoft 365 Copilot e il nuovo Windows Copilot di cui abbiamo parlato qui.
Qualche esempio?
Un plugin potrebbe consentire a Microsoft 365 Copilot, ad esempio, di prendere accordi per un viaggio seguendo le policy dell’azienda o rispondere a domande su come è stata gestita una fattistipecie dall’uffico legale in passato. Per ora solo chi ha accesso a Microsoft 365 Copilot potrà testare i plugin dei partner che sono stati annunciati nel corso della Build. Parliamo di Atlassian, Adobe, ServiceNow, Thomson Reuters, Moveworks e Mural. Chi usa ChatGpt su Bing potrà accedere alle estensioni di Instacart, Kayak, Klarna, Redfin e Zillow.
Il nodo della privacy e dell’accesso ai dati aziendali
Queste prime estensioni sono da tenere sotto osservazione anche per capire come sarà regolato l’accesso di questa tecnologia ai dati delle aziende terze parti. Un plugin consente a un sistema di intelligenza artificiale di accedere a quei file e informazioni aziendali. Interrogando l’Ai generativa in teoria un dipendente potrebbe entrare in possesso di informazioni sensibili e dati personali a cui non dovrebbe avere accesso per policy aziendali. Questo rischio è reale da un punto di vista tecnologico tanto che per ridurre al minimo i rischi, aziende come Apple e Samsung hanno vietato ai dipendenti di utilizzare ChatGPT e simili strumenti di intelligenza artificiale per timore che i dipendenti possano gestire in modo improprio e far trapelare dati riservati nel sistema. Serviranno sistemi di anonimizzazione del dato per rendere l’Ai generativa più sicura o stabilire dei limiti su come vengono utilizzati questi strumenti.
loading...