Google risponde a Microsoft: l’Ai generativa entra nella ricerca, in Gmail e nelle foto
Nella conferenza degli sviluppatori Google I/0 il gigante dei motori di ricerca è chiamata a ripensare la sua strategia dopo il successo di ChatGpt e dell’Ai generativa
dal nostro inviato Luca Tremolada
I punti chiave
6' di lettura
Qui a Mountain View alla conferenza annuale degli sviluppatori è la giornata dell'orgoglio di Google.
Dopo il successo di ChatGpt e il boom di vecchi e nuovi interpreti della nascente intelligenza artificiale generativa, è il turno di BigG, a casa sua, sul palco Shoreline Amphitheatre.
L'attesa è tutta su Bard che almeno per i media è la risposta a ChatGpt. Google punta a riaffermare il suo ruolo di Ai company, deve dimostrare al suo pubblico (e agli azionisti) che il futuro della ricerca non è affidato a un singolo chatbot. Serve insomma una nuova strategia sull’Ai. Ecco la cronaca e il commento degli annunci.
L'approccio “audace e responsabile”
Parte il Ceo Sundar Pichai che sottolinea subito l'approccio «audace e responsabile all'intelligenza artificiale» per prendere le distanze forse dalla concorrenza di ChatGpt. Ricorda la storia di Google come prima Ai company e riparte dalle mappe e dalla immersive view una delle ultime novità che raggiungeranno 15 città tra cui Firenze e Venezia entro la fine di quest’anno.
Arriva PaLM2 e i modelli di linguaggi
Come anticipato dai rumors viene introdotto PaLM 2, l’ultima versione del modello di linguaggio di grandi dimensioni (LLM) dell’azienda che supporta oltre 100 lingue diverse. C ome altri LLM, PaLM è un sistema flessibile che può potenzialmente eseguire tutti i tipi di attività di generazione e modifica del testo.
Potresti addestrare PaLM a essere un chatbot conversazionale come ChatGPT, ad esempio, oppure potresti usarlo per attività come riassumere il testo o persino scrivere codice.
Il nuovo Bard in 180 Paesi diventa piattaforma.
Ora è il momento più atteso. Arriva Bard. Ricordiamo cosa è Bard. Si basa su LaMDA, il modello di linguaggio di grandi dimensioni (LLM, Large Language Model) presentato due anni fa da Google con l'obiettivo di comprendere meglio gli elementi di contesto di un dialogo.
Non è quindi esattamente come ChatGpt ma assolve alla stessa funzione. Verrà reso disponibile in inglese in oltre 180 paesi del mondo (per ora non c’è l’Italia). Inoltre, il sistema è ora disponibile in giapponese e coreano e presto sarà in grado di supportare le 40 lingue più diffuse al mondo (e c’è anche l’italiano). Inoltre, verrà integrato come ha fatto Microsoft con ChatGpt nei suoi prodotti di punta. Si aggiunge anche l’abilità di programmazione che prima non aveva con 40 linguaggi di programmazione.
L'integrazione di Bard nelle app
Nei prossimi mesi Google intende introdurre nuovi modi per integrare le funzionalità delle applicazioni e dei servizi Google che già utilizzate nell’esperienza di Bard.
Bard sarà anche in grado di connettersi con partner esterni: integreremo Adobe Firefly in Bard in modo che possiate trasformare facilmente e rapidamente le vostre idee creative in immagini di alta qualità, che potrete poi modificare ulteriormente o aggiungere ai vostri progetti in Adobe Express. Inoltre, stanno aggiungendo altre estensioni a servizi come Kayak, Instacart, Wolfram e Khan Academy.
Il potere di Lens in Bard
Altra novità è quella di Lens e Bard. Ora si potrà anche richiedere integrare Bard con le immagini e Google Lens. Potete caricare una foto dei vostri cani e chiedere a Bard di scrivere una didascalia per voi.
Il ruolo dei Chat Plug-in
L’impressione è che i plug-in di chatbot sono le nuove app per smartphone. L’idea è quella di attrarre sviluppatori per trasformare il prodotto Bard in una piattaforma di AI.
Anche Worspace si apre all'AI generativa con Duet-AI
I manager di Moutain View parlano di integrazione dell’intelligenza artificiale generativa in tutte le app di Workspace. Da Gmail a Sheets a Slides, quindi dentro a tutti i prodotti di produttività Vuole dire che avremo una sorta di suggeritore o co-pilota mentre scriviamo una mail o realizziamo una presentazione. «I suggerimenti sono un modo potente per comunicare con l’IA ma può essere scoraggiante sapere da dove cominciare. Cosa succederebbe se l’IA potesse offrirvi in modo proattivo dei suggerimenti, che cambierebbero in base a ciò su cui state lavorando?». Questi strumenti si chiameranno Duet- Ai che è la risposta ai co-piloti di Microsoft.
Arrivano i Labs e finalmente si parla di ricerca e Ai generativa
Torna sul palco il Ceo di Alphabet e presenta Labs (Google.com/labs) per poi farsi da parte. «La ricerca - spiega una manger di Google - continuerà a essere il punto di partenza per ciò che rende il web così speciale». L’impressione è che Google stia ricordando che la sua forza è e resta il suo motore e la potenza di catalogazione che ha acquisito nel corso degli anni grazie all’algoritmo PageRank. Grazie a nuove scoperte nel campo dell’Ai generativa, stiamo reinventando ciò che un motore di ricerca può fare. L’Ai generativa in questo senso non è una rivoluzione ma si aggiunge ai servizi di ricerca. Ricordiamo che il fatturato di Google si poggia sulla pubblicità e questo ci aiuta a capire meglio il contesto.
Un esempio su come cambia la ricerca
Grazie alle nuove funzionalità dell’Ai generativa nella Ricerca, si legge nel blog, si potrà comprendere un argomento più rapidamente, scoprire nuovi punti di vista e approfondimenti e svolgere le vostre attività in modo più semplice. Prendiamo una domanda come “Per una famiglia con bambini di meno di tre anni e un cane è meglio il Bryce Canyon o l’Arches National Park?”. Di norma, dovreste suddividere questa domanda in altre più piccole, cercare tra le numerose informazioni disponibili e iniziare a mettere insieme i pezzi autonomamente. Con l’Ai generativa, la Ricerca può fare una parte di questo lavoro per voi.
Search Generative Experience, cosa vuole dire
Torna sul palco Sundar Pichai e ci ricorda che il passaggio è da prodotto a piattaforma. E quindi entrerà in tutti servizi compresa la ricerca.«Unendo le funzionalità uniche dell’IA generativa con la profonda comprensione delle informazioni di Google, spiegano sul palco i manager di Mountain View, renderemo possibile porre domande completamente nuove, alle quali non si era mai pensato prima che la Ricerca Google potesse rispondere. Questo trasformerà il modo in cui le informazioni sono organizzate. Inizieremo con un esperimento in Search Labs chiamato SGE (Search Generative Experience), disponibile nelle prossime settimane negli Stati Uniti. Continueremo ad ascoltare e ricevere feedback dalle persone e dall’ecosistema più ampio». Con SGE, gli annunci della rete di Ricerca continueranno ad apparire negli spazi dedicati agli annunci all'interno della pagina. In questa nuova esperienza, gli inserzionisti avranno come sempre l’opportunità di raggiungere potenziali clienti durante le loro ricerche. Testeremo e svilupperemo l’esperienza pubblicitaria in base a ciò che apprenderemo. «Come sempre, ci impegniamo a offrire la massima trasparenza e rendere gli annunci distinguibili dai risultati di ricerca organica». Tradotto gli annunci della rete di Ricerca continueranno ad essere riconoscibili in modo chiaro e trasparente grazie all'etichetta “Sponsorizzato” in grassetto nero. SGE (Search Generative Experience) sarà disponibile su Chrome per computer e nell’app Google (Android e iOS) negli Stati Uniti (solo in inglese al momento del lancio). La ricerca per parole che è quella che sorregge BigG nella pubblicità online continuerà a essere al centro. Il senso sembra essere quello di non mettere al centro il chatbot ma gli strumenti di Ai che servono per capire il contesto. Un messaggio chiaro agli inserzionisti.
I limiti di LLM secondo Google
L’IA generativa e i LLM hanno limiti noti e, tuttora, il motore di ricerca può commettere errori. «Stiamo adottando un approccio deliberatamente responsabile nell'aggiungere nuove funzionalità dell’IA generativa alla Ricerca. Abbiamo addestrato questi modelli per garantire il livello di qualità elevato tipico della Ricerca e continueremo ad apportare miglioramenti nel tempo. I modelli si basano sui nostri sistemi che abbiamo perfezionato per decenni e abbiamo anche previsto dei paletti aggiuntivi, ad esempio la restrizione dei tipi di query in cui queste funzionalità appariranno».
È il momento di Duet AI per Google cloud e Vertex
Gli sviluppatori di Google possono costruire prodotti di intelligenza artificiale con vari modelli utilizzando un’applicazione chiamata Vertex AI. Tre le applicazioni: immagini, coding e Chiro un modello text-to-voice. Anche in questo caso - come per Workspace - nasce una nuova classe di prodotto chiamata Duet AI for Google Cloud. Tradotto sono applicazioni di Ai sul cloud per sviluppatori. Come funziona? Duet AI funge da programmatore esperto e assiste gli utenti cloud nel coding , offrendo suggerimenti adattati e generando intere funzioni in tempo reale e assistendo nelle revisioni e nelle ispezioni del codice. .
E infine è il momento di Pixel
Ampiamente annunciato il Pixel 7a. La versione precedente è stata uno dei telefonini di fascia media più apprezzati. Chi vi scrive ha provato il nuovo dispositivo che conferma quanto di buono fatto finora. E migliora sul fronte della fotografia e della batteria. Prezzo di lancio in Italia: 509 euro che è un buon prezzo. Presentato anche il primo tablet di Google che probabilmente arriverà in Italia non prima dell’estate.Il prezzo negli Usa è 499 dollari. Lo schermo è di 11 pollici e le prestazioni medio alte. Infine, il primo smartphone pieghevole made in Mountain View. Confermati i rumors usciti: display esterno da 5,8 pollici e uno interno da 7,6 pollici. Nel video non ci sono i dettagli ma potrebbe essere dotato di processore Tensor G2 (lo stesso dei nuovi smartphone Pixel 7 e Pixel 7 Pro). Mentre lato fotografia sono visibili cinque fotocamere di cui la principale pè di 48 Mp. Il costo dovrebbe aggirarsi intorno ai 1.700 dollari. Che è molto alto.
loading...