“L’informazione è alla base del progresso umano. Per questo, da oltre 26 anni, lavoriamo per organizzare le informazioni del mondo, rendendole accessibili e utili. Oggi spingiamo i limiti dell’AI per organizzare queste informazioni da ogni input e renderle disponibili su qualsiasi piattaforma, offrendo un reale valore per tutti”. Con queste parole, Sundar Pichai, Ceo di Google e Alphabet, ha svelato Gemini 2.0.
Gemini 2.0 rappresenta un salto in avanti rispetto ai precedenti modelli Gemini 1.0 e 1.5, già leader nella multimodalità e nell’elaborazione di contesti estesi. Progettato per gestire testo, immagini, video, audio e codice, il nuovo modello introduce output nativi per immagini e audio, oltre a strumenti integrati, avvicinando Google alla creazione di un assistente universale.
Una delle innovazioni più significative è Deep Research, una funzionalità che sfrutta capacità di ragionamento avanzate per esplorare argomenti complessi e creare report dettagliati. Già disponibile in Gemini Advanced, questa funzione rende la ricerca più completa ed efficace.
Inoltre, Gemini 2.0 trasforma la Ricerca Google grazie a AI Overview, utilizzata da un miliardo di persone. Il nuovo modello potrà affrontare domande complesse e multi-step, risolvere equazioni matematiche avanzate, rispondere a query multimodali e generare codice. Test limitati sono già iniziati, con un lancio globale previsto per il 2024.
Gemini 2.0 è il risultato di oltre un decennio di ricerca e sviluppo nell’IA, supportato da hardware avanzato come le TPU di sesta generazione Trillium, ora disponibili anche per i clienti di Google Cloud.
“Gemini 1.0 ci ha aiutato a organizzare e comprendere le informazioni, ma con Gemini 2.0 vogliamo trasformarle in strumenti più utili” ha concluso Pichai. “L’era dell’IA universale è appena iniziata”.