L’edizione 2025 del Google I/O, come da previsioni, ha messo in chiaro che l’intelligenza artificiale è il vero e proprio cuore pulsante dell’ecosistema Google. Da Gemini, il suo modello multimodale ormai integrato in numerosi prodotti consumer e professionali, fino alle nuove funzionalità pensate per sviluppatori, creatori di contenuti e utenti quotidiani, Big G ha mostrato come stia accelerando verso un futuro sempre più governato da agenti AI che capiscono, eseguono e imparano.
Gemini diventa un agente AI universale
Tra le protagoniste indiscusse del Google I/O 2025 c’è senza dubbio Gemini, l’intelligenza artificiale multimodale di casa Google, che ha ricevuto un consistente aggiornamento sia nelle sue capacità conversazionali che nelle applicazioni pratiche. L’obiettivo, sempre più evidente, è quello di trasformare Gemini in un assistente AI “universale”: un agente capace di comprendere contesti complessi, interagire con dati visivi e testuali in tempo reale e adattarsi allo stile e ai bisogni dell’utente.
Gemini Live: conversazioni in tempo reale con intelligenza contestuale
Una delle novità più significative è Gemini Live, una modalità che consente conversazioni fluide e continue con l’utente, in tempo reale, utilizzando input vocali, visivi e testuali. Questo non è semplicemente un miglioramento della funzione di voice assistant: è un cambiamento strutturale nel modo in cui l’utente interagisce con il modello. Gemini Live può ascoltare, osservare tramite fotocamera (con il consenso dell’utente) e rispondere interpretando il contesto.
Ad esempio, è possibile chiedere a Gemini un consiglio su un abito puntando la fotocamera verso un guardaroba, o chiedere spiegazioni su un oggetto inquadrato, ricevendo risposte che combinano informazioni visive e semantiche.
Gemini Live è progettato per gestire dialoghi più naturali, con la possibilità di interruzioni, domande sovrapposte e chiarimenti: un’interazione che si avvicina davvero alla conversazione umana.
Gmail e Docs: Gemini si adatta al tuo tono
L’integrazione di Gemini nei prodotti della Google Workspace si fa sempre più sofisticata. In particolare, è ora in grado di generare risposte automatiche in Gmail che rispecchiano il tono e lo stile del mittente, rendendo il flusso comunicativo più coerente e naturale. La funzione, basata su un modello che apprende dal tono abituale dell’utente (con limiti e controlli privacy attivi), permette di automatizzare le risposte mantenendo la personalizzazione.
In Google Docs, Gemini può ora revisionare testi tenendo conto non solo della grammatica o dello stile, ma anche del contesto professionale o del tono desiderato. Ad esempio, può proporre alternative più formali, più persuasive o più concise in base al tipo di documento.
Integrazione in Chrome: Gemini legge e ragiona sulle pagine web
Una delle funzionalità più attese era l’integrazione nativa in Google Chrome, e adesso è realtà. Gemini può interagire con i contenuti della pagina web in tempo reale, fornendo assistenza proattiva, riassunti, spiegazioni o comparazioni, proprio come un tutor digitale che ti accompagna nella navigazione.
Jules e Flow
Il Google I/O 2025 ha mostrato con chiarezza che l’intelligenza artificiale non è più solo uno strumento di supporto, anzi, sta diventando una vera estensione del pensiero creativo e tecnico. Due delle innovazioni più significative presentate in questo ambito sono Jules, il nuovo agente AI pensato per affiancare programmatori e designer, e Flow, un potente sistema per generare contenuti audiovisivi dinamici a partire da semplici istruzioni.
Jules: l’agente AI che traduce idee in soluzioni operative
Jules si presenta come un agente intelligente capace di affiancare gli sviluppatori in ogni fase del lavoro. Ma non si limita a suggerire codice o a correggere errori: è in grado di comprendere schizzi, mockup imprecisi o descrizioni verbali, e trasformarli in codice eseguibile o prototipi visivi, spiegando passo dopo passo le decisioni prese.
Il suo funzionamento si basa su una sofisticata comprensione multimodale: riconosce strutture grafiche, comprende contesti tecnici e riesce a collegare un’idea abbozzata a una possibile implementazione concreta. Che si tratti di un disegno tracciato velocemente o di un flusso logico scritto in linguaggio naturale, Jules lo elabora e propone una realizzazione coerente, modificabile, e pronta per essere integrata in progetti reali.
In questo senso, l’approccio di Google va ben oltre l’assistenza automatica: l’intelligenza artificiale diventa uno strumento collaborativo, capace di prendere parte al processo creativo in modo attivo, con interventi che mantengono coerenza tecnica e aderenza all’intento iniziale.
Flow: raccontare storie visive con semplici descrizioni
Accanto a Jules, Google ha presentato un’evoluzione importante anche sul fronte della produzione video. Si chiama Flow, ed è un ambiente dedicato alla creazione di brevi filmati attraverso prompt testuali, immagini di riferimento o elementi visivi caricati dall’utente.
Flow permette, ad esempio, di partire da una serie di fotografie o concept art , come personaggi, oggetti o ambienti, e generare una sequenza animata coerente, scena dopo scena. L’utente può anche creare da zero ogni elemento descrivendolo con il testo, come in un copione: basta scrivere ciò che si vuole vedere, e Flow costruisce il video, interpretando azioni, ambienti e movimenti.
Durante la presentazione, Google ha mostrato una clip piuttosto surreale in cui, sebbene la resa estetica non fosse ancora all’altezza dei migliori standard cinematografici, il sistema ha dimostrato una capacità notevole di mettere in scena concetti complessi a partire da una semplice descrizione.
Il punto forte di Flow è la libertà narrativa: si può costruire un racconto visivo in modo modulare, combinando scene, modificando la regia con comandi come “ripresa aerea” o “slow motion”, e mantenendo sempre un controllo creativo diretto, anche senza competenze tecniche specifiche.
AI Mode
Uno dei momenti più attesi del Google I/O 2025 è stato l’annuncio dell’AI Mode, una modalità di ricerca rinnovata che segna una vera trasformazione dell’esperienza su Google Search. L’obiettivo è chiaro: spostare l’interazione da un sistema basato su link e risultati statici a un modello più dinamico, conversazionale e proattivo.
Questa nuova modalità, inizialmente introdotta come test nei mesi precedenti, è ora integrata nell’interfaccia di ricerca in modo nativo per gli utenti statunitensi. Quando si esegue una ricerca complessa, accanto ai risultati classici appare una nuova scheda, che può essere aperta per attivare un’interazione più simile a quella con un assistente virtuale.
Una nuova logica per domande complesse
L’intento di AI Mode non è tanto quello di rimpiazzare i risultati tradizionali, quanto di semplificare la navigazione tra informazioni articolate, dove una semplice risposta testuale non basta. Se ad esempio si vuole organizzare un viaggio, trovare alternative di prodotti o ricevere suggerimenti creativi, l’AI entra in gioco creando un filo logico tra le varie richieste, simulando un dialogo umano.
Il sistema è progettato per sostenere sessioni di ricerca multilivello, nelle quali si può affinare la domanda iniziale, approfondire un aspetto specifico o esplorare nuove direzioni senza dover riscrivere ogni volta la query.
Un esperimento in espansione
Per ora, AI Mode è ancora classificato come parte dei progetti Labs, accessibile in forma limitata e in rollout graduale. Tuttavia, Google ha confermato l’intenzione di ampliare il supporto linguistico e geografico nei prossimi mesi, oltre a integrarlo con altre funzioni dell’ecosistema Gemini e dei modelli multimodali.
Ciò che emerge con chiarezza è la volontà di trasformare la ricerca in un processo conversazionale, capace di accompagnare l’utente passo dopo passo, adattandosi al suo linguaggio e ai suoi bisogni. Un’evoluzione radicale che potrebbe cambiare il modo stesso in cui pensiamo alla ricerca online.
Google Alpha Evolve
Anche se non è stato annunciato durante l’evento, vale la pena parlare di AlphA Evolve, una delle innovazioni più sorprendenti emerse nei giorni immediatamente precedenti all’evento. Sviluppato da DeepMind, il laboratorio di ricerca avanzata di Google, AlphA Evolve rappresenta un punto di svolta nella costruzione di sistemi autonomi di apprendimento.
A differenza dei modelli tradizionali, che richiedono grandi quantità di dati etichettati e input esterni per addestrarsi, AlphA Evolve non parte da conoscenze precostituite. Invece, apprende interagendo con l’ambiente, esplorando strategie e adattandosi nel tempo. Il sistema si ispira esplicitamente ai processi evolutivi della natura: sperimenta, fallisce, corregge e migliora, generando versioni successive di sé stesso fino a trovare soluzioni sempre più efficienti.
Un modello oltre l’addestramento supervisionato
Il cuore del progetto è una forma avanzata di apprendimento chiamata meta-evoluzione: AlphA Evolve non si limita a risolvere compiti, ma impara come imparare. Questa capacità gli consente di affrontare problemi nuovi e complessi senza bisogno di istruzioni specifiche o dataset preconfezionati.
Nell’annuncio ufficiale, DeepMind ha dimostrato come il modello sia stato in grado di raggiungere o superare il livello umano in una serie di ambienti simulati, tra cui giochi strategici, attività di manipolazione fisica e compiti logici. Tutto questo partendo da zero, senza input esterni, attraverso una lunga sequenza di tentativi ed errori autogestiti.
Conclusione
Il Google I/O 2025 non è stato solo un evento di aggiornamenti tecnici, ma un manifesto chiaro dell’ambizione di Google: portare l’intelligenza artificiale al centro della nostra vita quotidiana, dal lavoro creativo alla programmazione, dalla generazione video alla gestione autonoma del sapere. La sfida, ora, sarà coniugare questa velocità di sviluppo con un uso consapevole e sicuro, in modo che queste tecnologie possano davvero diventare alleate del progresso umano, senza sostituirlo.