Con i nuovi Pixel 10 e la serie Galaxy S26 appena presentata, Google inaugura una fase diversa per Gemini che saprà anche compiere azioni in autonomia, oltre che darti consigli.
L’assistente Gemini non si limita più a rispondere o suggerire. Negli ultimi giorni Google ha introdotto due nuove funzioni capaci di agire concretamente all’interno delle applicazioni, compiendo operazioni reali al posto dell’utente. È il passaggio dall’AI conversazionale all’AI operativa.
La funzione si chiama “task automation” e rappresenta uno degli sviluppi più ambiziosi dell’ecosistema Android. Con un semplice comando in linguaggio naturale (peresempio “portami in centro” oppure “ordina una cena giapponese”) Gemini è in grado di aprire app come Uber o Deliveroo e iniziare a operare in autonomia.
Ma come fa? Il funzionamento è più sofisticato di quanto possa sembrare e segna un passaggio fondamentale per l’IA. Gemini avvia l’app in una finestra virtuale e procede passo dopo passo come farebbe una persona: seleziona indirizzi, confronta opzioni, sceglie piatti, gestisce varianti e segnala eventuali problemi, come un prodotto esaurito o un costo imprevisto.
Se serve una decisione, l’assistente chiede conferma. L’ordine finale, infatti, non viene mai inviato automaticamente: la responsabilità resta sempre dell’utente.
Questa evoluzione si inserisce nella visione più ampia illustrata dal presidente dell’ecosistema Android, Sameer Samat: trasformare Android in un “sistema di intelligenza” più che in un semplice sistema operativo. Non solo una piattaforma che ospita app, ma un ambiente capace di coordinare azioni e semplificare la vita digitale. Le automazioni introdotte con Gemini dovrebbero diventare parte integrante della prossima major release, Android 17.
Dal punto di vista tecnico, Gemini sfrutta capacità avanzate di ragionamento per interpretare le interfacce delle app, cliccare sui pulsanti corretti e adattarsi ai diversi flussi.
Ma non solo perchè quando gli sviluppatori hanno integrato (o lo faranno) framework dedicati messi a disposizione da Google, l’automazione risulta (o risulterà) più stabile e prevedibile. In assenza di integrazione diretta, l’assistente “osserva” in ogni caso l’interfaccia e prova a completare l’operazione simulando l’interazione umana.
L’impatto potenziale è significativo anche per le aziende. Se l’AI gestisce direttamente prenotazioni e ordini, cambia il modo in cui gli utenti interagiscono con le piattaforme. I percorsi studiati per guidare il cliente dentro l’app potrebbero anche cambiare.
Google sostiene che l’equilibrio tra automazione e modelli di business sarà la vera sfida dei prossimi anni.
Al momento la funzione è in fase iniziale, disponibile solo in mercati selezionati come Stati Uniti e Corea del Sud e compatibile con poche app, tra cui anche Grubhub. Ma la direzione è chiara: l’assistente non dovrà solo suggerire, ma compiere azioni, e poi chi lo sa…