Poco più di una settimana dopo aver rilasciato Gemini 2.0, nuova versione della tecnologia AI che promette di “aprire la strada verso l’assistente universale del futuro”, Google mette a disposizione Gemini Deep Research, funzione di ricerca di Gemini che ora supporta oltre 40 lingue (in precedenza era disponibile solo in inglese).
Deep Research è uno strumento che consente agli utenti di Gemini Advanced di generare report di ricerca completi, indicando fonti e riferimenti sul web. Il tool è in grado di “ragionare” tenendo conto del contesto di cui si sta parlando e creare report completi e di facile lettura anche su argomenti complessi.
Dopo avere indicato le proprie richieste, è in grado di creare un piano di ricerca, adattandolo alle nostre esigenze. Big G la presenta come “una funzionalità progettata per aiutarti nelle ricerche complesse, sfruttando capacità di ragionamento avanzate e contesti lunghi per produrre report dettagliati per te”.
La creazione di report può richiedere tempo ma al completamento, si possono ottenere report multipagina che è possibile esportare verso Google Docs o affini. Il supporto a più lingue è solo una delle novità integrate in Gemini.
Gli abbonati possono sperimentare Gemini-Exp-1206, una nuova versione sperimentale sul web, che gestisce compiti più complessi, sbloccando miglioramenti come il ragionamento multimodale, la comprensione di un contesto lungo, la pianificazione e il controllo di istruzioni complesse, la chiamata di funzioni compositive, l’uso di strumenti nativi e latenza migliorata.
Gemini 2.0 Flash supporta anche output per immagini e audio: secondo Big G la velocità è il doppio rispetto alla precedente versione 1.5. Gli sviluppatori possono sfruttare queste funzionalità mediante le API Multimodal Live che supportano lo streaming in tempo reale di audio e video.
Google sta intanto lavorando su molte altre cose legate all’AI. Tra questi segnaliamo Project Mariner, un prototipo di ricerca costruito con Gemini 2.0 che getta le basi per nuove modalità di interazione tra persone e agenti AI, partendo direttamente dal browser. Con un’estensione sperimentale per Chrome, è in grado di leggere e interpretare ogni elemento sullo schermo, dalle immagini ai moduli, aiutando gli utenti a portare a termine le loro attività.
Con Jules, invece, Google sta esplorando gli agenti basati sull’AI che potrebbero diventare alleati preziosi per gli sviluppatori: è un agente sperimentale che si integra direttamente nel flusso di lavoro su GitHub. Può prendere in carico un problema, proporre un piano e realizzarlo, sempre con la supervisione dello sviluppatore.
Big G riferisce che quest’ultimo progetto si inserisce nell’obiettivo di lungo termine di sviluppare “agenti basati sull’AI” utili in ogni ambito, incluso quello della programmazione. Tutti gli articoli che parlano di Intelligenza Artificiale sono nella sezione dedicata di macitynet.