Google ha pubblicato un post sul suo blog ufficiale che spiega come gli algoritmi di base della sua fotocamera smart Clips siano stati addestrati per identificare e salvare gli scatti migliori e scartare quelli meno significativi.
Google si è affidata all’esperienza di un regista di documentari, un fotoreporter e un fotografo di belle arti per creare una intelligenza artificiale a selezionare alcune fotografie di alta qualità nel suo modello di apprendimento automatico. Il gruppo ha raccolto e analizzato i filmati registrati dai membri del team di sviluppo per cercare di rispondere alla domanda: “Cosa rende un momento memorabile?”
“Avevamo bisogno di formare i modelli su ciò che era brutto”, ha dichiarato Josh Lovejoy, Senior Interaction Designer di Google. “Escludendo le cose per le quali la fotocamera non avrebbe avuto bisogno di sprecare risorse per l’elaborazione (perché nessuno avrebbe trovato valore in esse), la qualità generale di base delle clip catturate è aumentata in modo significativo.”
Il processo di apprendimento include elementi di base della fotografia, come la comprensione della messa a fuoco e della profondità di campo, o la regola dei terzi, ma anche alcune cose ovvie per la maggior parte degli umani ma meno per un algoritmo, ad esempio il non coprire un obiettivo con il dito ed evitare movimenti bruschi durante la registrazione.
Google ammette che c’è ancora molto lavoro per raggiungere la perfezione: l’intelligenza artificiale è stata addestrata a osservare “stabilità, nitidezza e inquadratura”, ma senza un’accurata calibrazione, un volto posizionato alle estremità del fotogramma sarà apprezzato tanto quanto uno al centro, anche se il centro di interesse è da qualche altra parte nell’immagine. Ulteriori dettagli sul processo di sviluppo e formazione sono disponibili sul blog di Google.