All’evento Pixel Fall Launch, dopo molti annunci e indiscrezioni, Google ha annunciato tutti i dettagli di Pixel 6 e Pixel 6 Pro: abbiamo già parlato del chip Tensor, ma tra le novità di rilievo rientra senza dubbio il comparto fotocamere, completamente rivisto sia dal punto di vista hardware che software.
Gli smartphone Pixel sono stati a lungo tra i protagonisti nel reparto fotografia mobile, anche se da tempo Google si era adagiata sugli allori, utilizzando lo stesso sensore Sony IMX363 da 12,2 megapixel da Pixel 3 a Pixel 5 e 5A.
Ora le fotocamere principali di Pixel 6 e 6 Pro ospitano un sensore da 50 megapixel più grande dei suoi predecessori, in grado di generare immagini in uscita fino a 12,5 megapixel. Google afferma di poter catturare il 150% di luce in più rispetto al Pixel 5 con il suo sensore di immagine da 1/1,31″ e apertura f/1,85.
Seguendo una strategia simile a iPhone, entrambi i Pixel sono dotati di obiettivi ultrawide con sensori da 12 megapixel, mentre il 6 Pro aggiunge un terzo teleobiettivo con zoom ottico 4x accoppiato a 48 megapixel di risoluzione, come segnala The Verge. Sul frontale, invece, svetta una selfie cam da 8 megapixel con un campo visivo di 84 gradi su Pixel 6, mentre il 6 Pro ne propone una da 11,1 megapixel e 94 gradi per selfie di gruppo più facili.
Oltre a un hardware tutto nuovo, Google sembra aver rivoluzionato anche il software, con tante ottimizzazioni. Big G, infatti, afferma che la sua modalità Ritratto riprogettata può rendere meglio le diverse tonalità della pelle di gruppi di persone più ampi e diversi, parlando adesso di “Real Tone“. Google afferma, così, di essersi impegnata a costruire un’esperienza più equa attraverso la sua fotocamera e i suoi prodotti di imaging, così da correggere quelle che sono state le lacune passate nei suoi algoritmi.
Ancora, Google ha presentato la funzione Face Unblur, che promette di utilizzare le immagini multiple registrate a ogni pressione dell’otturatore, per mantenere i volti nitidi, anche quando si fotografano i movimenti.
La modalità movimento è progettata per catturare l’azione, e ottenere foto migliori con lunghe esposizioni, ad esempio quando si tratta di catturare le luci delle auto in fila su un paesaggio notturno o la panoramica con un soggetto in movimento in cui sfocare lo sfondo e dare un senso di velocità. Google utilizza l’apprendimento automatico per rilevare il contenuto della cornice e sfocare uno sfondo dietro un soggetto in movimento, o per mantenere tutto nitido mentre si sfocano solo gli elementi chiave.
Infine, Magic Eraser (sopra) è la nuova funzione che promette di rimuovere oggetti e soggetti indesiderati dall’immagine. Inoltre, gli utenti possono rivedere lo scatto e selezionare gli oggetti da rimuovere nell’inquadratura . Lo strumento, peraltro, è integrato in Google Foto per Pixel, così da permettere la rimozione di tali oggetti indesiderati, sia sulle foto appena scattate, sia su quelle scattate negli anni addietro e già presenti nella galleria.
Google ha anche collaborato con Snap per creare Quick Tap to Snap su Pixel 6; grazie a questa funzionalità, è possibile toccare due volte la parte posteriore del telefono per accedere direttamente all’app della fotocamera di Snapchat. Google otterrà filtri e transizioni AR esclusivi, una collaborazione che indicherebbe una maggiore attenzione per Android da parte di Snapchat, che storicamente ha avuto un occhio di riguardo per il mondo iOS. Da notare, che adesso Snap otterrà il supporto nativo dell’app della fotocamera di Google.
Per tutte le informazioni sul processore di Pixel 6, il link da seguire è invece questo.