A pochi giorni dall’arrivo di iPhone 12 mini e iPhone 12 Pro Max, Jon McCormack, vice presidente di Apple responsabile camera software engineering, e Francesca Sweet, product line manager di Apple, sono stati intervistati da PetaPixel e hanno rivelato alcuni dettagli nell’approccio di Apple per la progettazione della fotocamera di iPhone 12 spiegando che si è preferito usare un metodo olistico, tenendo conto sia dell’hardware, sia del software.
I due dirigenti hanno entrambi riferito che l’approccio usato per lo sviluppo della fotocamera è di tipo olistico: non è solo una questione di sensori e lenti ma anche di ciò che è possibile ottenere dal SoC A14, dall’image signal processing, e dal software che in gergo si chiama “fotografia computazionale”, combinazione di algoritmi e chip sempre più potenziati che consentono, ad esempio, di avere una esposizione della fotografia enormemente migliorata e ottenere foto nel complesso migliori rispetto a immagini scattate con la sola esposizione automatica.
Per quanto riguarda l’obiettivo principale, Apple vuole fare in modo che sia possibile catturare scatti, senza soluzione di continuità, facendo in modo che l’utente non si accorga di tutto ciò che c’è dietro, evitando distrazioni di sorta. «Come fotografi, pensiamo a pensare troppo a elementi quali ISO, movimenti del soggetto e così via» dichiara McCormack, precisando «Apple vuole eliminare tutto questo e permettere alle persone di catturare l’attimo, scattare grandi foto e tornare a quello che stavano facendo».
Secondo McCormack tutto ciò vale anche per i fotografi più esperti, spiegando che Apple ha fatto il possibile per comprimere l’intero processo fino all’unica azione di scattare per catturare un fotogramma, con l’obiettivo di rimuovere tutte le distrazioni possibili. «Abbiamo replicato il più possibile cosa farebbe un fotografo sul posto», spiega ancora McCormack. «Ci sono due aspetti da considerare nello scattare una foto: l’esposizione e come svilupparla dopo». «Abbiamo usato moltissima fotografia computazionale per l’esposizione, ma ancora di più nella fase seguente, eseguendo il tutto in automatico per l’utente». «L’obiettivo di tutto ciò è ottenere foto che sembrino più fedeli, in grado di dare l’impressione di essere effettivamente lì».
Apple ha sfruttato varie tecniche di machine learning per elaborare individualmente vari aspetti delle foto. «Sfondo, primo piano, occhi, labbra, capelli, pelle, vestiti, cielo: elaboriamo tutti questi elementi in modo indipendente alla stregua di quanto si farebbe in Lightroom con una serie di regolazioni locali». «Regoliamo tutto, dall’esposizione, al contrasto, alla saturazione, combinando i vari elementi insieme».
Francesca Sweet ha riferito delle migliorie nelle fotocamere di iPhone 12, a cominciare da Night Mode, evidenziando la riduzione del rumore e le regolazioni dell’esposizione multi-fotogramma e spiegando che con iPhone 12 Pro Max è possibile ottenere risultati ancora migliori per via del sensore più grande che permette di catturare più luce in meno tempo. Per quanto riguarda il ProRAW (formato che contiene tutte le informazioni RAW standard, e in più i dati di elaborazione dell’immagine), McCormack riferisce che l’idea è arrivata da Apple tenendo conto di questo formato in abbinamento alla fotografia computazionale.
Nelle scorse ore negli USA sono state pubblicate le prime rencensioni di iPhone 12 mini e iPhone 12 Pro Max che saranno disponibili anche in Italia da venerdì 13 novembre.