Animare un personaggio virtuale sviluppato all’interno del motore grafico Unreal Engine con le espressioni del proprio volto. Per dirla in una frase è quel che offre Live Link Face, una nuova applicazione che ci riesce sfruttando la fotocamera frontale TrueDepth di iPhone. Le potenzialità di animazioni di questo tipo le aveva già mostrate Apple con il lancio delle Memoji su iPhone X, il primo degli smartphone dell’azienda a montare per l’appunto il sistema di sensori e fotocamere frontali con cui i telefoni dell’azienda, da quei giorni lì, sono in grado di riconoscere la tridimensionalità del volto.
Da ormai tre anni, tra le altre cose, possiamo realizzare persino dei video sostituendo il nostro volto con quello di un leone, un cane o una gallina in 3D: meglio ancora, attraverso un avatar costruito a nostra immagine e somiglianza. Probabilmente proprio da qui parte l’evoluzione di questo sistema proposto da Unreal Engine tramite la nuova applicazione, realizzata con l’ARKit che Apple mette a disposizione degli sviluppatori fin dal lancio della nuova piattaforma.
Non più un avatar stilizzato però, ma un personaggio virtuale in tutto e per tutto, immerso in un ambiente totalmente tridimensionale. Questo rendering dal vivo sviluppato con il motore Unreal Engine di fatto consente di trasmettere in tempo reale le proprie espressioni facciali a quelle del personaggio virtualizzato grazie appunto all’impiego del sistema di fotocamere di iPhone.
La società spiega che si può usare sia in ambiente professionale, anche componendo poi l’animazione di più personaggi all’interno della stessa scena, sia in modalità “solitaria” animando un solo personaggio per volta. L’app per altro non riconosce solo le espressioni del volto ma anche le inclinazioni del collo e i movimenti della testa: eventualmente, come mostrano nel post sul blog, si può anche affiancare ad un sistema professionale per tracciare il resto dei movimenti del corpo.
Ma le potenzialità offerte dalla sola applicazione sono piuttosto eloquenti. Ai tempi, chi scrive ha trascorso almeno un anno di vita nei mondi di World of Warcraft, dove ad un “lol” digitato corrispondeva una risata del personaggio controllato, così come altri comandi facevano eseguire al proprio avatar delle espressioni del volto piuttosto limitate. E’ chiaro che un sistema di questo tipo, grazie al fatto che sfrutta il motore grafico Unreal Engine, può essere già rapidamente implementato in tutti quei videogiochi che ne fanno uso.
Ciò si tradurrebbe in una più profonda virtualizzazione del proprio io nei videogiochi, dove i personaggi controllati potrebbero ridere, sorridere, fare linguacce ed altre smorfie con estrema naturalezza, lasciando così che il giocatore concentri i controlli sul resto del sistema. Insomma, in un futuro non troppo lontano, magari proprio grazie a Live Link Face potremo essere “dentro” i videogiochi come mai era stato possibile fino ad ora.