Quando un deepfake “amatoriale” batte gli effetti speciali di Hollywood: The Mandalorian (SPOILER)
ALLERTA SPOILER: se non avete ancora visto il finale della seconda stagione
di The Mandalorian, non leggete oltre per evitare rivelazioni che
potrebbero guastarne la visione.
—
La puntata finale della seconda stagione di The Mandalorian include una
scena in cui compare un attore ringiovanito digitalmente. Non ne cito subito
il nome per non rovinarvi la sorpresa, ma è una
gran bella sorpresa.
Il guaio è che il ringiovanimento digitale in questo caso è, come dire, venuto
un po’ “piatto” e innaturale, forse anche per colpa dell’estrema segretezza
che ha necessariamente circondato tutto il lavoro. Le movenze della testa e le
espressioni sono forzate, robotiche, e la luce che illumina il viso sembra
sbagliata rispetto all’illuminazione del resto della scena.
Il risultato
finale è buono, ma cade proprio nel bel mezzo della famosa
Uncanny Valley, ossia quella zona intermedia fra la stilizzazione estrema e il realismo
perfetto, che crea emozioni negative, spesso di disagio, nello spettatore.
In sintesi: la Uncanny Valley esprime il concetto che riusciamo a
empatizzare facilmente con personaggi creati digitalmente quando sono
molto differenti dalla realtà;
invece i volti ricreati digitalmente in modo
quasi fotorealistico, con le normali proporzioni e fattezze ma senza azzeccarne perfettamente tutte le sfumature e i dettagli, non
generano altrettanta empatia e spesso generano ribrezzo. Ci sta simpatico Woody di Toy Story, per esempio, ma è dura empatizzare con i
personaggi digitali del film Polar Express o con Shepard di Mass Effect (qui
sotto).
Nel ringiovanimento digitale tradizionale, si prende un attore, gli si fa
recitare la scena mettendogli una miriade di puntini di riferimento sul volto, e poi un esercito di animatori traccia punto per punto ogni
movimento muscolare, ogni ruga della pelle, ogni contrazione, ogni spostamento
degli occhi, delle sopracciglia, della bocca o del naso, ventiquattro volte per
ogni secondo di ripresa, e applica gli stessi movimenti a un modello digitale
del viso ringiovanito o comunque alterato, ottenuto spesso partendo da una
scansione tridimensionale del volto del personaggio da replicare.
Le riuscitissime scimmie del remake de Il Pianeta delle scimmie,
Gollum del Signore degli anelli, Moff Tarkin e Leia in
Star Wars Rogue One o gli alieni di Avatar sono stati creati con
questa tecnica, ormai diffusissima, denominata motion capture (o spesso
emotion capture, dato che serve per “catturare” le emozioni
dell’attore).
È costosa, ma funziona benissimo per i volti non umani, ma non per quelli
umani, che hanno comunque qualcosa di artificiale, magari difficile da
identificare ma comunque rilevabile incosciamente anche da una persona non esperta: non sappiamo dire cosa ci sia di sbagliato, ma sappiamo che c’è qualcosa che non va. Abbiamo
milioni di anni di evoluzione nel riconoscimento facciale e dei movimenti nei
nostri cervelli, e la lettura delle espressioni è una funzione essenziale per
la socializzazione e la sopravvivenza, per cui è difficile fregarci,
nonostante i tediosissimi e costosissimi sforzi di Hollywood.
L’unico umano digitale perfettamente indistinguibile che ho visto finora è
Rachel in Blade Runner 2049. Questo video fa intuire la fatica
spaventosa necessaria per quei pochi, struggenti secondi che dilaniano
Deckard.
Tutto questo lavoro è assistito dal computer, ma richiede comunque un talento
umano e una lunghissima lavorazione sia fisica sia in post-produzione per
correggere gli errori del motion capture. Ma oggi c’è un altro
approccio: quello dell’intelligenza artificiale, usata per creare un
deepfake.
In sintesi: si danno in pasto a un computer moltissime immagini del volto da
creare, visto da tutte le angolazioni e con tutte le espressioni possibili,
insieme alla ripresa di un attore che recita la scena in cui va inserito quel
volto, e poi lo si lascia macinare. Il computer sceglie l’immagine di
repertorio più calzante e poi ne corregge luci e tonalità per adattarle a
quelle della scena. Il risultato, se tutto va bene, è un’imitazione
estremamente fluida e naturale delle espressioni dell’attore originale, il cui
volto viene sostituito da quello digitale.
Fare un deepfake ben riuscito è soprattutto questione di potenza di
calcolo e di tempo di elaborazione, oltre che di un buon repertorio di
immagini di riferimento; si riduce moltissimo l’apporto umano degli animatori
digitali.
I giovani esperti di effetti digitali di Corridor Crew hanno tentato di
correggere la scena imperfetta di The Mandalorian usando appunto un
deepfake. A questo punto credo di potervi rivelare che si tratta del
giovane Luke Skywalker, generato partendo dalle immagini del suo volto all’epoca de Il Ritorno dello Jedi.
Qui sotto trovate il video del risultato, che è
davvero notevole se si considera il tempo-macchina impiegato e le limitatissime risorse
economiche in gioco. Un gruppo di ragazzi di talento batte la Disney: questa è
una rivoluzione negli effetti speciali. Se volete andare al sodo, andate a
17:20. Buona visione.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o
altri metodi.



