Vai al contenuto
Quando un deepfake “amatoriale” batte gli effetti speciali di Hollywood: The Mandalorian (SPOILER)

Quando un deepfake “amatoriale” batte gli effetti speciali di Hollywood: The Mandalorian (SPOILER)

ALLERTA SPOILER: se non avete ancora visto il finale della seconda stagione
di The Mandalorian, non leggete oltre per evitare rivelazioni che
potrebbero guastarne la visione.

La puntata finale della seconda stagione di The Mandalorian include una
scena in cui compare un attore ringiovanito digitalmente. Non ne cito subito
il nome per non rovinarvi la sorpresa, ma è una
gran bella sorpresa. 

Il guaio è che il ringiovanimento digitale in questo caso è, come dire, venuto
un po’ “piatto” e innaturale, forse anche per colpa dell’estrema segretezza
che ha necessariamente circondato tutto il lavoro. Le movenze della testa e le
espressioni sono forzate, robotiche, e la luce che illumina il viso sembra
sbagliata rispetto all’illuminazione del resto della scena.

Il risultato
finale è buono, ma cade proprio nel bel mezzo della famosa
Uncanny Valley, ossia quella zona intermedia fra la stilizzazione estrema e il realismo
perfetto, che crea emozioni negative, spesso di disagio, nello spettatore.

In sintesi: la Uncanny Valley esprime il concetto che riusciamo a
empatizzare facilmente con personaggi creati digitalmente quando sono
molto differenti dalla realtà;
invece i volti ricreati digitalmente in modo
quasi fotorealistico, con le normali proporzioni e fattezze ma senza azzeccarne perfettamente tutte le sfumature e i dettagli, non
generano altrettanta empatia e spesso generano ribrezzo. Ci sta simpatico Woody di Toy Story, per esempio, ma è dura empatizzare con i
personaggi digitali del film Polar Express o con Shepard di Mass Effect (qui
sotto).

Nel ringiovanimento digitale tradizionale, si prende un attore, gli si fa
recitare la scena mettendogli una miriade di puntini di riferimento sul volto, e poi un esercito di animatori traccia punto per punto ogni
movimento muscolare, ogni ruga della pelle, ogni contrazione, ogni spostamento
degli occhi, delle sopracciglia, della bocca o del naso, ventiquattro volte per
ogni secondo di ripresa, e applica gli stessi movimenti a un modello digitale
del viso ringiovanito o comunque alterato, ottenuto spesso partendo da una
scansione tridimensionale del volto del personaggio da replicare.

Le riuscitissime scimmie del remake de Il Pianeta delle scimmie,
Gollum del Signore degli anelli, Moff Tarkin e Leia in
Star Wars Rogue One o gli alieni di Avatar sono stati creati con
questa tecnica, ormai diffusissima, denominata motion capture (o spesso
emotion capture, dato che serve per “catturare” le emozioni
dell’attore). 

È costosa, ma funziona benissimo per i volti non umani, ma non per quelli
umani, che hanno comunque qualcosa di artificiale, magari difficile da
identificare ma comunque rilevabile incosciamente anche da una persona non esperta: non sappiamo dire cosa ci sia di sbagliato, ma sappiamo che c’è qualcosa che non va. Abbiamo
milioni di anni di evoluzione nel riconoscimento facciale e dei movimenti nei
nostri cervelli, e la lettura delle espressioni è una funzione essenziale per
la socializzazione e la sopravvivenza, per cui è difficile fregarci,
nonostante i tediosissimi e costosissimi sforzi di Hollywood. 

L’unico umano digitale perfettamente indistinguibile che ho visto finora è
Rachel in Blade Runner 2049. Questo video fa intuire la fatica
spaventosa necessaria per quei pochi, struggenti secondi che dilaniano
Deckard.

 

Tutto questo lavoro è assistito dal computer, ma richiede comunque un talento
umano e una lunghissima lavorazione sia fisica sia in post-produzione per
correggere gli errori del motion capture. Ma oggi c’è un altro
approccio: quello dell’intelligenza artificiale, usata per creare un
deepfake.

In sintesi: si danno in pasto a un computer moltissime immagini del volto da
creare, visto da tutte le angolazioni e con tutte le espressioni possibili,
insieme alla ripresa di un attore che recita la scena in cui va inserito quel
volto, e poi lo si lascia macinare. Il computer sceglie l’immagine di
repertorio più calzante e poi ne corregge luci e tonalità per adattarle a
quelle della scena. Il risultato, se tutto va bene, è un’imitazione
estremamente fluida e naturale delle espressioni dell’attore originale, il cui
volto viene sostituito da quello digitale. 

Fare un deepfake ben riuscito è soprattutto questione di potenza di
calcolo e di tempo di elaborazione, oltre che di un buon repertorio di
immagini di riferimento; si riduce moltissimo l’apporto umano degli animatori
digitali.

I giovani esperti di effetti digitali di Corridor Crew hanno tentato di
correggere la scena imperfetta di The Mandalorian usando appunto un
deepfake. A questo punto credo di potervi rivelare che si tratta del
giovane Luke Skywalker, generato partendo dalle immagini del suo volto all’epoca de Il Ritorno dello Jedi.

Qui sotto trovate il video del risultato, che è
davvero notevole se si considera il tempo-macchina impiegato e le limitatissime risorse
economiche in gioco. Un gruppo di ragazzi di talento batte la Disney: questa è
una rivoluzione negli effetti speciali. Se volete andare al sodo, andate a
17:20. Buona visione.

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o
altri metodi.

Robotica sempre più affascinante

LittleDog, il robot che zampetta e salta

L’agilità dell’ultima versione di LittleDog, la versione ridotta del robot da soma BigDog, è semplicemente impressionante. Nel video qui sopra scavalca ostacoli, sale le scale e riconosce i punti più stabili d’appoggio. Non si sa se è già in grado di rintracciare Sarah Connor.

Direttamente dalla Valle dell’Inquietante

Perché il digitale ci sembra finto? Colpa di madre natura

I personaggi umani digitali di Hollywood, anche i più costosi, hanno sempre quel certo non so che di sbagliato, qualcosa nel modo in cui si muovono e nelle loro espressioni, per quanto siano sofisticati e precisi. Si chiama Uncanny Valley: è l’avvallamento nel grafico che lega la verosimiglianza di un umano artificiale e il suo grado di repulsione.

In pratica, è dagli anni Settanta che si studia il problema che se un essere robotico non somiglia affatto a un essere umano (per esempio i robot di saldatura della Fiat), viene accettato senza problemi; ma man mano che il robot diventa più somigliante, assumendo forme umanoidi e acquisendo un viso e movenze simili ma non identiche a quelle umane, la nostra accettazione precipita e invece cresce il nostro senso d’inquietudine nei suoi confronti.

Guardate questo video e ditemi se non lo trovate incredibilmente dettagliato ma proprio per questo ancor più inquietante.

Ne potete vedere una versione ad alta risoluzione, insieme ad altre demo davvero notevoli, presso Studiopendulum.com.

Perché, nonostante tutto, ci sembrano falsi questi personaggi? Perché i processi di riconoscimento dei movimenti sono fra i più basilari della mente umana. Siamo programmati dalla nascita, o da decenni di apprendimento, a saper distinguere gli oggetti in base al modo in cui si muovono. Riconoscere le caratteristiche del movimento di un essere umano è una risorsa di sopravvivenza fondamentale: un movimento irregolare o calibrato in un modo particolare può indicare una malattia, un richiamo o un rifiuto sessuale, una minaccia o una menzogna. Riconosciamo lo stato d’animo di una persona che conosciamo bene dal più piccolo cambiamento nella sua gestualità.

Per questo non si ingannano milioni di anni di evoluzione con qualche decennio di grafica digitale, e i progressi del cinema lasciano freddi nonostante i milioni di dollari spesi.

Brad Pitt e il Santo Graal della grafica digitale

Brad Pitt e il Santo Graal della grafica digitale

Dopo Benjamin Button, per quanto ancora serviranno gli attori?

Questo articolo vi arriva grazie alle gentili donazioni di “alessio.masci****” e “ranieri”.

Avete visto Il curioso caso di Benjamin Button, il film in cui Brad Pitt vive alla rovescia, nascendo vecchio e morendo neonato? Allora avrete ammirato, oltre alla storia, anche gli effetti straordinari che hanno invecchiato e ringiovanito gli attori. Avrete anche sentito che il film ha vinto l’Oscar per il miglior trucco.

Credo di avere una sorpresa per voi: per la prima ora del film, quando Brad Pitt è vecchio, non avete visto il suo volto truccato. Vi siete lasciati commuovere da un modello interamente digitale.

Sì. Quella che vedete qui sopra non è l’immagine di un volto umano reale, truccato sapientemente per farlo sembrare vecchio. E’ una creazione interamente computerizzata. Questo risultato stupefacente è giustamente definito il Santo Graal degli effetti speciali da Ed Ulbrich della Digital Domain, la società specializzata in effetti computerizzati che ha realizzato le scene con Pitt “invecchiato”.

Potete seguire Ulbrich che spiega i dettagli tecnici, con video eloquentissimi, in questo filmato di una sua conferenza ai TED Talks. Ulbrich parla in inglese, ma le immagini e la scultura di Benjamin/Pitt parlano da sole. E le smorfie di Brad Pitt dipinto con la vernice fosforescente sono impagabili.

E’ insomma una nuova conquista nel viaggio verso una creatività non più frenata dal budget e dalla prestanza fisica o dalla bellezza degli attori, che permetterà a un numero sempre più vasto di autori di creare opere audiovisive limitate soltanto dal loro talento e non dai cordoni della borsa o dai gusti di un annoiato produttore hollywoodiano. Di questo passo, creare film diventerà come scrivere un libro: lo potranno fare tutti, e l’unica discriminante sarà il talento.

Se pensate che io sia troppo ottimista, considerate che la tecnologia del morphing, introdotta da film come Willow di Ron Howard e resa celebre da Terminator 2, è oggi alla portata di qualunque utente di computer grazie a programmi gratuiti o quasi. Nulla vieta che lo stesso avvenga per la “emotion capture”, come la chiama Ulbrich. La Uncanny Valley è stata ormai superata. Adesso inizia il divertimento.

Non sarà divertimento, però, per gli attori. Certo, per Benjamin Button il modello digitale è stato costruito partendo dalle sembianze e dalle espressioni facciali di Brad Pitt. Ma come spiega Ulbrich, esistono soltanto 70 espressioni di base, comuni a tutte le persone, indipendentemente dalla razza, dall’età, dal sesso e dalla cultura. Basta combinarle per ottenere l’intera gamma di emozioni e reazioni comunicabili tramite il volto, e trasporle sul viso che più ci pare: il nostro, quello di un attore esistente o di una celebrità defunta. E a questo punto si può fare a meno degli attori.

Cosa più inquietante, si può creare un video falso di chiunque e attribuire a quella persona atti e parole a piacimento. Le scene di Kennedy con Tom Hanks in Forrest Gump, vincolate dalla disponibilità di riprese autentiche preesistenti, erano roba da dilettanti in confronto alla libertà totale di ricreare scene offerta dalla modellazione digitale fotorealistica dei volti umani. I regimi totalitari e i settimanali scandalistici sbavano già.

Se Hollywood pensa che il suo problema principale sia la pirateria audiovisiva, sbaglia di grosso e non si rende conto di stare coltivando nel proprio giardino la pianta che sbriciolerà dall’interno le fondamenta di un sistema sempre più scollato dalla realtà.