Vai al contenuto

fantascienza

Raccontare una storia con immagini generate da IA: “Kira”, di Hashem Al-Ghaili

La qualità delle immagini e dei video generati tramite intelligenza artificiale sta aumentando molto rapidamente. I miei timidi esperimenti di due anni fa, rivisti oggi, fanno sorridere se confrontati con quello che viene pubblicato adesso: immagini fotorealistiche, non più plasticose e inespressive, in alta risoluzione, in movimento, con audio sincronizzato e labiale corretto, e persino con musiche e canzoni altrettanto generate.

Sono immagini che cominciano a rendere possibile raccontare una storia, e raccontarla con una qualità visiva che sarebbe costosissima da ottenere con le tecniche tradizionali (compresa la grafica digitale) e che invece l’uso esperto dell’IA permette di ottenere a costi abbordabili anche per un semplice appassionato. È una democratizzazione straordinaria della possibilità di esprimersi.

Considerate per esempio Kira, un corto (14 minuti) dedicato alla clonazione umana realizzato da una singola persona, Hashem Al-Ghaili (1 milione di follower su Instagram), realizzato interamente con immagini generate tramite IA e con un notevolissimo lavoro di montaggio manuale. Al-Ghaili dice di aver creato quasi 600 prompt e di averci messo dodici giorni del proprio tempo libero, spendendo 500 dollari. Il risultato è impressionante: ci vuole un occhio molto attento per notare le piccole imperfezioni tipiche di questa tecnica di creazione di immagini.

Secondo quanto riportato nei titoli di coda, i software utilizzati per la generazione delle immagini sono Whisk, Runway, Midjourney, Dreamina, Sora, Flow/Veo 3, Higgsfield e Kling.ai; le voci sono state generate usando Elevenlabs; la sincronizzazione del labiale è stata ottenuta con Flow/Veo 3, Dreamina e Heygen; la musica è stata generata tramite Suno; gli effetti sonori sono stati prodotti usando MMaudio ed Elevenlabs. I prompt sono stati ottimizzati tramite ChatGPT. Il montaggio, invece, è stato eseguito digitalmente ma a mano da Al-Ghaili.

L’IA generativa, usata in questo modo, spalanca le porte alla creatività di chi prima non avrebbe avuto i mezzi tecnici ed economici per manifestarla. Allo stesso tempo, ovviamente, riduce anche i costi delle produzioni commerciali: l’IA è stata già usata per esempio per conferire agli attori del film The Brutalist un accento ungherese nativo [Northeastern.edu; CNN], e Netflix ha dichiarato con una certa fierezza che la sua serie L’Eternauta (ispirata al celebre fumetto), prodotta in Argentina, include una scena realizzata usando immagini generate da IA: il crollo di un edificio a Buenos Aires è stato creato in questo modo, richiedendo un decimo del tempo che sarebbe stato necessario con effetti visivi fisici o digitali tradizionali (usati peraltro in grande abbondanza) e a un costo sostenibile per la produzione, che altrimenti avrebbe dovuto rinunciare alla scena.

La nuova stagione di Doctor Who arriva il 12 aprile: ecco il trailer

Qualcosa di positivo per interrompere il vostro e il mio doomscrolling.

La nuova companion del Dottore per questa stagione è Belinda Chandra (interpretata da Varada Sethu); se vi pare un volto familiare, era Mundy Flynn nella puntata Boom della stagione scorsa (quella geniale della chiesa anglicana militarizzata, attualissima in questi tempi di venti di guerra). Ma c’è anche uno spezzone con la companion precedente, Ruby Sunday (Millie Gibson), e ci sono tanta azione, tanta fantasia e tanti piccoli momenti di spavento (ho intravisto un ragno alieno che non promette bene). Genitori sul divano, bambini acquattati dietro il divano, nella più classica tradizione di Doctor Who.