Questo è il testo della puntata del 20 ottobre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.
Normalmente comincio questo podcast con uno spezzone sonoro che anticipa il tema della puntata, ma stavolta no. Perché Martin Luther King che fa versi e gesti da scimmia mentre tiene uno dei suoi storici discorsi pubblici, in un video generato dall’app di intelligenza artificiale Sora di OpenAI, è troppo ripugnante per farlo sentire, fosse anche solo per documentare il fatto che esiste.*
* Ho verificato che esiste e ne conservo documentazione.
Ed è solo uno degli esempi del fiume di video che ritraggono persone celebri del passato mentre fanno cose ridicole o altamente offensive che sta inondando Internet grazie alle scelte intenzionali dell’azienda capitanata da Sam Altman. Torno a parlare di Sora, dopo averlo presentato nella puntata precedente di questo podcast, perché ci sono degli aggiornamenti importanti.
Benvenuti alla puntata del 20 ottobre 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Sora, l’app di OpenAI che consente a chiunque di generare video sintetici iperrealistici lunghi una decina di secondi dando una semplice descrizione di quello che si vuole ottenere, ha già suscitato le ire assolutamente prevedibili delle case cinematografiche e televisive, perché era utilizzabile per generare video falsi che raffiguravano i personaggi più disparati, da Spongebob ai Simpson a Pikachu a tutto il cast animato di South Park, violando disinvoltamente il copyright dei loro creatori, e ha fatto dietrofront solo dopo gli ammonimenti delle major titolari dei diritti su quei personaggi, come ho raccontato nella puntata precedente di questo podcast [The Hollywood Reporter].
Sulla questione è poi intervenuto ufficialmente anche il governo giapponese, secondo quanto riferisce il sito locale ITMedia, inviando a OpenAI una richiesta formale di “non impegnarsi in azioni che possano costituire una violazione del diritto d’autore” e aggiungendo che “anime e manga sono tesori insostituibili di cui possiamo essere fieri in tutto il mondo” [The Register].
OpenAI ha risposto annunciando nuove restrizioni sui contenuti dei video generabili con Sora, ma sembra che voglia mantenere il proprio modello commerciale opt-out, nel quale in altre parole spetta ai singoli titolari dei diritti avvisare che non vogliono che i loro personaggi vengano utilizzati dall’app, come ha già fatto per esempio Disney [Reuters].
La filosofia commerciale di OpenAI è “faccio quello che mi pare con le cose che hanno creato gli altri fino a che non mi dicono uno per uno che non lo devo fare”. Ma gli addetti ai lavori notano che questo è l’esatto contrario di come funziona realmente il diritto d’autore [The Hollywood Reporter].
Sora, però, ha aperto anche un altro fronte di scontro, applicando questa sua filosofia anche ai personaggi celebri del passato. Come era ancora una volta assolutamente prevedibile, gli utenti di Sora hanno cominciato a generare video sempre più impresentabili e offensivi che mostrano grandi nomi della storia recente dire e fare cose irriferibili.
Forse la goccia che ha finalmente fatto traboccare il vaso e ha spinto OpenAI ad agire è stata la creazione di video sintetici raffiguranti Martin Luther King in situazioni che l’azienda, con un eufemismo davvero estremo, ha definito “irrispettose” ma che bisognerebbe avere la dignità di descrivere per quello che sono: abusi profondamente razzisti.
Gli eredi dello storico leader e premio Nobel hanno chiesto a OpenAI di intervenire, e l’azienda ha annunciato che ha “messo in pausa le generazioni che raffigurano il dottor King intanto che rinforza le restrizioni sulle figure storiche”, insistendo però che continua a spettare ai singoli eredi o rappresentanti chiedere di essere esclusi dai video prodotti da Sora. Notate che OpenAI non ammette di aver capito che quello che sta facendo è profondamente, intuitivamente sbagliato dal punto di vista etico e morale, ma si limita a dire che mette il tutto “in pausa”.
Chiamarle “figure storiche” le fa sembrare distanti e astratte, ma si tratta di persone reali, i cui familiari oggi vengono sommersi da questo fiume di video sintetici che li toccano molto da vicino.
La figlia del compianto attore Robin Williams, Zelda, ha implorato pubblicamente su Instagram [The Independent] di non mandarle più video di suo padre generati con l’intelligenza artificiale. Le sue parole meritano di essere lette e ascoltate.
“Smettete di pensare che io li voglia vedere o che li capisca […]” scrive. “Se state cercando di provocarmi, ho visto ben di peggio, e vi bloccherò e passerò oltre. Ma per favore, se avete un minimo di decenza, smettete di fare queste cose a lui e a me, e a chiunque, punto. È stupido, è uno spreco di tempo e di energia, e credetemi, non è quello che lui avrebbe voluto […] Vedere che il lascito di persone reali viene condensato fino a diventare un ‘questo somiglia vagamente e parla vagamente come loro ed è sufficiente così’, in modo che altre persone possano spandere orribile sbobba per TikTok che li muove come marionette, mi fa infuriare.” ha aggiunto Zelda Williams, che è regista cinematografica, proseguendo con un monito: “Non state facendo arte, state fabbricando hotdog disgustosi e ultraprocessati usando le vite di esseri umani, la storia dell’arte e della musica, e poi li cacciate in gola a qualcun altro sperando che vi diano un pollice alzato e a loro piacciano. Che schifo. […] Smettete di chiarmarlo ‘il futuro’: l’intelligenza artificiale non fa che riciclare e rigurgitare il passato per consumarlo di nuovo. State ingerendo lo Human Centipede dei contenuti, e lo fate dal fondo della fila, mentre quelli in testa ridono, consumano e consumano”.
Se non cogliete il riferimento a Human Centipede e non sapete cos’è, invidio il vostro candore, ma temo che lo scoprirete presto e capirete il senso profondo dello sfogo amarissimo della figlia di Robin Williams.
Un’altra figlia, quella di Martin Luther King, Bernice, si è associata all’appello di Zelda Williams con poche parole su Threads: “Concordo a proposito di mio padre. Per favore smettetela”.

E anche Ilyasah Shabazz, la figlia di Malcolm X, altro leader storico per i diritti degli afroamericani che ha pagato con la vita i propri ideali, di fronte all’ennesimo video generato che raffigura suo padre, si è unita pubblicamente a queste proteste, chiedendo come mai chi sviluppa l’intelligenza artificiale non agisca “con la stessa moralità, coscienza e attenzione […] che vorrebbe per le proprie famiglie” [Engadget].
L’app Sora, intanto, è in cima alle classifiche dell’App Store di Apple, e i video sintetici offensivi continuano a essere sfornati, perché le fantomatiche “restrizioni” citate continuamente come rimedio da OpenAI semplicemente non funzionano: sono facili da eludere con un minimo di inventiva e non è pensabile di poter escludere tutti i casi possibili di abuso.
Per esempio, il Washington Post ha segnalato che alcuni utenti sono riusciti a creare video che mostrano Malcolm X che fa battute volgari e parla di incontinenza intestinale, Kobe Bryant che pilota un elicottero come quello che è precipitato e ha portato alla sua morte, o l’ex presidente statunitense John Kennedy, morto assassinato, che fa battute sull’assassinio dell’attivista di destra Charlie Kirk [Forbes; Washington Post].
OpenAI sembra del tutto indifferente alle conseguenze sociali delle proprie azioni e anzi le difende, sostenendo che quello che fa serve per proteggere la competitività statunitense e, cito, “è questione di sicurezza nazionale”, secondo Sam Altman, perché altrimenti il primato tecnologico nell’intelligenza artificiale passerebbe alla Cina [Reuters].
Altman sostiene inoltre che una delle ragioni per cui OpenAi rilascia tecnologie come Sora è che vuole aiutare l’umanità nella transizione, inoculandola contro il fatto che in futuro “tutti saranno in grado di creare un video di te che fai qualunque cosa che loro desiderano usando i video pubblicamente disponibili su Internet che ti raffigurano.”
[CLIP – Sam Altman che parla]
Dice che “La società si adatterà a questo, ovviamente, ma uno dei modi che abbiamo trovato per aiutare la società con queste transizioni è rilasciare il software presto, con delle restrizioni, in modo che la società e la tecnologia abbiano il tempo di evolvere insieme.”
Secondo lui “ha funzionato con il testo, ma con il video sarà più difficile, perché i video hanno un forte impatto, ma credo che impareremo ad adattarci e impareremo molto in fretta che ci saranno tanti video falsi di te su Internet… succederà e basta. Inoculare la società ha probabilmente un valore” [Rowan Cheung/Deepcurates su Instagram].
Non è vero che “succederà e basta”, perché OpenAI sta facendo in modo che succeda e sta premendo a fondo l’acceleratore del cambiamento, senza darci il tempo di prendere fiato e prendere contromisure. Come farà la società ad adattarsi a un mondo nel quale non si può più credere a nulla di quello che si vede su uno schermo, e perché si debba correre a capofitto verso questo traguardo proprio sotto la sua guida, Sam Altman non ce lo dice.
Forse si aspetta che lo chiediamo a ChatGPT.
Fonti
OpenAI launches new AI video app spun from copyrighted content. Reuters, 2025.
OpenAI’s New Video Tool Features User-Generated ‘South Park,’ ‘Dune’ Scenes. Will Studios Sue?. Hollywood Reporter, 2025
WME to OpenAI: All Our Clients Are Opting Out of Sora 2. Hollywood Reporter, 2025
Japan tells OpenAI to stop spiriting away its copyrighted anime. The Register, 2025
Japan Warns OpenAI Over Sora 2 Copyright Infringement of “Irreplaceable” Anime and Manga, Securityonline.info, 2025
日本政府、OpenAIに「著作権侵害行為」を行わないよう要請 Sora 2での“アニメ風動画”問題を受け. ITmediaNews, 2025
OpenAI IP promises ring hollow to Sora losers. The Register, 2025
AI videos of dead celebrities are horrifying many of their families. Washington Post, 2025
Robin Williams’ daughter begs fans to stop sending her AI videos of late father: ‘Just stop doing this to him’. The Independent, 2025
OpenAI Blocks Sora Deepfakes Of Martin Luther King After ‘Disrespectful Depictions’. Forbes, 2025
OpenAI pauses Sora video generations of Martin Luther King Jr.. TechCrunch, 2025
OpenAI suspends MLK deepfakes on Sora after ‘disrespectful’ videos. The Verge, 2025
OpenAI suspends Sora depictions of Martin Luther King Jr. following a request from his family. Engadget, 2025
Statement from OpenAI and King Estate, Inc.. X.com, 2025
Sora update #1, Samaltman.com, 2025
e come se non bastasse tutto questo, il gioco è truccato quando il banco è dalla tua parte.
Non mi ricordo se ne abbiamo già parlato, ma quando qualche mese fa Shira Perlmutter, capo del Copyright Office americano, ha detto che le aziende di AI si stavano allargando troppo e che quello non era “fair use”, pel di carota le ha dato il benservito (è stata poi reintegrata, ma il messaggio ormai era stato mandato)
specialmente poi quando si nomina la Cina come fa Altman nel pezzo che hai citato, “the king” si infervora, e parla proprio come Altman:
https://variety.com/2025/politics/news/trump-rejects-ai-training-compensation-1236468459/
Pochi mesi dopo, sorpresa sorpresa, arriva una sentenza che scagiona Zuckerberg perché gli accusanti non avrebbero presentato abbastanza prove, e poco dopo un’altra sentenza scagiona almeno in parte Amodei, affermando che la scansione di milioni di libri da parte di Anthropic era, guarda un po’, fair use (il giudice ha comunque riviato a giudizio l’azienda di Claude perché i libri in questione erano piratati, ma zio Dario ha fatto un accordo privato per pagare “solo” un miliardo e mezzo, quando il giudice avrebbe potuto apioppargli una multa con ben più zeri che lo avrebbe mandato finalmente in bancarotta. La notizia era dei primi di settembre ma sembra confermata anche da articoli recenti:
https://www.chemistryworld.com/news/ai-company-will-pay-authors-15-billion-in-damages-after-using-their-copyrighted-works-to-train-its-models/4022331.article
)
Questo conta 54 cause ancora in corso contro aziende di AI … come andrà a finire?
https://chatgptiseatingtheworld.com/
L’unica speranza è che questa folle corsa ad usare l’AI sempre e cmq, senza ritegno, prima o poi finisca, come una bulimia di contenuti che crea rigetto.
Non sapevo cosa fosse Human Centipede… l’analogia è perfetta anche se ora avrò incubi per giorni….
io l’avevo visto in south park ma non ne avevo capito la citazione.
Non li genero e non li guardo ma questo non lo dico per assolvermi, lo dico perché se questo vogliono le persone e se questo vogliono i social (perché poi vanno diffusi) per quanto mi riguarda meritiamo di estinguerci, accetto la mia fine.. Mi consola che qualche pianta e animale potrà vivere in pace su questa terra un domani.
PS: potrebbe anche essere in parte una provocazioni di alcuni artisti come diceva un commentatore nello scorso articolo, ma se sono così tanti dubito, e comunque ci sono dei fruitori.
La filosofia commerciale di OpenAI è “faccio quello che mi pare con le cose che hanno creato gli altri fino a che non mi dicono uno per uno che non lo devo fare”. Ma gli addetti ai lavori notano che questo è l’esatto contrario di come funziona realmente il diritto d’autore
Perdonatemi, domanda sincera, ma se il diritto d’autore funziona al contrario, cosa sta impedendo alle grosse associazioni di “spogliare” OpenAI a suon di cause per violazione?
Trump.
Ormai la legge in USA è irrilevante e contano solo le amicizie politiche. Altman spera che i suoi 500 mld facciano parteggiare Trump per lui contro le major.
500 miliardi immaginari, ricordiamolo…
OpenAI, Anthropic e altre aziende AI offrono i loro “servigi” gratis o a prezzi relativamente bassi perché lavorano in perdita da sempre (grazie al venture capital e/o perché sono supergiganti come Microsoft e hanno altre forme di introito): non è la prima volta che succede nel mondo tech, e quando questo succede, sappiamo poi chi paga (sia in denaro, sia in dati personali, sia in “enshittification”), vero? e rispetto al passato qui ci sono in gioco cifre che farebbero girare la testa all’ingegner Cane.
Gli hater lo ripetono da secoli che la giostra degli LLM non è sostenibile economicamente (oltre che ambientalmente, socialmente, etc), mi pare che finalmente ora la domanda se la stia ponendo anche qualche economista (specialmente dopo gli ultimi investimenti circolari “stile Parmalat” di settembre/ottobre): chi pagherà?
Ma forse è troppo tardi, perché qualcuno sta già pagando anche in soldoni, ad esempio:
https://www.bloomberg.com/graphics/2025-ai-data-centers-electricity-prices/
Chissà che a qualche movimento di attivisti da quelle parti non venga in mente di cominciare a generare contenuti in cui Sam Altman e amici suoi dicono o fanno cose bizzarre e socialmente riprovevoli, così per vedere l’effetto che fa (anche se scommetterei una birra calda del supermercato che probabilmente Sora si rifiuta di generare contenuti sul suo padrone).
Ne abbiamo già parlato nei commenti della puntata precedente. Gli attivisti esistono.
Sora NON si rifiuta di generare contenuti su Altman, come detto nella puntata precedente.
Me l’ero persa, l’ho recuperata oggi.
Dato che ci guadagna non poco, potrebbe considerarlo un “costo accettabile”.
Tutti gli altri invece vedrebbero solo l’aspetto più negativo.
“La filosofia commerciale di OpenAI è “faccio quello che mi pare con le cose che hanno creato gli altri fino a che non mi dicono uno per uno che non lo devo fare”
Quindi posso andare alla sede di OpenAi e appropriarmi di o usare qualsiasi bene della società a meno che non mi dicano, per ogni singolo oggetto, che non posso.
Come ho scritto in altro commento, il progresso tecnologico non si può fermare, e una volta che qualcosa si può fare a costi accessibili, tutti la faranno, che noi lo si voglia o no. In questo Altman ha ragione. Però, che la diffusione di Sora debba funzionare come una specie di “vaccino”, questo mi pare come minimo discutibile. Ad ogni modo il problema si risolverà da solo non appena si moltiplicheranno i video con protagonista Trump, e non più solo Kennedy o MLK.
Non è vero che il progresso tecnologico sia inarrestabile: è un mito utile a chi vuole imporre queste forme di pseudoprogresso.
E in ogni caso, non sta scritto che il “progresso” debba avvenire per forza a rotta di collo e sotto la guida di gente avida e incosciente.
I video con protagonista Trump ci sono già.
Allora fai un esempio in cui una qualche forma di progresso tecnologico sia stata “congelata” pur essendo disponibile su larga scala e a bassi costi, come appunto Sora.
1. Fabbricazione di sostanze stupefacenti.
2. Aborto in USA.
3. Produzione di armi batteriologiche.
4. Armi autonome letali.
5. Asbesto.
Togliendo il requisito del basso costo, che hai aggiunto tu:
6. Armi nucleari
7. Clonazione umana
8. CFC
9. Piombo nel carburante auto
Aggiungerei al tuo elenco le tecnologie per la sorveglianza di massa il luoghi pubblici (almeno in parte e nei paesi democratici, vedi per esempio le limitazioni all’uso di telecamere su spazi pubblici), eugenetica, clonazione umana, sperimentazione dell’uso di cellule staminali, ritardato per anni.
E anche in un certo senso i progressi sulla lotta ai cambiamenti climatici (energia sostenibile per esempio) che sta arretrando in molti paesi. Anche la mobilità elettrica mi pare che stia mostrando qualche problema (è uno dei pochi casi in cui posso dire “l’avevo detto”, non perché sia contrario ma perché in molte situazioni non risolve il problema.
Quello che mi chiedo è quanto questo sia vero sul lungo termine, almeno per alcune di queste tecnologie (almeno si spera). Prendi per esempio le armi nucleari: all’inizio era così ma mi sembra che la corsa stia cominciando a riprendere momentum. Questo principio si applica potenzialmente a buona parte dell’elenco che hai fatto ed investe il problema molto complesso del rapporto tra scienza e tecnologia, etica e politica.
> sperimentazione dell’uso di cellule staminali, ritardato per anni.
Cellule staminali EMBRIONALI. Per molti versi (etica, possibilità terapeutiche, premi Nobel assegnati…), le embrionali e le adulte sono pianeti diversi.
1) è vero il contrario: nonostante ogni tentativo di metterle al bando, si sono diffuse sino al punto di diventare una sorta di “piaga” universale, e oggi vengono usate con regolarità da una larga parte della popolazione, con o senza effetti collaterali spaicevoli.
2) l’aborto non è un’innovazione tecnologica.
3 e 4) le armi non possono essere prodotte a basso costo (per quelle batteriologiche riparliamone quando ci sarà la terza guerra mondiale); vedremo semmai se le stampanti 3D davvero porteranno alla proliferazione di armi di plastica.
5) l’asbesto fa male anche a chi lo usa, e comunque dispone di alternative a costi ragionevoli.
Riprova.
Andrea, non voglio entrare in polemica con te, ma ripeto: il paletto della larga scala e dei bassi costi lo hai introdotto tu arbitrariamente e non fa parte della mia affermazione iniziale “Non è vero che il progresso tecnologico sia inarrestabile”.
1. “una larga parte della popolazione”: dovresti quantificare. Ma di fatto, il legislatore è intervenuto per porre un freno a questa tecnologia. Gli ingredienti e i materiali necessari sono strettamente controllati. Che ci sia riuscito completamente o meno è secondario. Conta il fatto che si è trovata la volontà di intervenire.
2. Piaccia o no, la tecnologia medica è tecnologia.
3 e 4. Paletto introdotto da te.
5. Che faccia male a chi lo usa è irrilevante. Ripeto, il tema è l’arrestabilità o meno di una tecnologia.
Vuoi aver ragione anche quando sei in torto? Benissimo: proclamo ai quattro venti che hai (sempre) ragione. Io mi limito a farti notare che una persona come te, che porta avanti da anni una crociata meritoria (anche se inutile) come quella che ogni giorno intraprendi contro complottisti e fake news, dovrebbe evitare di arrampicarsi sugli specchi mettendosi sullo stesso livello delle persone che spesso critichi. L’autorevolezza nasce da una serie di comportamenti, tra cui appunto il non arrampicarsi sugli specchi, comportamenti difficili da riconoscere e difficili da mantenere, e la maggior parte delle “voci ragionevoli”, anche più della tua, non supera queste difficoltà, che vanno a unirsi a quelle obiettive che tante volte hai esposto e che appunto rendono priva di speranza questa crociata.
Per cui: goodbye and thank for all the fish! O anche: live long and prosper! So che apprezzerai entrambi le citazioni.
Che ti devo dire, hai costruito l’accusa su cose che non ho detto, hai fatto la giuria inventando paletti che non esistevano e hai gestito pure il processo, mancava solo che ti facessi l’applauso da solo per la tua arguzia, ma vedo che adesso hai rimediato anche a questa lacuna.
Non posso che ringraziarti per aver fatto da solo il passo finale di andartene sbattendo sdegnato la porta.
@Andrea,
l’aborto (indotto) E’, come dice Paolo, tecnologia.
Nell’800 il rischio di morire di aborto era del 30%. L’uso di sistemi a vuoto o della Cannula di Karman sono progressi venuti più tardi che hanno ridotto moltissimo questi rischi per le donne.
Addirittura lo svedese Lars Engström, ha vinto il Premio Nobel per la Fisiologia nel 1982 per l’invenzione di un metodo per indurre l’aborto basato sull’uso di prostaglandine.
@PGC: se vuoi essere pignolo, posso essere d’accordo nel considerare l’aborto (indotto) una specie di tecnologia, in quanto pratica medica ben conosciuta, non costosa e generalizzata. Solo che è un esempio perfetto di quello che vado dicendo io: se la tecnologia (aborto indotto) consente a tutti (potenzialmente) di fare qualcosa e di farlo a costi contenuti, nessun divieto è efficace. E’ ovvio che si può ridurre l’uso della pratica, cercare di regolamentarla, comminare pene severe e così via, ma mai si è riusciti a limitarla davvero, meno che mai a proibirla. E’ una cosa che sappiamo tutti, e te lo dice uno che ha vissuto di persona il dibattito degli anni ’70, proprio sulla impossibilità di vietare questa pratica.
Non è pignoleria.
Ho abituato con gli anni il mio cervello a cambiare idea di fronte alle evidenze. Tutto qui. Se Paolo dice una fesseria – succede… – glielo scrivo. Con educazione e gentilezza. Paolo lo sa bene. Successo parecchie volte. 🙂
Quando ho letto la lista di Paolo ho pensato come te che fosse strano considerare l’aborto una forma di “progresso tecnologico”. Quindi ho cercato su internet per capire se Paolo aveva ragione e ho letto che.. la ha.
Che un divieto sia inefficace non significa che sia inopportuno o che non debba essere sostenuto.
I sistemi di deepfake.
Ciao Paolo, non so se accade solo a me, ma il feed RSS sembra essersi rotto; l’ultimo articolo che vedo nel reader è quello in cui avvisi di provare il sito alternativo.
La cosa strana è che il feed visibile a attivissimo me / feed sembra contenere tutti gli articoli.
Ho provato anche a disiscrivermi e reiscrivermi, nessun cambiamento.
In effetti anche sul mio Feedly mancano gli ultimi post (vedo il Niente Panico del 13/10). Non mi sembra di aver cambiato nulla.
Riprendendo la domanda del precedente articolo se abbia o no paura dell’IA, rispondo affermativamente, per quanto la mia convinzione nasca da due esperienze che ammetto essere d’importanza veramente minima, che però mi hanno fatto pensare.
La prima riguarda un fumetto di Topolino (scusatemi ma non mi ricordo il titolo né il periodo di pubblicazione, ma di certo quest’ultimo non più vecchio di 10 anni fa, né la trama esatta), dove Paperone, per vendere meglio abbonamenti alla sua tv a pagamento, aveva iniziato a trasmettere partite di calcio virtuali create da un programma che inseriva giocatori reali a quelli del passato. E, in effetti, già da tempo il videogioco FIFA dell’EA Sports permetteva di crearti, p.es, una tua Italia con Facchetti in coppia a Cannavaro. Nel fumetto, ovviamente, la cosa degenerava perché Paperone arriva a creare finte partite del passato e viene fermato dalle vecchie glorie calcistiche che, partendo dalla spunto di non ricordarsi di aver mai giocato dette gare, gli fanno causa, e tutto finisce per il meglio (il giudice Gufo di Paperopoli sentenzia sempre con giudizio) vietando tale pratica (ripeto, non ricordo la trama nei dettagli).
Poi, molto più recentemente, su TikTok vidi dei filmati (mai più riproposti in seguito), dove spezzoni dei film della saga di Fantozzi era offerti cogli attori che parlavano in inglese. Ma, attenzione, non che ci fosse una voce che si sovrapponeva alle immagini: erano proprio, p.es., Fantozzi, Filini e Calboni che al night “L’Ippopotamo” si esprimevano in inglese colle voci di Villaggio, Reder ed Anatrelli e coi labbiali “deformati” per farli combaciare. E qui veramente mi preoccupai, pensando a un’altra esperienza, convengo, minima di 40 anni fa, dove nel film “L’Implacabile”, viene esposta quella che all’epoca poteva essere tranquillamente definita come una proto-intelligenza artificiale, dove veniva simulata l’uccisione di Ben Richards ed Amber Mendes presentando in tv un filmato dove le sembianze dei due erano “incollate” a quelle di due figuranti (anche se mezzi, economici e tecnici, del tempo ridussero il tutto al “minimo sindacale” di presentare un fermo immagine di Schwarzenegger da cui erano rapidamente “cancellate” il finto volto per presentare il reale a beneficio del cattivo di turno).
Forse non hai paura dell’IA in senso lato, ma dell’uso distruttivo che gli umani ne fanno.
La scena di “Running man” aveva colpito anche me.
Be’, sì, un po’ come tutte le cose. come il classico esempio del coltello, che finché lo usi per tagliare il pane, va tutto bene, ma se pensi che possa diventare un’arma…
p.s.: non pensavo che avessi visto quel film