Questo è il testo della puntata del 13 ottobre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.
[CLIP: Martin Luther King (sintetico) fa un discorso in cui si lamenta delle restrizioni di Sora]
Avete appena sentito la voce inconfondibile di Martin Luther King, storico leader del movimento per i diritti civili degli afroamericani e premio Nobel per la pace, lamentarsi delle limitazioni eccessive di Sora, la nuova app di OpenAI che permette di generare video estremamente realistici, con audio integrato e sincronizzato. Martin Luther King è morto, assassinato, nel 1968, ma c’è un video in cui lo si vede pronunciare questa frase impossibile durante un comizio. Un video, ovviamente, generato usando Sora.
In un altro video prodotto dall’app, una ripresa di una telecamera di sicurezza mostra Sam Altman, il CEO di OpenAI, che viene fermato mentre cerca di trafugare delle schede grafiche da un grande magazzino.
Poi c’è Michael Jackson che fa uno sketch pseudocomico con una banana.
C’è Kurt Cobain che ruba del cibo in un fast food. E poi c’è Spongebob nazista.
Questa è la storia di un’app che promette di essere ChatGPT per i video e che regala a tutti il potere di creare realtà alternative e falsi storici scrivendo semplicemente poche parole su uno smartphone. Che cosa mai potrebbe andare storto?
Benvenuti alla puntata del 13 ottobre 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Il 30 settembre scorso OpenAI ha rilasciato Sora, una nuova app social che come impostazione somiglia molto a TikTok, con la differenza che il flusso di brevissimi video da guardare e far scorrere uno dopo l’altro è composto interamente da immagini sintetiche estremamente realistiche, con movimenti fluidi e naturali e con un audio sincronizzato perfettamente calzante.
Usare Sora è semplicissimo: l’utente descrive a parole il video che desidera ottenere, e poco dopo lo ottiene. La durata massima è di dieci secondi, e c’è una particolarità: Sora permette agli utenti di dare il proprio volto ai personaggi dei video generati.
Il suo successo è stato travolgente, con oltre un milione di scaricamenti dell’app in meno di cinque giorni. Nemmeno ChatGPT era stato così popolare al suo debutto.
Un’altra peculiarità di Sora è che ogni utente può dare il permesso ai propri amici, o a chiunque, di usare il suo volto per creare altri video. L’utente diventa comproprietario dei video generati da terzi che lo raffigurano, e può revocarli o cancellarli.*
* Solo finché i video restano sulla piattaforma di OpenAI. Se vengono scaricati e ripubblicati altrove, qualunque tentativo di revoca o cancellazione verrà ignorato.
Uno dei primi utenti a scegliere quest’opzione è stato proprio Sam Altman. E a questo punto bisogna chiedersi se questi miliardari dell’intelligenza artificiale hanno perso completamente il contatto con la realtà, perché ovviamente gli utenti hanno cominciato a fargli dire e fare le cose più strane, imbarazzanti e offensive nei video generati dalla sua app. Una conseguenza assolutamente ovvia e prevedibile. Non ci ha pensato, o non gliene importa nulla?
Certo, Sora ha delle restrizioni, per cui è piuttosto difficile, ma non impossibile, generare contenuti impressionanti, fortemente allusivi o espliciti. OpenAI, però, ammette che l’app consente di generare video di nudo o a contenuto sessuale usando le fattezze di una persona reale nell’1,6% dei casi.
Va notato, inoltre, che i video generati da Sora hanno un watermark, un piccolo logo esagonale che appare in sovraimpressione e che dovrebbe rendere chiaro allo spettatore che sta guardando un video sintetico. Ma ci sono tanti modi di offendere e di umiliare senza dover arrivare alla pornografia, come hanno dimostrato alcuni giornalisti creando video di Sam Altman in divisa tedesca della Seconda Guerra Mondiale e altri video che istigano al razzismo e alla discriminazione, e sono già nati numerosi servizi che consentono di rimuovere questo indicatore e permettono quindi di creare contenuti audiovisivi facilmente confondibili con quelli reali. Gli utenti stanno imparando rapidamente a eludere le limitazioni imposte da OpenAI, e gli stalker stanno già usando Sora per tormentare le loro vittime. Tutti scenari anche questi assolutamente prevedibili.
Un altro motivo per cui viene spontaneo domandarsi se Altman e soci siano completamente dissociati dalla realtà o incapaci di anticipare le conseguenze delle proprie scelte, o se si sentano esentati dalle regole che valgono per il resto dell’umanità, è che al suo debutto Sora consentiva esplicitamente di generare video di personaggi coperti dal copyright. Secondo OpenAI, spettava ai titolari di copyright indicare espressamente che non consentivano l’uso dei loro personaggi.
Ma dopo qualche giorno di Spongebob nazista o intento a fabbricare droga, di Pikachu lanciato in furti a ripetizione e di spezzoni inesistenti dei Simpson e di altri personaggi, la potente Motion Picture Association, che riunisce e rappresenta i più grandi marchi della produzione televisiva e cinematografica, come Netflix, Paramount, Sony, Disney e Warner, ha pubblicato una presa di posizione su quella che ritiene essere una massiccia violazione del diritto d’autore, dicendo che spetta a OpenAI, non ai titolari dei diritti, vigilare affinché non vengano commesse violazioni.
OpenAI ha fatto dietrofront, dicendo che introdurrà restrizioni simili a quelle sull’uso del volto degli utenti, ma resta un altro problema di copyright. Per essere in grado di generare questi personaggi celebri, anche con il consenso dei titolari dei rispettivi diritti, OpenAI deve aver addestrato Sora usando milioni di immagini di quei personaggi, senza però pagare alcun compenso [Washington Post]. In altre parole, OpenAI vuole arricchirsi sfruttando gratis la creatività altrui. L’azienda, però, sostiene che questo suo uso delle immagini sotto copyright sia legale.
C’è anche un altro campo minato nel quale OpenAI sembra aver deciso di lanciarsi a fare capriole sperando di farla franca, ed è l’uso delle sembianze di personaggi storici. L’azienda ha dichiarato che intendeva “bloccare le raffigurazioni di personaggi pubblici” salvo consenso esplicito dei personaggi in questione, ma questa restrizione non vale per i personaggi pubblici deceduti.
Gli utenti di Sora sono infatti riusciti a creare video sintetici del presidente John Kennedy, del già citato Martin Luther King, di Tupac Shakur che chatta con Malcolm X, di Bruce Lee e di molte altre figure importanti della cronaca e della storia recente [Ars Technica], e OpenAI ha ammesso che la generazione di video raffiguranti personaggi storici è consentita. In altre parole, non è un difetto: Sora è fatto apposta così.
Questo significa che OpenAI ha messo in mano a milioni di utenti uno strumento in grado di generare innumerevoli falsi storici, cinegiornali d’epoca inesistenti, documentari che non documentano nulla di reale. Il livello di incoscienza e di irresponsabilità di una scelta di questo genere, proprio in un momento storico nel quale la verità e la realtà condivisa sono sotto attacco costante, è difficile da descrivere a parole.
Il risultato è che d’ora in poi qualunque filmato storico, qualunque video d’epoca, qualunque ripresa di telecamere di sorveglianza, qualunque testimonianza in video, qualunque spezzone di film o programma televisivo che vedremo in giro potrebbe essere falso o alterato, e chiunque potrà insinuare il dubbio che una ripresa che lo incrimina o che documenta una sua efferatezza è falsa e generata dall’intelligenza artificiale.
La realtà verrà sommersa, annacquata, diluita e dispersa da miliardi di videoclip generati da un esercito di aspiranti maestri della satira e di disinformatori intenti a minare intenzionalmente le fondamenta della vita sociale. E per questa sua scelta, OpenAI viene premiata con una valutazione record di 500 miliardi di dollari [Bloomberg].
La pericolosità di applicazioni di questo genere dovrebbe essere evidente a chiunque. Offrire pubblicamente un generatore di video ultrarealistici che permette di raffigurare personaggi storici e persone reali attuali è l’equivalente informatico di regalare laboratori per la guerra batteriologica agli angoli delle strade. A questo punto quali contromisure possiamo adottare?
Prima di tutto è opportuno evitare di iscriversi a servizi come Sora e soprattutto di dare loro il permesso di usare il nostro volto. Il piacere e il divertimento che possono derivare dal creare un video di fantasia nel quale siamo protagonisti non giustificano il rischio di abuso della nostra immagine e di quella dei nostri figli. Un rischio che molte persone sottovalutano, fino al momento in cui vengono prese di mira, e a quel punto è troppo tardi.
In secondo luogo, è essenziale informarsi e informare sulle conseguenze economiche e ambientali di queste app. I consumi di energia dei generatori di video sono immensi: chi si angosciava qualche anno fa chiedendosi dove avremmo trovato l’energia per caricare milioni di automobili elettriche dovrebbe semmai chiedersi dove troveremo, e come genereremo, l’energia di gran lunga maggiore che servirà per generare miliardi di video usa e getta, che verranno visti per una decina di secondi e poi relegati per sempre nel dimenticatoio, rimpiazzati immediatamente da nuovi video da sfogliare e dimenticare subito dopo.
L’MIT Technology Review ha fatto i conti, e la realtà è ineludibile: Meta e Microsoft stanno lavorando per accendere nuove centrali nucleari. OpenAI e il presidente degli Stati Uniti Donald Trump hanno annunciato un piano di spesa di 500 miliardi di dollari per costruire dieci data center, ciascuno dei quali richiederà cinque gigawatt di energia, e Apple prevede di spendere altrettanto.
Questa fame non è normale per il settore informatico: anzi, fino al 2017 i consumi energetici del settore erano rimasti stabili nonostante l’avvento di grandi distributori di dati come Facebook e Netflix. È specificamente l’intelligenza artificiale a trainare questo appetito energetico insaziabile: dal 2017 al 2023 i consumi delle aziende di questo settore sono raddoppiati. I dati più recenti indicano che negli Stati Uniti oltre il 4% di tutta l’energia viene consumata dai data center e si prevede che arriverà al 12% entro il 2028. Praticamente dopodomani.
Le stime indicano che l’uso medio quotidiano delle intelligenze artificiali per porre domande e generare video e immagini equivale a tenere acceso un forno a microonde per tre ore e mezza ogni giorno. E questi consumi, sottolineano gli esperti, sono destinati ad aumentare vertiginosamente, man mano che delegheremo un numero crescente di attività alle IA e ne useremo versioni sempre più complesse. In più i data center richiedono anche enormi quantità di acqua di raffreddamento, che viene quindi sottratta alle comunità.
Un cervello umano consuma, per tutte le attività quotidiane, circa un terzo di un kilowattora, ossia meno di un forno a microonde acceso al minimo per un’ora, e si accontenta di qualche litro d’acqua al giorno. Per usarlo, inoltre, non dobbiamo pagare licenze o consegnare dati personali a nessuno.
Pensateci, la prossima volta che vi rivolgete a ChatGPT invece di usare la testa.
Fonti aggiuntive
- OpenAI’s Sora 2 Copyright Infringement Machine Features Nazi SpongeBobs and Criminal Pikachus, 404media (2025)
- OpenAI’s new social video app will let you deepfake your friends, The Verge (2025)
- OpenAI’s Sora 2 lets users insert themselves into AI videos with sound, Ars Technica (2025)
- I’ve fallen into Sora’s slippery slop, The Verge (2025)
- OpenAI’s Sora AI Video App Hits 1 Million Downloads in Under Five Days, Outpacing ChatGPT, Securityonline.info (2025)
- Sora 2 Is Creating Ads for “Epstein Island” Children’s Toys, Futurism.com (2025)
- Watch: Viral AI Video Shows Sam Altman ‘Stealing’ From Hayao Miyazaki At Studio Ghibli, Ndtv.com (2025)
- AI-generated security camera feed shows Sam Altman getting busted stealing GPUs from Target — ironic video shows OpenAI CEO saying he needs it for Sora inferencing, Tomshardware.com (2025)
- OpenAI’s Sora 2 Is Generating Video of SpongeBob Cooking Meth, Highlighting Copyright Concerns, Futurism. com (2025)
- OpenAI’s Sora 2 must stop allowing copyright infringement, Motion Picture Association says, CNBC (2025)
- MPA Issues Statement on OpenAI’s Recent Release of Sora 2, Motionpictures.org (2025)
- Sora update #1, Samaltman.com (2025)
- People Are Crashing Out Over Sora 2’s New Guardrails, 404media (2025)
- OpenAI wasn’t expecting Sora’s copyright drama, The Verge (2025) [copia su Archive.is]
- You Can’t Use Copyrighted Characters in OpenAI’s Sora Anymore and People Are Freaking Out, Gizmodo (2025)
- Stalker Already Using OpenAI’s Sora 2 to Harass Victim, Futurism.com (2025)
- Dead celebrities are apparently fair game for Sora 2 video manipulation, Ars Technica (2025)
- How much energy do we expend using our brains?, Bond University (2023)
- We did the math on AI’s energy footprint. Here’s the story you haven’t heard, Technology Review (2025) [paywall; copia su Archive.is].
“Il livello di incoscienza e di irresponsabilità di una scelta di questo genere, proprio in un momento storico nel quale la verità e la realtà condivisa sono sotto attacco costante, è difficile da descrivere a parole”
In realtà di parole ce ne sarebbero, e pure tante, ma non si possono scrivere in un blog per famiglie come questo.
Esatto, e come podcast della RSI devo tenermi ancora più a freno…
Beh, abbiamo fatto tutto il giro e siamo tornati alla partenza: d’ora in poi saranno affidabili solo le testimonianze dirette di persone di provata fede.
No, perché si è dimostrato tecnicamente e giuridicamente che le testimonianze sono imprecise e inaffidabili anche quando vengono rese in totale buona fede.
La reale alternativa è una catena di custodia pubblicamente garantita. Una cosa per la quale la blockchain potrebbe finalmente dimostrare di essere utile.
Una catena è forte come il suo primo anello….
In che senso?
Fra l’altro, è inesatto. Non è il primo anello che determina la forza di una catena. È l’anello più debole.
Io voglio essere ottimista e vedere la parte piena del bicchiere. Con questo, passami il termine, tsunami di video falsi iper realistici, dopo la (inevitabile ormai) tempesta che farà molti danni, la gente smetterà di credere a ciò che vede solo perchè c’è un video o lo dice tizio, e riprenderà a cercare le fonti, a consultare più fonti, a dubitare di ciò che vede e sente. Vediamola come una malattia che lascerà gli anticorpi necessari per poter ragionare e non abboccare al primo video di Gandhi che ordina un bombardamento nucleare su Londra che troviamo su youtube.
Perdonami ma stai dando all’umanità una patente di raziocinio e buon senso che ha ampiamente dimostrato di non possedere.
mica ho detto che ci metteranno sette giorni a cambiare mentalità. So bene che ci vorranno anni
Perdonami ma se consideri che c’è ancora gente che abbocca alla truffa del principe nigeriano e alla Casa Bianca c’è uno che diffonde video sintetici pensando che siano veri, come puoi pensare che la gente cambi realmente mentalità, anche nel giro di anni?
La stragrande maggioranza dell’umanità non ha ancora cambiato mentalità sulla parità delle donne, nonostante decenni di proteste e di atrocità. Non ha ancora cambiato mentalità sul fumo, nonostante decenni di evidenze schiaccianti che il fumo è gravemente nocivo. Cosa mai ti fa pensare che possa improvvisamente dimostrare maturità di fronte a una pioggia di video falsi che sembrano veri? Hai qualche evidenza a favore del tuo ottimismo?
Non voglio fare polemica personale, ma sono preoccupato che questo atteggiamento di pensare “supereremo anche questa” e di prendere sottogamba un problema cruciale finisca per essere una giustificazione per lasciar fare ai techbros quello che vogliono, tanto l’umanità saprà reagire e arrangiarsi.
“tanto l’umanità saprà reagire e arrangiarsi”
Anche io credo di no.
Tutti i problemi che hai citato NON sono stati risolti nonostante l’impegno di molti in quella direzione. Pensare che un qualsiasi problema possa risolversi “col tempo” è una pia illusione.
il problema secondo me è un altro.
Che a quel punto, se quello che dice Stefano si verifica, chiunque potrà dire che un’informazione è falsa.
Ma in fin dei conti è GIA’ così. E da tempo. Prendi per esempio il caso del capo ufficio stampa RAI – non una persona qualsiasi, ma la persona che coordina l’informazione dei canali radiotelevisivi di stato – la quale ha detto che “non vi sono prove” che l’IDF abbia mitragliato la popolazione inerme a Gaza, e che si trattava di “un set allestito da Hamas”.
Pongo una domanda: come fare a sapere oggettivamente chi ha ragione? Lo dico a denti stretti, perché di prove di quello che ha fatto l’IDF a Gaza (già anni prima del 7 Ottobre, quando di AI nemmeno si parlava), indipendentemente da questo episodio ci sono migliaia di prove. Ma ormai è così. E lo è perché la nostra conoscenza del mondo è INDIRETTA, da secoli. Qualsiasi figuro può arrivare, e riempirci il cervello di informazioni false, come l’incidente di Gleiwitz usato come ben pianificato pretesto da Hitler per giustificare l’occupazione della Polonia quasi un secolo fa.
E allora, siamo proprio certi che si tratti di una novità? O piuttosto di una prosecuzione su questo sentiero inesorabile?
Come sempre più spesso mi accade non voglio una risposta. Voglio solo invitare a riflettere un po’ al di là delle sensazioni del momento.
Concordo che sia una prosecuzione, ma questo è un salto di livello terrificante. Ê come passare dalla pietra di selce al mitragliatore. Il potenziale di abuso individuale è infinitamente più alto che in passato e soprattutto colpisce a un livello subconscio, viscerale, attraverso le immagini, non più attraverso il testo.
Io invece purtroppo temo che la maggior parte della gente darà retta a chi urla di più e abboccherà a qualsiasi cosa, dimenticandosene il minuto seguente. Del resto accade già così anche senza Sora.
Ingegneristicamente straordinario. Eticamente terrificante.
Permettiamo a chiunuque di comprare un’arma per difendersi: cosa mai potrà andare storto?
O forse il paragone con la disponibilità di armi in USA è esagerato?
No, anzi, è molto calzante.
Ciao, Paolo.
Sicuramente ne sarai già a conoscenza ma, in caso contrario, ti voglio informare di un dettaglio relativo a vicende come questa.
Tutte le IA, come è noto, necessitano di immense quantità di dati da elaborare, per essere addestrate. E MAI, fino ad ora, è stato riconosciuto UN SOLO CENTESIMO di risarcimento agli autori di quegli stessi contenuti, men che meno per il materiale che viene generato proprio a partire da quei contenuti.
Proprio per questa ragione, il fatto che moltissime persone chiedano alle AI di generare “Spongebob nazista o intento a fabbricare droga” o “Pikachu lanciato in furti a ripetizione e spezzoni inesistenti dei Simpson e di altri personaggi” non è affatto casuale.
Esiste un vero e proprio movimento, online, di cui fanno parte artisti di ogni categoria, che mettono in pratica esattamente questo: generano, con le IA, contenuti FATTI APPOSTA per abusare dei personaggi più famosi e più tutelati dalle major cinematografiche. Topolino, Spongebob, I Simpsons… sono scelte tutt’altro che casuali, ed anche i contesti nei quali vengono calati sono appositamente progettati per provocare reazioni decise e violente da parte delle grandi major.
Cosa che, puntalmente, accade: “…la potente Motion Picture Association, che riunisce e rappresenta i più grandi marchi della produzione televisiva e cinematografica, come Netflix, Paramount, Sony, Disney e Warner, ha pubblicato una presa di posizione su quella che ritiene essere una massiccia violazione del diritto d’autore”.
Per quale ragione? Semplice.
NESSUNO dà importanza alla lamentela di un singolo autore o artista, che si vede DERUBATO del proprio lavoro. Invece, nessuno può ignorare la protesta di colossi come MGM o MPA, che però, guarda un poco, denunciano ESATTAMENTE LA STESSA COSA.
Gli artisti, in altre parole, generano quei contenuti appositamente per provocare le reazioni delle grandi major, al fine di usarli come megafono e far arrivare al grande pubblico la loro voce che, diversamente, resterebbe inascoltata.
E’ un modo, a mio parere geniale, per ribaltare il tavolo, ed usare l’IA contro se stessa.
Davide che sfrutta la stessa forza di Golia per sconfiggerlo.
Esiste nel senso che ne hai le prove o è una tua sensazione?
L’idea è ottima ma come sempre bisogna partire dai fatti accertati.
Esiste nel senso che LO SO.
Mia moglie è una illustratrice e disegnatrice, lavora in quel campo da una vita.
E, ovviamente, fa parte di questo movimento.
Altrettanto ovviamente, però, non esiste un sito web ufficiale o altro, altrimenti sarebbe troppo facile raggiungerli e “colpirli”. E’ una iniziativa nata su X un paio di anni fa ed alla quale hanno aderito spontaneamente ed estemporaneamente tutti gli artisti più o meno famosi. In questi due anni, poi, è cresciuta attraverso il passaparola fra gli artisti stessi.
E sta funzionando.
Ah, ok, perfetto! Grazie della conferma, e continuate così!
Merita un articolo apposta!
Parliamone! Io sono a disposizione.
Bella ed intelligente iniziativa.
Complimenti a te, a tua moglie e a tutti quelli che vi partecipano.
L’iniziativa mi ricorda il detto “se non puoi frenare accelera, se non puoi batterli unisciti a loro”, però farei “un’aggiustatina”.
In questo caso, secondo me, sarebbe meglio dire: “se non puoi frenare accelera, se non puoi batterli e nemmeno cambiare le regole del gioco allora trucca i dadi”
“Davide che sfrutta la stessa forza di Golia per sconfiggerlo” … se funzionasse sarebbe un’ottima idea, peccato però che invece i vari Golia si stringano la mano e la risolvano a tarallucci e vino, con i Davidi schiacciati sotto il tallone: è vero che Disney ha vertenze legali aperte contro aziende AI (come Midjourney, Google e altre), ma ha appena concesso in licenza a Sora e ChatGPT i diritti su oltre 200 personaggi… e ha investito UN MILIARDO di verdoni nell’azienda bruciasoldi e bruciambiente di Altman.
E se oltre al danno volete pure la beffa, i clienti paganti su Disney Plus si dovranno sorbire parte di questa sbobba AI.
https://www.theregister.com/2025/12/11/disney_openai_video_image_generation_deal/
Forse Sora verrà messa al bando ma per questa tecnologia vale il principio che vale per tutte le altre: se si può fare, prima o poi si farà, in barba a qualunque divieto. Non resta che rassegnarci e sperare che, come è accaduto con tutte le altre tecnologie, alla fine si trovi un modo per minimizzare gli aspetti negativi tenendosi i positivi.
Perdonami ma NO. C’è una differenza enorme fra “si può fare” e “do a tutti gli strumenti per farlo, e ci guadagno pure”.
Minimizzare gli aspetti negativi? Cominciamo vietando a questi fantastiliardari di fare soldi fabbricando e distribuendo app tossiche che distruggono la società.
“…fabbricando e distribuendo app tossiche che distruggono la società”.
Clothoff è stata messa al bando.
Per ottime ragioni, naturalmente.
Quindi si può fare.
Si può fare e si fa per i pesci piccoli, come appunto questa app. Ma non si ha il coraggio e la determinazione di farlo per quelli grandi.
Chissà come mai…
https://www.agi.it/estero/news/2025-07-18/sam-altman-musk-cuore-trump-32360037/
“Certo, Sora ha delle restrizioni, per cui è piuttosto difficile, ma non impossibile, generare contenuti impressionanti, fortemente allusivi o espliciti”
Tranquillo che zio Sam ha già pronta l’idea di togliere un po’ di restrizioni, almeno per ciatto geppetto, perché come diceva la canzone, “the internet is really really great…”
https://www.theregister.com/2025/10/14/openai_chatgpt_ai_erotica/
(del resto una cosa del genere l’ha già fatta da un po’ lo zio Elon con la sua “Ani”, può forse Sam restare indietro al rivale?)
Anche la versione on line di Stable Diffusion ha delle restrizioni.
Che SD non ha se installato in locale…
Sto provando una repulsione verso la tecnologia informatica. Il problema è che sono uno sviluppatore software, con ancora davanti chissà quanti anni di lavoro, ma sto odiando il mondo in cui lavoro. Sta producendo dei mostri che rendono mostruosa la società…
Un effetto secondario, ma molto spiacevole, è che adesso quando mi rilasso guardando qualche breve video di gatti o di natura selvaggia, la mia mente cerca subito elementi per verificare se si tratta dell’ennesima creazione dell’AI.
Che palle.
Sora (Lella?) ha avuto tanto di quel successo che… chiude!
https://arstechnica.com/ai/2026/03/openai-plans-to-shut-down-sora-just-15-months-after-its-launch/
La risposta della Disney, che a dicembre aveva detto (ma solo DETTO) di volerci investire un miliarduccio, non si è fatta attendere:
https://arstechnica.com/ai/2026/03/the-end-of-sora-also-means-the-end-of-disneys-1-billion-openai-investment/
Non mi mancherà, e voglio sperare che questo sia un passo verso il collasso dell’azienda di zio Sam (come se non bastasse il fatto che, dopo aver chiuso il 2024 con una perdita di quattro miliardi, ha chiuso in bellezza il 2025 con una perdita di… otto miliardi. Questi almeno i dati più o meno ufficiali, ovviamente secondo gli hater le perdite reali potrebbero essere molto maggiori), perché prima succede e
megliomeno peggio sarà.Purtroppo gli analoghi generatori di video di altre aziende AI persistono ancora, e hanno le stesse problematiche…