Questo è il testo della puntata del 24 novembre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.
[CLIP: citazione di Jeremy Carrasco da questo video: “You will be fooled by an AI photo this week and you probably already have been and you didn’t know it”]
Questa è la voce di Jeremy Carrasco, un professionista audiovisivo che insegna, sui suoi popolari canali social [YouTube; TikTok; Instagram; sito Showtools.ai], le tecniche per riconoscere immagini e video che sembrano veri ma sono in realtà generati tramite app di intelligenza artificiale. Sta dicendo che probabilmente siete già stati ingannati da un’immagine sintetica di recente e che con l’arrivo del nuovo software generativo di Google, chiamato bizzarramente Nano Banana Pro, queste immagini sono diventate praticamente indistinguibili a occhio nudo da quelle vere, con tutti i problemi che questo comporta.
Ma ci sono ancora dei metodi che ci possono aiutare a evitare questa continua demolizione della barriera che fino a poco tempo fa separava quasi sempre il reale dal falso. Ve li presento in questa puntata, datata 24 novembre 2025, del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io, come consueto, sono Paolo Attivissimo.
[SIGLA di apertura]
Quando vado nelle scuole per parlare con gli studenti e i docenti di temi legati all’informatica, fa sempre capolino la questione delle immagini generate dall’intelligenza artificiale e di come riconoscerle. Molte persone, giovani e adulte, sono convinte di essere perfettamente in grado di distinguere le foto reali dalle immagini sintetiche. Ma quando mostro loro una serie appositamente scelta di immagini create con i più recenti software di sintesi grafica, mescolate insieme a fotografie reali, non riescono a separare il contenuto sintetico da quello fotografico.
È ormai passato il tempo in cui le immagini generate si riconoscevano grazie a elementi abbastanza vistosi come il numero delle dita delle mani o la forma stessa delle mani. I vecchi software fallivano molto spesso nel creare immagini realistiche di queste parti anatomiche complesse e articolate. Ma non è più così, e quindi bisogna evitare l’errore di dichiarare che un’immagine è sicuramente reale solo perché le persone raffigurate hanno mani realistiche con cinque dita e non quattro o sei.
Un altro indizio utile è la posizione dei nei e delle lentiggini sul viso o sul corpo delle persone raffigurate. Se cambia da un’immagine all’altra, almeno una delle immagini in questione deve essere sintetica. Anche la forma dei denti e delle orecchie è un buon indicatore: se non è coerente, è il caso di sospettare che si tratti di immagini generate.
Ma attenzione: non è vero il contrario. Se vedete che nei, lentiggini, orecchie e denti sono coerenti in una serie di immagini, non vuol dire affatto che siano per forza vere. Possono essere semplicemente fotogrammi tratti da un video sintetico. Questa è una tecnica molto usata proprio per generare gruppi di immagini con dettagli persistenti.
Molte persone credono di essere capaci di riconoscere a occhio le immagini sintetiche guardando la pelle dei soggetti raffigurati, che in effetti è spesso troppo uniforme, lucida e plasticosa oltre che priva dei dettagli di una pelle reale. Ma esistono app che generano immagini e video sintetici con soggetti che hanno una pelle perfettamente realistica, con i pori, la peluria e le piccole variazioni di colore tipiche di una pelle umana effettiva. E in questo caso non si può neanche sentenziare che un’immagine è sicuramente sintetica se il soggetto raffigurato ha la pelle uniforme e priva di dettagli, perché da decenni il mondo della fotografia commerciale usa programmi di fotoritocco per eliminare sistematicamente rughe, nei e qualunque altra caratteristica considerata “imperfezione”. Specialmente nel settore delle immagini di moda, le carnagioni impossibilmente perfette grazie a Photoshop sono ovunque da tempo.
Ci sono però ancora oggi alcuni indizi visivi che possono rivelare con ragionevole certezza la natura sintetica di un’immagine o di un video. Jeremy Carrasco suggerisce di ingrandire i video e di guardare l’erba, le piante, il pelo animale o i capelli eventualmente inquadrati: nei video sintetici risulteranno sgranati e i loro dettagli sembreranno ribollire e rimescolarsi in modo molto caratteristico.
Un’altra tecnica abbastanza efficace è guardare le eventuali scritte presenti nell’immagine. Molti generatori di queste immagini sintetiche, infatti, sbagliano clamorosamente a generare caratteri e parole. Ma Nano Banana Pro, per esempio, genera testi perfetti, per cui non si può dichiarare che una foto è reale solo perché le sue scritte sono perfettamente realistiche.
Hany Farid, docente universitario alla University of California ed esperto di informatica forense oltre che autore di libri sulla falsificazione delle immagini e sulle tecniche per riconoscerle, suggerisce inoltre di controllare la coerenza delle ombre e delle cosiddette linee di fuga. Nelle immagini reali, le linee parallele degli oggetti raffigurati, per esempio i binari di un treno o gli spigoli di un oggetto o di una stanza, sembrano convergere tutte in un punto. Nelle immagini sintetiche, invece, queste linee non lo fanno. Lo stesso vale per le ombre: se si tracciano delle righe che uniscono un punto di un’ombra con la zona del soggetto che ha creato quell’ombra, quelle righe devono convergere tutte in uno stesso punto, che deve essere specificamente il punto dal quale proviene la luce che illumina la scena. Se non lo è, la foto è perlomeno manipolata.
Ma ci sono anche degli strumenti software che ci possono aiutare in quest’analisi.
L’esperto Jeremy Carrasco consiglia di usare l’intelligenza artificiale come analista automatizzato. Ma attenzione: dare un’immagine in pasto a ChatGPT e chiedere se è reale o meno non è assolutamente sufficiente. Invece Gemini, una delle intelligenze artificiali di Google, può controllare se un’immagine contiene un watermark, una sorta di “filigrana” invisibile ai nostri occhi, che indica con certezza che l’immagine è sintetica. Questa filigrana si chiama tecnicamente SynthID ed è presente in quasi tutte le immagini generate dai prodotti di Google, compreso l’iperrealistico Nano Banana Pro.
Per rivelarla occorre prima di tutto scaricare la foto sospetta o farne uno screenshot della massima dimensione possibile. Poi bisogna andare a Gemini.google.com, fare login con un account Google, caricare l’immagine nella chat di Gemini (o Gem) e si immette la richiesta o prompt “Questa immagine è stata generata usando l’IA di Google?”. Si sceglie la modalità rapida e si preme Invio.
Quando arriva la risposta, bisogna espanderla per verificare che la ricerca di SynthID abbia avuto successo: ma attenzione, perché questo vuol dire solo che il rivelatore sta funzionando correttamente. Quello che conta in realtà è il testo della risposta di Gemini. Se dice che l’indicatore SynthID è stato trovato, l’immagine è sicuramente artificiale. Ma se dice che non l’ha trovato, non vuol dire che l’immagine sia autentica: potrebbe essere stata generata da un altro software di intelligenza artificiale che non inserisce questo watermark oppure potrebbe essere stata semplicemente ritoccata con Photoshop.
Il professor Farid consiglia un’altra tecnica, più generale: guardare il cosiddetto “rumore residuo” dell’immagine, che è un avanzo inevitabile del processo di generazione di un’immagine tramite intelligenza artificiale. Anche le immagini reali, scattate per esempio con una fotocamera o con un telefono, contengono questo rumore, ma ha delle caratteristiche molto differenti. Questo rumore residuo normalmente non è visibile a occhio nudo, ma può diventarlo se si usano app apposite. Se il rumore residuo di un’immagine assume l’aspetto di una stella con una griglia regolare di puntini usando queste app, l’immagine è quasi sicuramente sintetica o è stata perlomeno manipolata con app che usano l’intelligenza artificiale.
Dunque esistono ancora dei modi per distinguere un’immagine generata da una reale. Per il momento, la distinzione fra reale e sintetico è ancora salva. Ma si tratta di modi tutti complicati e macchinosi, che richiedono un impegno mentale e manuale che non possiamo applicare a ognuna delle migliaia di immagini che vediamo ogni giorno. Ci vorrebbe qualcosa di simile a un antivirus, un’app che controlla automaticamente ciascuna immagine visualizzata e la etichetta come sintetica oppure no, o almeno ci dà dei gradi di probabilità.
È un tipo di verifica che i social network potrebbero fare, viste le loro risorse tecnologiche immense, ma sembra che non ci sia alcun desiderio di farlo da parte di queste grandi organizzazioni commerciali. Instagram, TikTok e YouTube, per esempio, chiedono di etichettare volontariamente le immagini generate e sono in grado di etichettare automaticamente le immagini generate dai loro software e quelle prodotte dai software altrui se includono appositi indicatori, ma si tratta di foglie di fico che non risolvono nulla di concreto. E poi c’è OpenAI, che ha addirittura creato un intero social, Sora, basato sulla creazione e sullo scambio di video generati dall’intelligenza artificiale, e pensa che basti mettere un bollino in semitrasparenza per garantire che nessuno verrà ingannato. In realtà questo bollino si può tranquillamente rimuovere con software appositi.
Ci sono molti siti che dichiarano di poter distinguere le immagini sintetiche da quelle reali se gliele mandate, ma hanno un difetto fondamentale: ogni volta che viene rilasciata una nuova versione di un generatore di immagini, questi siti ci mettono parecchio tempo a “imparare” a riconoscere le immagini generate con questo nuovo software. Di conseguenza, i loro verdetti non sono attendibili: possono dichiarare solennemente che una foto è sintetica quando non lo è o che è reale quando invece è generata da un software molto recente.
[Ho fatto una prova con il popolare rilevatore di Undetectable.ai, e non è stato difficile ingannarlo: un deepfake con sostituzione del volto è stato dichiarato “reale al 98%”. Questo è il verdetto della versione gratuita, quella che presumibilmente viene usata dalla maggior parte degli utenti; non so se le cose migliorano usando la versione a pagamento.]
A noi utenti non resta che appoggiarsi solo a fonti affidabili e dubitare di tutto il resto, specialmente quando l’immagine o il video proviene da chissà chi e ha un forte impatto emotivo, che distrae e impedisce di notare gli errori tipici delle immagini sintetiche. Come consiglia il professor Farid, “prendiamo fiato prima di condividere”.
[CLIP: citazione di Farid tratta da questo video: “Take a breath before you share information…”]
Fonti aggiuntive
3 ways to spot fake photos at work, Aiadopters.club
Photo forensics – Hany Farid, Fotomuseum.ch
Strumenti di analisi presso 29a.ch
How to Detect Deepfakes: The Science of Recognizing AI Generated Content (video)
“Ma esistono app che generano immagini e video sintetici con soggetti che hanno una pelle perfettamente realistica, con i pori, la peluria e le piccole variazioni di colore tipiche di una pelle umana effettiva. E in questo caso non si può neanche sentenziare che un’immagine è sicuramente sintetica se il soggetto raffigurato ha la pelle uniforme e priva di dettagli, perché da decenni il mondo della fotografia commerciale usa programmi di fotoritocco per eliminare sistematicamente rughe, nei e qualunque altra caratteristica considerata “imperfezione”. Specialmente nel settore delle immagini di moda, le carnagioni impossibilmente perfette grazie a Photoshop sono ovunque da tempo”.
Ho adorato questa sezione dell’articolo, perché evidenzia un paradosso che condivido pienamente.
Siamo “abituati” da tempo immemore alle copertine patinate con modelli e modelle “perfezionate” con photoshop, e quindi senza alcuna imperfezione e con tratti modificati ad arte.
Fotografie vere ma artificialmente modificate per sembrare migliori. E sono le immagini che noi definiamo “reali”.
Una “AI”, peraltro, PARTE da foto reali per poi costruirne altre in modo del tutto artificiale. E sono quelle che noi definiamo “sintetiche”.
Ricordate “L’uomo bicentenario”?
“Se un umano che ha degli organi artificiali resta umano, allora anche io, che ho organi artificiali sono in parte umano”.
Ecco, mi sembra lo stesso concetto. 🙂
Ho il sospetto che questa motocicletta sia stata fatta tramite una sorta di “IA”.
Che ne dite?
https://ibb.co/Z4gKGsM
Non ho capito perché hai posto la domanda. Sarcasmo che mi sfugge?
Messaggio ricevuto.
Pessimo “post”, d’accordo. Chiedo scusa.
Allora cerco (per quanto mi riesca) di entrare in “modalità seria e molto esplicita”:
Quella linkata mi pare palesemente un’immagine da “IA”.
(Oppure devo pensare che qualcuno artisticamente capace disegni quel genere di assurdità, magari proprio come forma di satira verso le immagini artificiali e chi le fa?)
Sarebbe interessante ed istruttivo applicare la tecnica di riconoscimento, sapendo (presumibilmente) già l’esito atteso.
Poi farei lo stesso con un’immagine “naturale” (una qualsiasi mia fotografia digitale, che so non esser stata manipolata – o ci vuole un disegno?) per cercare di capire le differenze.
Bene… ma, in pratica, come si fa esattamente?
Facile, dice il testo: basta vedere il “rumore residuo”, per la qual cosa esistono “app apposite” (scusate il gioco di parole, ma sto citando).
Qua sono un po’ in difficoltà.
Mi potete suggerire un qualcosa di apposito e facile da usare?
C’è una guida per poco pratici, o un “tutorial”?
Saluti, e grazie per qualsiasi indicazione in proposito.
-j-
Nell’articolo e nelle fonti ho linkato due siti che permettono di fare analisi delle immagini. Scusa se non lo faccio io per te ma me ne manca il tempo.