Vai al contenuto

Podcast RSI – Avvocati, giornalisti e governanti collezionano figuracce con l’IA

Visualizzazioni: 608

Questo è il testo della puntata del 2 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


A giugno 2023, esattamente due anni fa, i nomi degli avvocati statunitensi Peter LoDuca e Steven Schwartz avevano fatto il giro del mondo perché LoDuca, per difendere il suo assistito, aveva depositato in tribunale una lunga serie di precedenti legali che però erano stati inventati di sana pianta da ChatGPT, usato dal collega Schwartz credendo che fosse una fonte attendibile e addirittura chiedendo a ChatGPT di autenticare i precedenti che aveva appena inventato. Nel suo ormai classico stile, ChatGPT aveva risposto che era tutto in ordine.

Il giudice li aveva puniti con un’ammenda di alcune migliaia di dollari, ma la punizione più grave era stata la figuraccia mediatica. Chiunque cercasse i nomi di questi avvocati in Google li trovava associati da moltissimi giornali, e anche da questo podcast, alla loro dimostrazione di travolgente inettitudine [Disinformatico; Disinformatico].

Potreste pensare che dopo un caso clamoroso del genere gli avvocati in generale abbiano imparato la lezione e che simili disastri non si siano più ripetuti, ma non è così. Anzi, anche dal mondo del giornalismo e persino dai governi arrivano esempi di preoccupante incapacità di usare correttamente l’intelligenza artificiale.

Questa è la storia di una serie di esempi di uso inetto e incompetente della IA generativa da parte di professionisti e politici che sembrano incapaci di imparare dagli errori altrui e continuano, a volte con leggerezza preoccupante e spesso con arroganza sconcertante, a partorire deliri e vaneggiamenti dai quali purtroppo dipendono le sorti e la salute di tutti noi.

Sono esempi da raccontare non per umiliare o sbeffeggiare, ma per ribadire e diffondere il più possibile un concetto fondamentale che a quanto pare fa veramente fatica a essere acquisito: le intelligenze artificiali attuali non sono fonti affidabili e non ci si può fidare ciecamente dei loro risultati, ma bisogna sempre controllarli accuratamente. Altrimenti, prima o poi, la figuraccia è garantita.

Benvenuti alla puntata del 2 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il 18 maggio scorso vari quotidiani statunitensi, comprese testate di prestigio come il Chicago Sun-Times e il Philadelphia Inquirer, hanno pubblicato una pagina di suggerimenti letterari per l’estate: un elenco di titoli di libri di autori molto celebri, accompagnato da una dettagliata recensione di ciascuno dei quindici libri proposti. Titoli come I creatori della pioggia, del premio Pulitzer Percival Everett, o I sogni dell’acqua di marea di Isabel Allende. Titoli che anche se siete appassionati di letteratura non vi suoneranno per nulla familiari, per la semplice ragione che non esistono.

Foto della pagina in questione (Ars Technica).

Dei quindici titoli consigliati da questi giornali, solo cinque sono reali: gli altri dieci sono inesistenti, e la loro recensione è quindi ovviamente del tutto fasulla. L’inserto letterario di questi quotidiani è stato generato usando l’intelligenza artificiale: lo ha ammesso il suo autore, Marco Buscaglia, in seguito alle proteste dei lettori paganti di quei giornali.

Figuraccia per le testate coinvolte, che rischiano una grave perdita di fiducia e di credibilità lasciando che venga pubblicato del contenuto generato da IA senza alcuna supervisione o verifica, ma figuraccia anche per la società che ha fornito ai giornali quel contenuto, la King Features, che è una consociata del colosso dell’editoria statunitense Hearst.

Andando a leggere le scuse e gli atti di contrizione di tutte le parti coinvolte emerge una classica catena di errori: tutti hanno dato per scontato che l’elenco dei libri fosse stato verificato da qualcun altro lungo la filiera di produzione, e alla fine nessuno ha verificato nulla e i deliri dell’intelligenza artificiale, dall’aria superficialmente così plausibile, mimetizzati in mezzo a informazioni corrette, hanno raggiunto indisturbati le rotative. Buscaglia, fra l’altro, ha dichiarato che usava abitualmente l’intelligenza artificiale per le ricerche di base e controllava sempre i risultati che otteneva, ma questa volta non lo aveva fatto. La sua fiducia nell’intelligenza artificiale gli è costata il posto di lavoro [404 Media; Ars Technica; NPR; 404 Media].

Purtroppo questo non è l’unico caso del suo genere. Il giornalismo, cioè il mestiere che dovrebbe farci da baluardo contro la disinformazione, sta invece adottando disinvoltamente uno strumento che genera disinformazione. E in molti casi lo sta adottando in maniera totalmente dilettantesca: per esempio, il giornalista Aaron Pelczar si è dimesso dal giornale del Wyoming dove lavorava, il Cody Enterprise, perché ha usato ripetutamente l’intelligenza artificiale per generare articoli che contenevano virgolettati inventati e attribuiti al governatore locale, che non l’ha presa bene.

Il giornalista è stato colto sul fatto perché in fondo a uno dei suoi articoli ha lasciato la frase “Questa struttura garantisce che vengano presentate per prime le informazioni più critiche, facilitando ai lettori la comprensione più rapida dei punti salienti”, che non c’entrava nulla con il tema trattato ma era chiaramente presa di peso dalla risposta di una IA alla richiesta di strutturare e generare un articolo. Articolo che Pelczar non si era nemmeno degnato di rileggere prima di consegnarlo [The Guardian; Powell Tribune].

Foto del paragrafo finale dell’articolo di Pelczar, che contiene la frase generata da ChatGPT.

Già nel 2023 la celebre rivista Sports Illustrated era stata colta a pubblicare non solo articoli generati completamente dall’intelligenza artificiale ma anche ad attribuirli a giornalisti inesistenti, i cui nomi e le cui foto erano stati partoriti dalla stessa intelligenza artificiale, usata da un fornitore esterno di notizie. Episodi analoghi hanno coinvolto giornali e riviste di prestigio, come il Los Angeles Times, il Miami Herald e US Weekly, e il sito dedicato alle notizie tecnologiche CNET, smascherati tutti solo grazie alle indagini di giornalisti veri, in carne e ossa, che si erano insospettiti leggendo lo stile stentato e ripetitivo di questi falsi articoli e notando le loro frasi grammaticalmente impeccabili ma completamente prive di senso [PBS; Futurism; Washington Post; Futurism; NPR].

Quello che colpisce, in tutti questi episodi, non è tanto il fatto che delle redazioni tentino di usare la scorciatoia dell’intelligenza artificiale per ridurre i tempi e contenere i costi, ma che cerchino di farlo di nascosto e sperino di farla franca. È come se pensassero che il lettore sia stupido e quindi non si possa rendere conto che gli è stato rifilato un prodotto avariato. Ci sono molte situazioni nelle quali l’intelligenza artificiale può essere utile in una redazione, ma usarla per generare articoli in questo modo è come vendere una torta piena di segatura al posto della farina e pensare che tanto nessuno si accorgerà della differenza.

E nonostante questi precedenti, c’è sempre qualcuno che ci riprova.


A proposito di precedenti, anche gli avvocati sembrano incapaci di imparare dagli errori dei colleghi. Dopo la figuraccia, la sanzione e il clamore internazionale del caso degli avvocati LoDuca e Schwartz che nel 2023 erano stati colti appunto a depositare in tribunale dei precedenti inesistenti, generati dall’intelligenza artificiale, l’elenco dei legali che hanno pensato bene di affidarsi ciecamente alla IA per il proprio lavoro non ha fatto che allungarsi.

Addirittura è nato un sito, AI Hallucination Cases, che compila e documenta gli episodi di questo genere. Finora ne ha catalogati ben 129; e questo è solo il numero dei casi, in tutto il mondo, nei quali si è arrivati a una decisione legale che ha confermato che un avvocato ha presentato in tribunale materiale fasullo, generato da un’intelligenza artificiale. Non si tratta insomma semplicemente di casi nei quali si sospetta che sia stata usata l’IA, ma di casi nei quali un avvocato è stato colto sul fatto e sanzionato per la propria condotta.

La cosa che colpisce è che ben 20 di questi casi sono avvenuti a maggio di quest’anno: segno che l’uso inetto e maldestro dell’intelligenza artificiale nelle consulenze legali si sta espandendo, e lo sta facendo in tutto il mondo. Fra i casi raccolti da questo sito compilativo ce ne sono infatti vari avvenuti in Australia, Paesi Bassi, Regno Unito, Spagna, Canada, Sud Africa, Israele, Brasile, Irlanda e Nuova Zelanda, e ce n’è anche uno italiano, datato marzo 2025, in cui il Tribunale delle Imprese di Firenze rileva che una delle parti in lite ha appunto citato “sentenze inesistenti” che sono “il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale ‘ChatGPT’”.

Questo catalogo di utilizzi incompetenti delle IA nei tribunali può comportare non solo una figuraccia imbarazzantissima di fronte al giudice, ma anche sanzioni pecuniarie notevoli, come in un caso britannico recentissimo, datato maggio 2025, dove l’uso dell’intelligenza artificiale per generare documenti prolissi e ripetitivi e precedenti legali inesistenti ha portato a una sanzione di centomila sterline, ossia circa 118.000 euro. Per non parlare del rischio di essere sospesi o radiati dall’ordine degli avvocati e di vedersi archiviare il caso.

Viene da chiedersi come si sentano gli assistiti di questi avvocati quando scoprono di aver pagato parcelle non trascurabili ottenendo in cambio queste dimostrazioni di incompetenza e di mancanza di professionalità. Non risulta, per ora, che qualcuno di questi assistiti abbia tentato di saldare la parcella con delle immagini di banconote generate da ChatGPT, ma la tentazione potrebbe essere forte.


Il caso più preoccupante in questa carrellata di castronerie arriva non dai giornalisti o dagli avvocati, che pure hanno un ruolo cruciale nella società, ma da un governo, che ovviamente prende decisioni che hanno effetto diretto su milioni di cittadini.

Il governo in questione è quello attuale degli Stati Uniti, dove il ministro della salute, Robert F. Kennedy Junior, ha presentato un rapporto di ben 73 pagine sulle cause delle malattie croniche nella popolazione statunitense e in particolare nei bambini, dicendo che si trattava di un rapporto scientifico redatto secondo i massimi criteri qualitativi del settore, da usare come documento fondante per la politica sanitaria dell’intero paese.

Ma l’associazione giornalistica Notus ha scoperto che alcuni degli studi scientifici citati come fonti dal rapporto non esistevano affatto e altri erano stati interpretati in modo grossolanamente errato. Alle domande dei giornalisti sulla causa di queste citazioni inesistenti o distorte, la portavoce della Casa Bianca ha risposto dicendo che si trattava di “errori di formattazione”. Ma secondo gli esperti, questo tipo di citazione inventata è invece un segno tipico dell’uso maldestro dell’intelligenza artificiale generativa e la “formattazione” non c’entra assolutamente nulla [CBS News; The Guardian; New York Magazine]. Uno degli indizi tecnici più vistosi di questo uso maldestro è il fatto che il link di alcune delle fonti citate dal rapporto contiene la sequenza di caratteri “oaicite”, che viene tipicamente aggiunta dalle IA di OpenAI alle citazioni ed è un errore ben documentato e caratteristico di ChatGPT [NBC; Reddit].

Il ministro Kennedy ha detto ripetutamente che avrebbe adottato una “trasparenza radicale” per la gestione della salute nel suo paese, eppure non ha voluto fornire dettagli su chi abbia scritto questo rapporto e su che basi lo abbia fatto. Inoltre le conclusioni del rapporto non corrispondono a quello che risulta analizzando i dati presenti nel rapporto stesso: per esempio, questo documento descrive l’obesità infantile come una “crisi sanitaria che sta peggiorando” ma allo stesso mostra un grafico che indica che il tasso di obesità negli Stati Uniti è relativamente stabile da vent’anni a questa parte [NBC].

Sarebbe davvero preoccupante scoprire che la sanità di un’intera nazione (quella che fra l’altro di fatto definisce gli standard sanitari di gran parte del mondo) viene decisa affidandosi ciecamente a ChatGPT.

La morale di fondo, alla fine di questa carrellata di disastri informatici, è che sembra che sia straordinariamente difficile sfuggire alla seduzione delle intelligenze artificiali generative, e che lo sia anche per persone altrimenti considerate professionisti intelligenti, razionali e competenti.

Eppure il concetto è semplice, e potrebbe anzi essere la base per un’idea regalo per chiunque si affacci al giornalismo o alle professioni legali: una bella targa, da affiggere nel proprio studio, con cinque semplici parole: ChatGPT non è una fonte.

Immagine generata da me usando un generatore di immagini basato su IA. Prompt: “A Victorian-style brass plaque bears the words “ChatGPT non è una fonte” etched in bas-relief into the metal, written in very elegant black Bodoni font. The plaque is screwed onto the elegant antique wood bookshelves of a very formal lawyer’s office, with antique furniture and lots of books and encyclopedias. Masterpiece, 4K, Nikon F1, underexposed, light streaming through large window from the left.”