Vai al contenuto

L’IA di Meta non sa nemmeno le preghierine. Quanti fantastiliardi ci hanno speso?

Ultimo aggiornamento: 2025/06/27 8:25.

Ho chiesto a Meta AI, la versione integrata in Whatsapp, un’informazione molto semplice: Quante R ci sono nel padre nostro (minuscolo solamente perché andavo di fretta). Risposta generata dai potentissimi server di Zuckerberg per i quali Meta sta spendendo cifre allucinanti:

Persino io so che questo non è il Padre Nostro corretto: quell’assurdo “indurre in tentazione” è stato finalmente corretto ufficialmente nel 2018 [Il Mattino]. Ma Meta AI non lo sa. Complimenti.

Sul fatto che Meta AI trovi soltanto cinque lettere R nel Padre Nostro non aggiungo alcun commento. L’errore è talmente grossolano che si commenta da solo.


2025/06/27 8.25

Nei commenti è stato segnalato il fatto che sbagliare il conteggio delle lettere in una parola o frase è un limite intrinseco dei grandi modelli linguistici (LLM), che funzionano sulla base dei cosiddetti token e quindi non “vedono” le lettere come le vediamo e consideriamo noi. Dario Bressanini sottolinea questo concetto in questo bel video [Facebook] e dice che chiedere a una IA di contare le lettere significa non conoscere bene lo strumento. Con l’aiuto (riveduto) di Whisper, ecco la trascrizione del video:

Non chiedete a ChatGPT! Lo so che lo fate, lo fanno tutti, lo faccio anch’io, è una tendenza sempre più diffusa, specialmente tra gli studenti, ma è un errore. Ora vi spiego meglio, e alla fine vi darò un consiglio.

L’intelligenza artificiale, o meglio gli LLM, i Large Language Model, modelli di linguaggio di grandi dimensioni, sta sostituendo Google per molte ricerche e se ne è accorto anche Google, che ha introdotto nei suoi risultati riassunti generati dalla sua AI Gemini.

Sempre più studenti chiedono a ChatGPT aiuto sugli argomenti più disparati o per risolvere degli esercizi, ma fidarsi ciecamente delle risposte è un rischio. Tempo fa ho letto un’intervista al premio Nobel Giorgio Parisi in cui raccontava di aver convinto un modello linguistico che 5 per 4 fa 25. Parisi ovviamente sa benissimo come funzionano questi sistemi, dato che la matematica su cui si basano è molto vicina ai suoi studi. Ma molte persone, studenti compresi, non hanno idea di cosa siano davvero questi modelli e vedo sempre più gente dire “Ah, ho chiesto a ChatGPT” e prendere per oro colato le sue risposte. È il nuovo “l’ha detto la televisione”, dopotutto si chiama intelligenza artificiale, no? Dovrebbe dare le risposte giuste.

E invece no, il punto chiave è che questi sistemi non sono stati progettati per dire la verità. La G di GPT sta per Generative. Il loro compito è generare testo plausibile in base al loro addestramento, non fornire risposte corrette. Se gli chiedete di risolvere un’operazione matematica, sbaglia e vi lamentate, fate solo la figura di chi non ha capito come funzionano questi sistemi. Come si dice, it’s a feature, not a bug: non è un errore, è una caratteristica. Il fatto che la si possa convincere che 5 per 4 faccia 25 non è una prova che l’intelligenza artificiale sia inaffidabile, ma è proprio la dimostrazione di come realmente funzioni. E non è un motivo valido per sottovalutare quello che di incredibile può fare.

Se vi lamentate pubblicamente perché ChatGPT conta male il numero di lettere R in una parola, non avete smascherato un truffatore, avete solo dimostrato di non aver capito lo strumento, facendo la figura del picio. È come provare a piantare un chiodo con un cacciavite e poi lamentarsi che non funziona bene. Beh, la colpa non è del cacciavite, ma vostra che lo state usando. Per piantare un chiodo serve un martello.

Detto questo, le persone vogliono risposte affidabili. Non gli basta avere un LLM che generi solo testo plausibile ma inventato. Vogliono fatti, vogliono certezze, e quindi le aziende si stanno adattando. Ora ChatGPT, Perplexity e altre aziende hanno strumenti che possono cercare sul web e riassumere le informazioni trovate. Google per esempio ha introdotto il suo Deep Research e funziona in modo impressionante, provatelo.

Ma il cuore del sistema resta sempre lo stesso, un modello linguistico addestrato per prevedere la parola successiva, o meglio il prossimo token, sulla base delle precedenti, indipendentemente dal valore di verità. Se nell’addestramento ha trovato più testi che dicono per esempio che aceto e bicarbonato siano un buon detergente, ripeterà questa informazione, anche se è una scemenza, e affinare i prompt può migliorare la risposta, ma non risolve il problema della radice. Forse dovrebbe leggere i miei libri.

Io li utilizzo moltissimo, li trovo straordinari, per fare il brainstorming, strutturare appunti sparsi, traduzioni, riassunti di documenti complessi, no, ve l’ho fatto vedere in due vecchi video, Il controllo della struttura logica di un articolo, la creazione di quiz a risposta multipla per gli esami, sbobinando le mie lezioni, scalette per approfondire un argomento, mappe concettuali e così via. E quando scrivo del codice in Mathematica, o faccio operazioni avanzate con Excel, o scrivo degli script complessi per la Z Shell che uso, il risparmio di tempo è notevolissimo.

Ma per usarli al meglio è necessario capire come funzionano internamente, che cosa possono fare e cosa per loro natura ancora non riescono a fare.

Non sono oracoli, generano testo basandosi sulle probabilità, bisogna sapere cosa aspettarsi e soprattutto verificare quello che producono. La sfida più grande oggi credo sia proprio quella di far capire agli studenti, e non solo ovviamente, che chiedere a ChatGPT non è sbagliato di per sé, ma lo diventa se ci si aspetta che la risposta sia sempre giusta. La verifica delle fonti rimane fondamentale, in pratica dovete usare la vostra intelligenza, non la sua.

Se volete capire meglio quali sono le basi della cosiddetta intelligenza artificiale moderna vi posso consigliare questo libro, Why Machines Learn: l’ho comprato un po’ di tempo fa, e spiega i fondamenti matematici, perché c’è della matematica alla base del funzionamento delle moderne reti neurali, a partire dagli anni 50, con i primi studi sul perceptrone, sulle prime reti neurali molto semplici, i primi successi, i primi fallimenti, fino ad arrivare ai giorni nostri, e spiega in dettaglio, ma non è assolutamente pesante (c’è un po’ di matematica, ma è sufficiente che vi ricordiate la matematica delle scuole superiori), però spiega molto bene come funzionano internamente questi sistemi che poi sono la base dei moderni modelli linguistici.

È un libro interessante, l’ho comprato e poi qualche tempo dopo mi è stato spedito senza che io lo chiedessi da Apogeo, che ringrazio però, insomma, avevo già letto la versione in inglese. Se uno va a fondo e capisce qual è la base di questi sistemi, capisce anche che è stupido lamentarsi perché “Ah il sistema non riesce a fare 4 più 5” oppure “l’ho convinto che 4 più 5 faccia 10”. Quindi se volete andare un po’ oltre vi consiglio appunto uno di questi libri.

Giustissimo, e sono felice di prendermi del picio da Dario. Ma l’esempio si fa lo stesso proprio perché evidenzia un limite d’uso per nulla ovvio, che l’utente medio non si aspetta e che queste IA non ci avvisano di avere. Inoltre mostra l’altro errore, il più pericoloso: l’incapacità di queste IA di ammettere che non sono capaci di fare una cosa.

Dare questi prodotti in pasto al pubblico generico senza mettere bene in evidenza questi limiti significa creare intenzionalmente disastri fregandosene delle conseguenze. Significa, per usare il paragone di Bressanini, vendere un cacciavite spacciandolo per un martello.

Sulle confezioni di candeggina, o di qualunque prodotto potenzialmente pericoloso, la legge obbliga a scrivere delle avvertenze belle grosse e in evidenza. Perché non possiamo chiedere che si faccia la stessa cosa per queste IA? Davvero dobbiamo accettare quella minuscola foglia di fico della scrittina in piccolo in grigio?

Podcast RSI – Gli SMS di autenticazione segreti non sono affatto segreti: meglio abbandonarli

Questo è il testo della puntata del 23 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.

Il podcast va in pausa per due settimane e tornerà il 14 luglio.


[CLIP: audio di notifica di arrivo di un SMS]

Usate gli SMS per ricevere i codici di sicurezza dei vostri account? Quegli SMS che vi ricordano insistentemente che quei codici non devono essere condivisi con nessuno? Beh, in realtà quei codici vengono spesso condivisi con qualcuno ancora prima di arrivare a voi, perché possono essere letti dagli intermediari che li trasmettono per conto delle grandi aziende che li usano, e quindi non sono affatto sicuri e segreti come molti pensano.

Questa è la storia di come gli SMS “di sicurezza” possono essere intercettati, permettendo di rubare account di posta o di accesso a servizi online di ogni genere anche quando sono protetti, almeno in apparenza, tramite l’autenticazione a due fattori. E al centro di questa storia c’è un bottino di un milione di SMS di autenticazione trafugati e c’è una società di telecomunicazioni svizzera. Ma questa è anche la storia di come si rimedia a questa falla sorprendente e inaspettata.

Benvenuti alla puntata del 23 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Gli SMS, intesi come messaggi di puro testo veicolati dalla rete telefonica cellulare, esistono da quasi quarant’anni, e resistono piuttosto bene alla frenetica evoluzione della tecnologia. Furono definiti nel 1986 dagli standard tecnici che diedero vita alla rete cellulare digitale GSM, e il primo SMS in assoluto fu inviato a dicembre del 1992, ma ci vollero alcuni anni prima che diventassero disponibili al pubblico i telefonini capaci di inviarli e i messaggini di testo diventassero un fenomeno di massa.

Oggi sembra quasi assurdo, ma all’epoca gli SMS si pagavano e spesso non era possibile mandarli a un numero estero o a quello di un altro operatore telefonico. Dopo un picco di utilizzo intorno al 2000, gli SMS sono stati in buona parte soppiantati e resi obsoleti dai messaggi gratuiti e molto meno limitati dei social network e dall’arrivo degli smartphone, ma ne vengono ancora inviati miliardi ogni mese nel mondo: non dagli esseri umani, ma dalle macchine.

Moltissimi servizi online, infatti, oggi usano gli SMS per inviare agli utenti i codici temporanei di accesso ai loro servizi, per verificare le identità dei loro clienti, per notificare allarmi meteo o relativi al traffico, per validare gli acquisti e, purtroppo, anche per inviare pubblicità indesiderata.

Sono uno dei cardini dell‘autenticazione a due fattori, quella raccomandata dagli esperti di sicurezza per proteggere gli account di posta o social dai furti, perché viaggiano su un canale separato rispetto alla richiesta di password tradizionale. La password viene trasmessa via Internet, mentre il codice supplementare di sicurezza mandato in un SMS viaggia attraverso la rete telefonica tradizionale, e quindi un aspirante intruso o ladro di account dovrebbe riuscire a intercettare sia il traffico Internet del bersaglio, sia il suo traffico telefonico.

Ma un’indagine pubblicata pochi giorni da un gruppo di giornalisti chiamato Lighthouse Reports in collaborazione con Bloomberg Businessweek [paywall] ha rivelato il ventre molle di questo venerabile servizio di messaggistica.

Quando un negozio online, una banca, un servizio di mail come Gmail o una piattaforma social come Instagram o Bluesky ci manda un SMS con i codici temporanei di autenticazione, in realtà non lo invia quasi mai direttamente a noi, come verrebbe spontaneo immaginare. Per contenere al massimo i costi, lo invia quasi sempre tramite società terze specializzate, degli intermediari, che a loro volta lo passano ad altri, fino a che finalmente arriva sul nostro schermo. Questo rimpallo è estremamente rapido, per cui non ce ne accorgiamo. Ma gli SMS vengono trasmessi in chiaro, ossia senza crittografia, e quindi ognuno di quegli intermediari può leggerne il contenuto senza che il mittente o il destinatario se ne possano accorgere.

E il contenuto di quegli SMS spesso include tutto quello che serve per rubare un account, perché assieme ai codici vengono inviati il numero di telefono del destinatario, per ovvie ragioni, e a volte anche il nome dell’account al quale si riferiscono. I codici segreti di autenticazione, insomma, non sono affatto segreti.

Se ne sono accorti l’anno scorso i giornalisti di Lighthouse Reports, appunto, quando hanno ricevuto da un addetto ai lavori, sotto anonimato e protezione giornalistica, un immenso archivio di SMS trafugati, che includevano circa un milione di messaggi contenenti codici di autenticazione a due fattori inviati intorno a giugno del 2023. Stando alle loro indagini, questi messaggi erano stati veicolati da una piccola società di telecomunicazioni svizzera, la Fink Telecom Services, che ha meno di dieci dipendenti. I mittenti erano Google, Meta, Amazon, banche europee, app come Tinder e Snapchat, servizi di scambi di criptovalute come Binance e persino servizi di messaggistica crittografata come Signal e WhatsApp. I destinatari, nota Bloomberg, erano situati in oltre 100 paesi in cinque continenti.

In altre parole, i nostri codici di sicurezza passano quasi sicuramente attraverso intermediari che non abbiamo mai sentito nominare.


Il problema è che questo settore è scarsamente regolamentato, ed è facilissimo diventare intermediari di miliardi di messaggi privati. In particolare, la Fink Telecom Services è nota agli esperti del settore per aver collaborato con agenzie di sorveglianza governative e con società specializzate nella sorveglianza digitale. Sempre Bloomberg sottolinea che “sia i ricercatori di sicurezza informatica, sia i giornalisti investigativi hanno pubblicato rapporti che accusano la Fink di essere coinvolta in vari casi di infiltrazione in account online privati.” Il CEO dell’azienda, Andreas Fink, respinge le accuse.

Le aziende che usano gli SMS per autenticare i propri servizi sono così ansiose di contenere i costi che si appoggiano a lunghe e intricate catene di intermediari non verificati, anche se sanno che questo è un comportamento pericoloso. Una delle principali organizzazioni di settore, il GSMA, ha pubblicato nel 2023 un codice di condotta che sconsiglia questa prassi proprio perché permetterebbe ai criminali di intercettare gli SMS contenenti i codici di sicurezza. Ma si tratta di un codice di condotta volontario, e sembra proprio che manchi la volontà diffusa di applicarlo.

Il rischio che deriva da questa carenza di volontà è tutt’altro che teorico. Nel 2020, per esempio, è emerso che una serie di attacchi informatici ai danni di investitori in criptovalute aveva usato proprio questa tecnica: un criminale informatico aveva ottenuto in questo modo i codici di autenticazione necessari per accedere agli account di mail e a quelli di gestione delle criptovalute di una ventina di persone in Israele. E ci sono altri casi documentati di intercettazioni e sorveglianze governative basate su questo approccio.

Purtroppo l’industria della trasmissione degli SMS, che si stima abbia un valore di oltre 30 miliardi di dollari, non ha strumenti legali che le consentano di scremare eventuali intermediari disonesti. I grandi utenti, ossia le aziende, appaltano gli invii dei loro codici di autenticazione a uno di questi intermediari e non hanno modo di sapere se questi invii vengono subappaltati e se quel subappaltatore a sua volta cede il contratto a terzi, e così via, in un complicato gioco internazionale di scatole cinesi e di società che spesso non hanno nemmeno bisogno di una licenza per operare.

E i nostri codici di sicurezza viaggiano così in questo mare burrascoso come messaggi in bottiglia che tutti possono leggere, mentre noi crediamo di aver protetto i nostri account attivando gli SMS di autenticazione.

Per fortuna ci sono delle soluzioni.


Di fronte a questa situazione caotica e insicura degli SMS tradizionali, gli esperti di sicurezza raccomandano alternative più robuste. In molti casi si possono attivare dei PIN supplementari sui propri account, e molti grandi nomi dei servizi online, come Google o Meta, offrono soluzioni di autenticazione che fanno a meno degli SMS e anzi stanno incoraggiando gli utenti ad abbandonare la ricezione di codici tramite messaggi telefonici tradizionali.

Una delle soluzioni più efficaci è l’uso di una app di autenticazione, come quelle di Google [AndroidiOS] e Microsoft [Android; iOS], che si chiamano entrambe Authenticator, oppure Authy di Twilio. Per usarla, si entra nel proprio account del servizio che si vuole proteggere e lo si imposta in modo che non mandi un SMS con dei codici di verifica ma richieda un codice generato dall’app di autenticazione. Quel codice dura un minuto e poi viene cambiato automaticamente, e la sincronizzazione fra l’app e il sito si fa semplicemente inquadrando una volta con il telefono un codice QR.

Un altro metodo è l’uso di chiavi di sicurezza hardware: degli oggetti fisici, simili a chiavette USB, che si inseriscono nel computer, tablet o telefonino oppure si tengono vicini a uno di questi dispositivi per autorizzarlo ad accedere a un servizio online. Costano qualche decina di euro o franchi e diventano una sorta di portachiavi elettronico.

Queste soluzioni offrono maggiore sicurezza rispetto alla situazione colabrodo attuale degli SMS, ma in cambio richiedono un po’ di attenzione in più da parte dell’utente e, nel caso della chiave hardware comportano anche una piccola spesa.

Hanno anche un altro limite: accentrano tutti i codici in un’unica app o un unico dispositivo, per cui se si perde o rompe il telefonino o la chiave hardware si rischia di perdere accesso a tutti i propri account, mentre gli SMS invece arrivano sempre e comunque e sono separati per ogni account. Ma anche qui ci sono dei rimedi: si possono avere copie multiple dell’app di autenticazione su telefonini differenti o su più di una chiave hardware, un po’ come si fa con le chiavi della porta di casa, di cui è prassi normale avere almeno un paio di esemplari.

Se avete in casa un vecchio smartphone che non usate più perché la batteria non regge, potete recuperarlo facendolo diventare il vostro autenticatore di scorta, da lasciare a casa al sicuro in un cassetto e da usare in caso di furto o guasto dello smartphone principale.

Le soluzioni, insomma, ci sono. Ma resta la constatazione amara che le società più ricche del pianeta, come Google, Amazon o Meta, non sono disposte a spendere per garantire meglio la sicurezza dei propri utenti e continuano ad appoggiarsi a questa ingarbugliata rete di intermediari e sottointermediari invece di prendere il toro per le corna e mandare gli SMS di autenticazione direttamente. Tanto se perdiamo accesso ai nostri dati sui loro server, se ci saccheggiano il conto PayPal o Twint o quello in criptovalute, se perdiamo il controllo dei nostri profili social o qualcuno si legge tutta la nostra mail, il problema è nostro, non loro. E quindi, cinicamente, a queste grandi aziende conviene barattare la nostra sicurezza in cambio di un loro risparmio.

È dunque il caso di rimboccarsi le maniche virtuali e abbandonare gli SMS, pensando in prima persona alla propria protezione digitale, senza aspettare che lo faccia qualcuno per noi.

Niente Panico RSI – Puntata del 2025/06/16

È andata in onda lunedì scorso l’ultima puntata prima della pausa estiva di Niente Panico, il programma che conduco in diretta insieme a Rosy Nervi settimanalmente sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la mia raccolta completa delle puntate è presso Attivissimo.me/np.

Niente Panico tornerà il 29 settembre.

L’articolo sulle ipotesi di allineamento delle piramidi egizie che cito è stato pubblicato su Astronomy nel 2021. Le tecniche di posa dei sarcofagi di Saqqara sono tratte da questo articolo di Wikipedia.

La vicenda della funicolare di Lugano che secondo Google Gemini dovrebbe chiudere nel 2027 (non è vero) mi è stata segnalata da un lettore, Mauro, che ringrazio. A lui devo questi screenshot. Non fidatevi di quello che dicono queste pseudointelligenze. Con tutti i miliardi che hanno speso Google, Microsoft, Meta e compagnia bella, non sono ancora capaci di distinguere la satira e i pesci d’aprile dalla realtà.

Sì, certo, c’è scritto “Le risposte dell’AI potrebbero contenere errori”. Ma allora cosa le consultiamo a fare? Sono solo una costosa, energivora perdita di tempo.

La “fonte” usata da Gemini (Instagram).

Podcast RSI – Le domande intime degli altri fatte a Meta AI si possono leggere online

Questo è il testo della puntata del 16 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: voce sintetica legge il testo di una domanda: “quale crema o unguento si può usare per lenire una grave reazione con lesioni allo scroto causate dal rasoio usato per depilarsi?”]

Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp, fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato sull’intelligenza artificiale integrato da qualche tempo in queste app e simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi, può capitare che vengano addirittura pubblicate online e rese leggibili a chiunque. Come quella che avete appena sentito.

E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale di Meta per chiedere cose estremamente personali e le sta affidando indirizzi, situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta pubblicando tutto quanto, con conseguenze disastrose per la privacy e la protezione dei dati personali: non solo i propri, ma anche quelli degli altri.

Questa è la storia di Meta AI, di come mai i dati personali degli utenti finiscono per essere pubblicati da quest’app e di come evitare che tutto questo accada.

Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Meta AI è un servizio online basato sull’intelligenza artificiale che è stato presentato pochi mesi fa ed è accessibile tramite un’app omonima e tramite Facebook, Instagram e WhatsApp: è rappresentato da quel cerchietto blu che è comparso, non invitato, in tutte queste app. È simile a ChatGPT, nel senso che gli utenti possono fargli domande scritte o a voce e ottenerne risposte altrettanto scritte o vocali, possono mandargli immagini per farle analizzare, e possono chiedergli anche di creare immagini in base a una descrizione.

Meta AI, però, ha una differenza importantissima rispetto a ChatGPT, Google Gemini e gli altri prodotti analoghi: ha un’opzione che permette che le domande che gli vengono rivolte possano essere pubblicate online, dove chiunque può leggerle. E a giudicare dalle cose che si possono vedere nel flusso pubblico di queste domande e risposte, è evidente che moltissimi utenti non sono affatto consapevoli di questa differenza e stanno rendendo pubbliche richieste molto private e spesso spettacolarmente imbarazzanti.

Nell’app e nel sito di Meta AI (https://www.meta.ai/#feed) c’è infatti una sezione, chiamata formalmente Discover, dove chiunque può sfogliare le domande poste dagli utenti a questa intelligenza artificiale e vedere chi le ha fatte: ogni domanda è infatti associata all’account di chi l’ha inviata.

Esplorando il contenuto di questa sezione si trova davvero di tutto: richieste di generare immagini di donne che si baciano mentre lottano nel fango in bikini, o di produrre le soluzioni a un compito o a un esame, per esempio, ma anche richieste di fare diagnosi mediche, accompagnate da descrizioni dettagliate dei sintomi, oppure di comporre una lettera di risposta a uno studio legale, con tanto di nomi, cognomi e indirizzi delle persone coinvolte.

Screenshot mio (link).

Molte testate giornalistiche [CNBC; BBC; Fastcompany; Wired; Business Insider] e vari esperti di sicurezza informatica e privacy digitale, come per esempio Rachel Tobac, hanno catalogato e documentato davvero di tutto: dettagli di casi clinici e procedimenti legali, richieste di pareri riguardanti evasioni fiscali, informazioni sui reati personalmente commessi, domande appunto su come rimediare a irritazioni prodotte dalla rasatura delle parti intime o come affrontare una transizione di genere, richieste di aiuto su come trovare donne (cito) “con un sedere grosso e un bel davanzale”, e altro ancora, sotto forma di richieste scritte o vocali, leggibili o ascoltabili da chiunque e condivisibili con il mondo, perché ciascuna richiesta ha un link pubblico.

Uno dei casi più incredibili è la richiesta pubblica a Meta AI di “creare una lettera che implori il giudice (identificato dal cognome) di non condannarmi a morte per l’omicidio di due persone”.

E tutto questo, ripeto, è associato ai nomi degli account dei richiedenti, che molto spesso sono i loro nomi e cognomi anagrafici, per cui risalire alle loro identità è facilissimo.

Se avete già usato Meta AI e adesso siete nel panico perché state ripensando alle cose potenzialmente imbarazzanti o private che avete chiesto a questo servizio, aspettate un momento. Ci sono alcuni dettagli importanti da conoscere.


Prima di tutto, il problema di questo torrente di domande rivolte dagli utenti a Meta AI e rese pubbliche riguarda soltanto i paesi nei quali Meta AI è pienamente attivo. In gran parte dell’Europa, per esempio, il flusso pubblico di domande non è accessibile, grazie alle norme sulla protezione dei dati personali che servono proprio a impedire disastri come questo.

Per consultarlo, o per finire inavvertitamente per farne parte, è necessario risiedere in uno dei numerosi paesi, come gli Stati Uniti, nei quali Meta AI opera senza restrizioni, e occorre avere un account Meta legato a quel paese. Per esempio, per poter vedere con i miei occhi questo impressionante flusso di domande pubblicate ho dovuto usare una VPN per simulare di essere negli Stati Uniti. E il mio account Meta di test, associato alla Svizzera, mi dice che le funzioni dell’app Meta AI non sono ancora disponibili nella mia area geografica.

In altre parole, se abitate in Europa questo problema probabilmente non vi riguarda, almeno per ora. Ma le cose possono cambiare, e se vivete fuori dall’Europa o avete amici, colleghi o parenti che non risiedono in questo continente è consigliabile avvisarli di questa potenziale fuga di dati personali estremamente sensibili.

In secondo luogo, per rendere pubblica una domanda rivolta a Meta AI è necessario cliccare su un pulsante di condivisione e poi su un ulteriore pulsante di pubblicazione, ed è indicato piuttosto chiaramente quello che succederà, con un avviso dettagliato che dice specificamente che se si condivide il prompt, ossia la domanda, le altre persone potranno vedere per intero la conversazione fatta con Meta AI e raccomanda di “evitare di condividere informazioni personali o sensibili”.

Ma se ci sono tutte queste avvertenze, come è possibile che gli utenti di Meta AI finiscano lo stesso per pubblicare le proprie domande imbarazzanti e le proprie informazioni personali? È vero che le persone usano queste app in maniera molto distratta e superficiale, e spesso non hanno ben chiaro cosa significhi esattamente “condividere” o “prompt” nel mondo dei social, ma dare la colpa esclusivamente agli utenti disattenti e impreparati sarebbe scorretto.

La già citata esperta Rachel Tobac spiega infatti che gli utenti comuni si sono fatti ormai uno schema mentale di come funzionano i chatbot basati sull’intelligenza artificiale e non si aspettano nemmeno lontanamente che le loro richieste possano essere pubblicate, perché le altre app dello stesso genere non lo fanno. Si aspettano che le loro domande siano sempre e comunque private; magari condivise con il fornitore del servizio, ma non con il mondo intero. Non si aspettano che esista addirittura una pagina pubblica del sito di Meta dove le loro domande possono essere pubblicate per errore.

Non solo: se si chiede a Meta AI se le domande che gli si rivolgono sono pubbliche o no, l’intelligenza artificiale mente senza esitazione, dicendo con tono risoluto che no, le conversazioni sono private e nessun altro le può vedere [Rachel Tobac]. Per cui è comprensibile che gli utenti siano confusi e disorientati.

I responsabili di Meta hanno insomma commesso un errore grave e fondamentale nella progettazione della propria interfaccia con gli utenti. Sanno benissimo che fra i loro quattro miliardi di utenti stimati nel mondo ci sono tante persone che hanno un rapporto molto superficiale con l’informatica, eppure non ne hanno tenuto conto e hanno pensato che fosse una buona idea offrire l’opzione di pubblicare le proprie domande, senza considerare le possibili conseguenze. E soprattutto hanno pensato che fosse sensato permettere a chiunque di leggere le conversazioni condivise inavvertitamente dagli altri, creando un disastro di privacy ampiamente prevedibile.

Come nota TechCrunch, infatti, ci sono dei precedenti molto educativi: questo sito dedicato alle tecnologie dice che “c’è un motivo per cui Google non ha mai tentato di trasformare il proprio motore di ricerca in un flusso social, o per cui la pubblicazione delle ricerche degli utenti di America Online in forma pseudo-anonimizzata nel 2006 è finita così male” [New York Times, 2006]. E come nota invece Gizmodo, Facebook anni fa rilasciò una versione nella quale la casella di ricerca somigliava alla casella di scrittura dei post, per cui gli utenti finivano per postare pubblicamente le loro ricerche, e nel 2023 l’app di pagamento Venmo aveva avuto l’idea geniale di rendere pubblicamente cercabili i dettagli delle transazioni degli utenti, con conseguenze ovvie e disastrose [Daily Dot].

C’è anche un secondo errore commesso dai progettisti di Meta, ed è la scelta di impostare questo servizio di dubbia utilità in modo che spetti all’utente agire per tutelare la propria privacy, invece di progettarlo in modo tale che l’utente debba fare qualcosa di concreto per perderla. È il concetto di privacy by default: la riservatezza deve essere l’impostazione predefinita.

Vediamo allora a questo punto cosa si può fare per rimediare a queste scelte di Meta.


Se avete installato l’app Meta AI e vi funziona pienamente, potete ridurre il rischio di postare inconsapevolmente le vostre domande personali andando nell’app e toccando l’icona del vostro profilo in alto a destra.

Fatto questo, scegliete le impostazioni dell’app e la sezione dedicata a dati e privacy, andate nella sottosezione dedicata alla gestione delle informazioni personali e toccate l’opzione che parla di rendere visibili solo a voi tutti i vostri prompt e di condividere quei prompt con altre app, disattivando tutto. Già che ci siete, vi conviene anche toccare e attivare l’opzione che permette di cancellare tutti i prompt precedenti, per fare tabula rasa [Gizmodo]. Se vi siete persi qualche passaggio, non vi preoccupate: le istruzioni dettagliate sono disponibili presso Attivissimo.me.

Questa vicenda, al di là dei suoi risvolti umani a metà fra il voyeuristico e il deprimente, dimostra ancora una volta che nonostante gli infiniti proclami di avere a cuore la nostra privacy, in realtà ai gestori dei social network la protezione dei dati degli utenti non interessa affatto. Tengono invece al profitto, e devono in qualche modo giustificare le cifre spropositate che stanno spendendo per stare al passo con questa febbre dell’intelligenza artificiale, per cui non ci chiedono se per caso vogliamo la IA in tutte le nostre app, ma ce la impongono a forza.

Se avessero davvero a cuore la nostra riservatezza, imposterebbero i loro servizi in modo che debba essere l’utente ad abbassare volontariamente le proprie protezioni. E invece tocca a noi utenti informarci e stare vigili a ogni aggiornamento delle nostre app social per tenere alzate quelle protezioni. È estenuante, e forse l’unico rimedio per non cedere allo sfinimento prima o poi è semplicemente smettere di usare questi prodotti e passare ad alternative progettate meglio e a favore degli utenti e non degli azionisti.

Sì, esistono. Ma questa è un’altra storia per un’altra puntata di questo podcast.

Fonti

Meta AI’s discover feed is full of people’s deepest, darkest personal chatbot conversations, Fastcompany.com, 2025

Mark Zuckerberg has created the saddest place on the internet with Meta AI’s public feed, Business Insider, 2025

Meta AI posts your personal chats to a public feed, Pivot to AI, 2025

Justine Moore su X, 2025

The Meta AI App Lets You ‘Discover’ People’s Bizarrely Personal Chats, Wired, 2025 (copia su Archive.is)

Meta AI searches made public – but do all its users realise?, BBC, 2025

The Meta AI app is a privacy disaster, TechCrunch, 2025

PSA: Get Your Parents Off the Meta AI App Right Now, Gizmodo, 2025

Rachel Tobac su X, 2025

Here’s how to keep Meta AI from sharing your prompts on Facebook, Instagram, CNBC, 2025

Avviare una conversazione con Meta AI, Meta, 2025

Europe, Meet Your Newest Assistant: Meta AI, Meta, 2025

Meta is about to use Europeans’ social posts to train its AI. Here’s how you can prevent it, Euronews, 2025

Meta AI, pratica ma problematica, RSI, 2025

A Face Is Exposed for AOL Searcher No. 4417749, New York Times, 2006

Podcast RSI – Quando l’IA non è A: la beffa miliardaria di Builder.ai

Questo è il testo della puntata del 9 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: inizio dello spot promozionale di Builder.ai, ancora online su YouTube]

Un’azienda informatica operante nel settore dell’intelligenza artificiale applicata alla programmazione e valutata un miliardo e mezzo di dollari è crollata sotto gli occhi dei suoi investitori, fra i quali spicca Microsoft, perché è emerso che il suo prodotto basato sulla IA era molto I ma poco A: la sua strombazzata “intelligenza artificiale”, infatti, era in realtà quasi interamente costituita da 700 informatici residenti in India, pagati da 8 a 15 dollari l’ora per fingere di essere un software.

Questa è la storia di Builder.ai, che probabilmente è il più grosso flop di questo periodo di delirio di investimenti su qualunque cosa legata all’intelligenza artificiale, ma non è l’unico: è stato stimato che il 40% delle startup che hanno annunciato di avere un prodotto basato sull’intelligenza artificiale in realtà non usano affatto questa tecnologia ma simulano di averla per attirare più capitali. E finalmente comincia a serpeggiare una domanda: quanto di questo boom estenuante dell’intelligenza artificiale è solo marketing o addirittura sconfina nella truffa?

Benvenuti alla puntata del 9 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Builder.ai era una delle grandi speranze legate all’intelligenza artificiale nel Regno Unito. La startup londinese aveva raccolto 450 milioni di dollari di finanziamenti in capitale di rischio, principalmente da Microsoft e dal fondo sovrano di investimento del Qatar, uno dei più grandi del mondo. Il suo prodotto era Natasha, un’intelligenza artificiale che a suo dire permetteva ai clienti di creare app o addirittura interi siti di commercio elettronico semplicemente conversando con lei, senza aver bisogno di sapere nulla di programmazione. Nel 2023, quando Microsoft aveva investito in Builder.ai, uno dei vicepresidenti dello storico colosso del software, Jon Tinter, aveva detto che Builder.ai stava “creando una categoria completamente nuova che dà a tutti il potere di diventare sviluppatori” [GlobeNewsWire, 2023], e Microsoft aveva intenzione di integrare Natasha nel suo onnipresente Teams.

Ma il mese scorso Builder.ai ha presentato istanza di fallimento negli Stati Uniti, con debiti stimati fra i 50 e i 100 milioni di dollari [Courtlistener; Courtlistener], perché le indagini giornalistiche e quelle degli investitori hanno rivelato pratiche di contabilità estremamente sospette e perché è emerso che Natasha non esisteva: era solo una facciata di marketing, per nascondere il fatto poco vendibile che la sua cosiddetta intelligenza artificiale era in realtà costituita da un gruppo di 700 analisti, sviluppatori e programmatori residenti a Delhi, in India, addestrati a fingere di essere una IA, tanto che i dipendenti dicevano scherzosamente che “AI”, l’acronimo inglese che indica l’intelligenza artificiale, stava in realtà per “Another Indian”, ossia “un altro indiano”. I tecnici di Builder.ai si autodefinivano “un call center, ma con un marketing migliore”. Natasha si prendeva il merito e i clienti credevano di interagire con una straordinaria intelligenza artificiale capace di sviluppare app meglio degli esseri umani.

E le cose andavano avanti così da anni, fin dal 2016, quando l’azienda si chiamava Engineering.ai, e sono andate avanti nonostante il fatto che già nel 2019, quindi sei anni fa, le indagini del Wall Street Journal avevano fatto emergere il fatto che la sedicente IA dell’azienda era in realtà la maschera che copriva i volti di sviluppatori in carne e ossa [The Verge; WSJ], anche se il CEO di allora, Sachin Duggal, andava in giro a dire pubblicamente che il lavoro di sviluppo delle app era svolto per più dell’80% dall’intelligenza artificiale [Builder.ai su Facebook, video del 2018].

Sempre nel 2019, il responsabile commerciale di Engineering.ai, Robert Holdheim, aveva fatto causa all’azienda accusandola di esagerare le proprie capacità di intelligenza artificiale per ottenere gli investimenti che le servivano per sviluppare realmente la tecnologia che diceva di avere già [The Verge]. Ma ci sono voluti quasi nove anni perché i nodi arrivassero al pettine, e nel frattempo Builder.ai si è lasciata dietro una scia di investitori prestigiosi che ora si rendono conto di essere stati beffati.


La febbre dell’intelligenza artificiale arde ormai da parecchi anni, e molti investitori si lasciano sedurre dal marketing invece di analizzare la sostanza delle aziende che finanziano. E il caso di Builder.ai non è isolato. Secondo un’analisi della società di investimenti britannica MMC Ventures datata 2019, “le startup che hanno qualche sorta di componente IA possono attirare fino al 50% in più di investimenti rispetto alle altre società di software” ma “si sospetta che il 40% o più di queste startup non usi in realtà nessuna forma di intelligenza artificiale” [The Verge].

Per esempio, ad aprile 2025 è emerso che l’app di shopping Nate, che affermava di permettere agli utenti di completare gli acquisti nei negozi online facendo un solo clic grazie all’intelligenza artificiale, in realtà sfruttava centinaia di lavoratori nelle Filippine, che non facevano altro che completare a mano gli acquisti iniziati dai clienti. Secondo il Dipartimento di Giustizia statunitense, che ha incriminato l’ex CEO dell’azienda che gestiva questa app, il tasso effettivo di automazione di questa app era zero e il CEO ha nascosto intenzionalmente questo fatto agli investitori, dai quali è riuscito a farsi dare oltre 40 milioni di dollari.

Un altro esempio: nel 2023 la Presto Automation, società che offriva un popolare software per automatizzare gli ordini e gli acquisti nelle più importanti catene di fast food, ha ammesso che oltre il 70% degli ordini che a suo dire venivano gestiti dall’intelligenza artificiale erano in realtà presi in carico da lavoratori anche stavolta nelle Filippine [The Verge; Bloomberg]. La società è finita sotto indagine da parte delle autorità statunitensi di vigilanza sui mercati.

Nel 2016 Bloomberg ha segnalato il caso delle persone che lavoravano per dodici ore al giorno fingendo di essere dei chatbot per i servizi di gestione delle agende, come per esempio X.ai e Clara. Nel 2017 è emerso che i gestori di Expensify, una app che dichiarava di usare una “tecnologia di scansione smart” per leggere e digitalizzare ricevute e scontrini, in realtà sfruttava dei lavoratori umani sottopagati, che ovviamente venivano a conoscenza di tutti i dati personali dei clienti. E si potrebbe citare anche Facebook, il cui assistente virtuale per Messenger, denominato M, dal 2015 al 2018 si è appoggiato in realtà a esseri umani per oltre il 70% delle richieste [The Guardian].

In altre parole, l’intelligenza artificiale viene spesso usata come luccicante foglia di fico per coprire il fatto che si vuole semplicemente sfruttare una manodopera più a buon mercato di quella locale.

Non è che quelli che operano nel settore dell’intelligenza artificiale siano tutti truffatori o venditori di fumo: in parte il fenomeno delle IA fittizie è dovuto al fatto che spesso l’intelligenza artificiale sembra funzionare bene durante la fase di test ma fallisce quando viene esposta alle complessità del mondo reale e viene usata su vasta scala. Inoltre procurarsi i dati necessari per l’addestramento di una IA dedicata è molto costoso e richiede molto tempo.

C’è anche il fatto che l’intelligenza artificiale attuale ha ancora molto bisogno di intervento umano, e oltretutto di intervento umano qualificato, che costa, e quindi le promesse di riduzione dei costi spesso si rivelano vane. Per esempio, i social network, nonostante spingano insistentemente per l’adozione di massa delle intelligenze artificiali, non riescono ancora a usarle per moderare automaticamente i contenuti pubblicati dagli utenti e sono tuttora costretti a subappaltare questo compito a esseri umani, anche in questo caso sottopagati, ma siccome ammettere questa situazione non è cool e non fa bene alla quotazione in borsa, si continua a far finta di niente e si cerca di far sembrare che questa tecnologia sia più sofisticata di quanto lo sia realmente.


A questo miraggio della IA come tecnologia magica e affidabile credono in molti, compresi i professionisti di vari settori. Nella puntata precedente di questo podcast ho raccontato alcuni incidenti molto costosi e imbarazzanti che hanno coinvolto per esempio gli avvocati di vari paesi, che si sono affidati alle intelligenze artificiali per preparare le loro cause senza rendersi conto che questi software non sono fonti attendibili perché per natura tendono a inventarsi le risposte ai quesiti degli utenti. Dal Regno Unito arriva un aggiornamento che mostra quanto sia diventato grave e diffuso questo uso scorretto.

L’Alta corte di giustizia dell’Inghilterra e del Galles, un tribunale superiore che vigila sulle corti e i tribunali ordinari, ha rilasciato la settimana scorsa un documento indirizzato a tutti gli operatori di giustizia di sua competenza che è in sostanza una solenne lavata di capo a chi, per professione, dovrebbe sapere benissimo che non si va in tribunale portando fonti cercate rivolgendosi a ChatGPT, Gemini e simili senza verificarle.

Erano già state emanate delle direttive che mettevano in guardia contro i rischi di perdite di tempo e di equivoci derivati dall’uso improprio dell’intelligenza artificiale in campo legale, ma dopo un caso nel quale una causa di risarcimento per danni finanziari ammontanti a ben 89 milioni di sterline (circa 105 milioni di euro) è stata presentata fornendo al tribunale 45 precedenti inesistenti e fabbricati da un’intelligenza artificiale generativa, l’Alta corte ha deciso che a questo punto “è necessario prendere misure pratiche ed efficaci” contro questo fenomeno, come l’ammonimento pubblico dell’avvocato coinvolto, l’imposizione di una sanzione per i costi inutili causati, l’annullamento dell’azione legale e, nei casi più gravi, il processo per oltraggio alla corte o la segnalazione alla polizia [Pivot to AI].

L’aspetto forse più sorprendente, in tutte queste vicende legate all’intelligenza artificiale, è che non sono coinvolte persone qualsiasi, ma professionisti altamente qualificati, sia in campo legale sia in campo finanziario. Tutta gente che teoricamente dovrebbe sapere che prima di investire il proprio denaro (o quello degli altri) bisogna informarsi seriamente e indipendentemente sulla solidità della proposta, senza fidarsi delle patinate presentazioni aziendali, e che altrettanto teoricamente dovrebbe sapere che per fare le ricerche di precedenti legali non si va su Google e si prende per buono qualunque cosa risponda, ma si usano i servizi di ricerca professionali appositi. E invece ci cascano, e continuano a cascarci.

I catastrofisti dell’intelligenza artificiale dipingono spesso scenari inquietanti nei quali le macchine prima o poi acquisiranno un intelletto superiore a quello umano e quindi prenderanno il controllo di tutto. Ma forse non c’è bisogno di far leva sulla superiorità intellettiva. È sufficiente giocare sulla nostra tendenza a credere non a quello che è vero, ma a quello che vorremmo che fosse vero.

Gli investitori superpagati vogliono credere che investire nell’IA li farà diventare ancora più ricchi, e gli avvocati vogliono credere di poter delegare il loro lavoro a un software ottuso e incassare laute parcelle facendo meno fatica. E così l’intelligenza artificiale generativa dei grandi modelli linguistici come ChatGPT, Claude o Gemini, con la sua parlantina scioltissima e le sue risposte apparentemente così autorevoli, diventa l’imbonitore perfetto per rifilare fregature.

Impressionante espressività dei video generati con IA

Credo che il video qui sotto sia stato realizzato con Google Veo 3, che costa 250 dollari al mese: una cifra abbordabilissima per qualunque truffatore. Inquietante.

Questo, invece, è sicuramente fatto con Veo 3. Ottima l’idea di usare l’IA per mettere in guardia contro i rischi di inganno dell’IA stessa. Il video è disponibile anche su Instagram ed è opera di @thetravisbible.

Podcast RSI – Avvocati, giornalisti e governanti collezionano figuracce con l’IA

Questo è il testo della puntata del 2 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


A giugno 2023, esattamente due anni fa, i nomi degli avvocati statunitensi Peter LoDuca e Steven Schwartz avevano fatto il giro del mondo perché LoDuca, per difendere il suo assistito, aveva depositato in tribunale una lunga serie di precedenti legali che però erano stati inventati di sana pianta da ChatGPT, usato dal collega Schwartz credendo che fosse una fonte attendibile e addirittura chiedendo a ChatGPT di autenticare i precedenti che aveva appena inventato. Nel suo ormai classico stile, ChatGPT aveva risposto che era tutto in ordine.

Il giudice li aveva puniti con un’ammenda di alcune migliaia di dollari, ma la punizione più grave era stata la figuraccia mediatica. Chiunque cercasse i nomi di questi avvocati in Google li trovava associati da moltissimi giornali, e anche da questo podcast, alla loro dimostrazione di travolgente inettitudine [Disinformatico; Disinformatico].

Potreste pensare che dopo un caso clamoroso del genere gli avvocati in generale abbiano imparato la lezione e che simili disastri non si siano più ripetuti, ma non è così. Anzi, anche dal mondo del giornalismo e persino dai governi arrivano esempi di preoccupante incapacità di usare correttamente l’intelligenza artificiale.

Questa è la storia di una serie di esempi di uso inetto e incompetente della IA generativa da parte di professionisti e politici che sembrano incapaci di imparare dagli errori altrui e continuano, a volte con leggerezza preoccupante e spesso con arroganza sconcertante, a partorire deliri e vaneggiamenti dai quali purtroppo dipendono le sorti e la salute di tutti noi.

Sono esempi da raccontare non per umiliare o sbeffeggiare, ma per ribadire e diffondere il più possibile un concetto fondamentale che a quanto pare fa veramente fatica a essere acquisito: le intelligenze artificiali attuali non sono fonti affidabili e non ci si può fidare ciecamente dei loro risultati, ma bisogna sempre controllarli accuratamente. Altrimenti, prima o poi, la figuraccia è garantita.

Benvenuti alla puntata del 2 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il 18 maggio scorso vari quotidiani statunitensi, comprese testate di prestigio come il Chicago Sun-Times e il Philadelphia Inquirer, hanno pubblicato una pagina di suggerimenti letterari per l’estate: un elenco di titoli di libri di autori molto celebri, accompagnato da una dettagliata recensione di ciascuno dei quindici libri proposti. Titoli come I creatori della pioggia, del premio Pulitzer Percival Everett, o I sogni dell’acqua di marea di Isabel Allende. Titoli che anche se siete appassionati di letteratura non vi suoneranno per nulla familiari, per la semplice ragione che non esistono.

Foto della pagina in questione (Ars Technica).

Dei quindici titoli consigliati da questi giornali, solo cinque sono reali: gli altri dieci sono inesistenti, e la loro recensione è quindi ovviamente del tutto fasulla. L’inserto letterario di questi quotidiani è stato generato usando l’intelligenza artificiale: lo ha ammesso il suo autore, Marco Buscaglia, in seguito alle proteste dei lettori paganti di quei giornali.

Figuraccia per le testate coinvolte, che rischiano una grave perdita di fiducia e di credibilità lasciando che venga pubblicato del contenuto generato da IA senza alcuna supervisione o verifica, ma figuraccia anche per la società che ha fornito ai giornali quel contenuto, la King Features, che è una consociata del colosso dell’editoria statunitense Hearst.

Andando a leggere le scuse e gli atti di contrizione di tutte le parti coinvolte emerge una classica catena di errori: tutti hanno dato per scontato che l’elenco dei libri fosse stato verificato da qualcun altro lungo la filiera di produzione, e alla fine nessuno ha verificato nulla e i deliri dell’intelligenza artificiale, dall’aria superficialmente così plausibile, mimetizzati in mezzo a informazioni corrette, hanno raggiunto indisturbati le rotative. Buscaglia, fra l’altro, ha dichiarato che usava abitualmente l’intelligenza artificiale per le ricerche di base e controllava sempre i risultati che otteneva, ma questa volta non lo aveva fatto. La sua fiducia nell’intelligenza artificiale gli è costata il posto di lavoro [404 Media; Ars Technica; NPR; 404 Media].

Purtroppo questo non è l’unico caso del suo genere. Il giornalismo, cioè il mestiere che dovrebbe farci da baluardo contro la disinformazione, sta invece adottando disinvoltamente uno strumento che genera disinformazione. E in molti casi lo sta adottando in maniera totalmente dilettantesca: per esempio, il giornalista Aaron Pelczar si è dimesso dal giornale del Wyoming dove lavorava, il Cody Enterprise, perché ha usato ripetutamente l’intelligenza artificiale per generare articoli che contenevano virgolettati inventati e attribuiti al governatore locale, che non l’ha presa bene.

Il giornalista è stato colto sul fatto perché in fondo a uno dei suoi articoli ha lasciato la frase “Questa struttura garantisce che vengano presentate per prime le informazioni più critiche, facilitando ai lettori la comprensione più rapida dei punti salienti”, che non c’entrava nulla con il tema trattato ma era chiaramente presa di peso dalla risposta di una IA alla richiesta di strutturare e generare un articolo. Articolo che Pelczar non si era nemmeno degnato di rileggere prima di consegnarlo [The Guardian; Powell Tribune].

Foto del paragrafo finale dell’articolo di Pelczar, che contiene la frase generata da ChatGPT.

Già nel 2023 la celebre rivista Sports Illustrated era stata colta a pubblicare non solo articoli generati completamente dall’intelligenza artificiale ma anche ad attribuirli a giornalisti inesistenti, i cui nomi e le cui foto erano stati partoriti dalla stessa intelligenza artificiale, usata da un fornitore esterno di notizie. Episodi analoghi hanno coinvolto giornali e riviste di prestigio, come il Los Angeles Times, il Miami Herald e US Weekly, e il sito dedicato alle notizie tecnologiche CNET, smascherati tutti solo grazie alle indagini di giornalisti veri, in carne e ossa, che si erano insospettiti leggendo lo stile stentato e ripetitivo di questi falsi articoli e notando le loro frasi grammaticalmente impeccabili ma completamente prive di senso [PBS; Futurism; Washington Post; Futurism; NPR].

Quello che colpisce, in tutti questi episodi, non è tanto il fatto che delle redazioni tentino di usare la scorciatoia dell’intelligenza artificiale per ridurre i tempi e contenere i costi, ma che cerchino di farlo di nascosto e sperino di farla franca. È come se pensassero che il lettore sia stupido e quindi non si possa rendere conto che gli è stato rifilato un prodotto avariato. Ci sono molte situazioni nelle quali l’intelligenza artificiale può essere utile in una redazione, ma usarla per generare articoli in questo modo è come vendere una torta piena di segatura al posto della farina e pensare che tanto nessuno si accorgerà della differenza.

E nonostante questi precedenti, c’è sempre qualcuno che ci riprova.


A proposito di precedenti, anche gli avvocati sembrano incapaci di imparare dagli errori dei colleghi. Dopo la figuraccia, la sanzione e il clamore internazionale del caso degli avvocati LoDuca e Schwartz che nel 2023 erano stati colti appunto a depositare in tribunale dei precedenti inesistenti, generati dall’intelligenza artificiale, l’elenco dei legali che hanno pensato bene di affidarsi ciecamente alla IA per il proprio lavoro non ha fatto che allungarsi.

Addirittura è nato un sito, AI Hallucination Cases, che compila e documenta gli episodi di questo genere. Finora ne ha catalogati ben 129; e questo è solo il numero dei casi, in tutto il mondo, nei quali si è arrivati a una decisione legale che ha confermato che un avvocato ha presentato in tribunale materiale fasullo, generato da un’intelligenza artificiale. Non si tratta insomma semplicemente di casi nei quali si sospetta che sia stata usata l’IA, ma di casi nei quali un avvocato è stato colto sul fatto e sanzionato per la propria condotta.

La cosa che colpisce è che ben 20 di questi casi sono avvenuti a maggio di quest’anno: segno che l’uso inetto e maldestro dell’intelligenza artificiale nelle consulenze legali si sta espandendo, e lo sta facendo in tutto il mondo. Fra i casi raccolti da questo sito compilativo ce ne sono infatti vari avvenuti in Australia, Paesi Bassi, Regno Unito, Spagna, Canada, Sud Africa, Israele, Brasile, Irlanda e Nuova Zelanda, e ce n’è anche uno italiano, datato marzo 2025, in cui il Tribunale delle Imprese di Firenze rileva che una delle parti in lite ha appunto citato “sentenze inesistenti” che sono “il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale ‘ChatGPT’”.

Questo catalogo di utilizzi incompetenti delle IA nei tribunali può comportare non solo una figuraccia imbarazzantissima di fronte al giudice, ma anche sanzioni pecuniarie notevoli, come in un caso britannico recentissimo, datato maggio 2025, dove l’uso dell’intelligenza artificiale per generare documenti prolissi e ripetitivi e precedenti legali inesistenti ha portato a una sanzione di centomila sterline, ossia circa 118.000 euro. Per non parlare del rischio di essere sospesi o radiati dall’ordine degli avvocati e di vedersi archiviare il caso.

Viene da chiedersi come si sentano gli assistiti di questi avvocati quando scoprono di aver pagato parcelle non trascurabili ottenendo in cambio queste dimostrazioni di incompetenza e di mancanza di professionalità. Non risulta, per ora, che qualcuno di questi assistiti abbia tentato di saldare la parcella con delle immagini di banconote generate da ChatGPT, ma la tentazione potrebbe essere forte.


Il caso più preoccupante in questa carrellata di castronerie arriva non dai giornalisti o dagli avvocati, che pure hanno un ruolo cruciale nella società, ma da un governo, che ovviamente prende decisioni che hanno effetto diretto su milioni di cittadini.

Il governo in questione è quello attuale degli Stati Uniti, dove il ministro della salute, Robert F. Kennedy Junior, ha presentato un rapporto di ben 73 pagine sulle cause delle malattie croniche nella popolazione statunitense e in particolare nei bambini, dicendo che si trattava di un rapporto scientifico redatto secondo i massimi criteri qualitativi del settore, da usare come documento fondante per la politica sanitaria dell’intero paese.

Ma l’associazione giornalistica Notus ha scoperto che alcuni degli studi scientifici citati come fonti dal rapporto non esistevano affatto e altri erano stati interpretati in modo grossolanamente errato. Alle domande dei giornalisti sulla causa di queste citazioni inesistenti o distorte, la portavoce della Casa Bianca ha risposto dicendo che si trattava di “errori di formattazione”. Ma secondo gli esperti, questo tipo di citazione inventata è invece un segno tipico dell’uso maldestro dell’intelligenza artificiale generativa e la “formattazione” non c’entra assolutamente nulla [CBS News; The Guardian; New York Magazine]. Uno degli indizi tecnici più vistosi di questo uso maldestro è il fatto che il link di alcune delle fonti citate dal rapporto contiene la sequenza di caratteri “oaicite”, che viene tipicamente aggiunta dalle IA di OpenAI alle citazioni ed è un errore ben documentato e caratteristico di ChatGPT [NBC; Reddit].

Il ministro Kennedy ha detto ripetutamente che avrebbe adottato una “trasparenza radicale” per la gestione della salute nel suo paese, eppure non ha voluto fornire dettagli su chi abbia scritto questo rapporto e su che basi lo abbia fatto. Inoltre le conclusioni del rapporto non corrispondono a quello che risulta analizzando i dati presenti nel rapporto stesso: per esempio, questo documento descrive l’obesità infantile come una “crisi sanitaria che sta peggiorando” ma allo stesso mostra un grafico che indica che il tasso di obesità negli Stati Uniti è relativamente stabile da vent’anni a questa parte [NBC].

Sarebbe davvero preoccupante scoprire che la sanità di un’intera nazione (quella che fra l’altro di fatto definisce gli standard sanitari di gran parte del mondo) viene decisa affidandosi ciecamente a ChatGPT.

La morale di fondo, alla fine di questa carrellata di disastri informatici, è che sembra che sia straordinariamente difficile sfuggire alla seduzione delle intelligenze artificiali generative, e che lo sia anche per persone altrimenti considerate professionisti intelligenti, razionali e competenti.

Eppure il concetto è semplice, e potrebbe anzi essere la base per un’idea regalo per chiunque si affacci al giornalismo o alle professioni legali: una bella targa, da affiggere nel proprio studio, con cinque semplici parole: ChatGPT non è una fonte.

Immagine generata da me usando un generatore di immagini basato su IA. Prompt: “A Victorian-style brass plaque bears the words “ChatGPT non è una fonte” etched in bas-relief into the metal, written in very elegant black Bodoni font. The plaque is screwed onto the elegant antique wood bookshelves of a very formal lawyer’s office, with antique furniture and lots of books and encyclopedias. Masterpiece, 4K, Nikon F1, underexposed, light streaming through large window from the left.”

Niente Panico RSI – Puntata del 2025/06/02

È andata in onda stamattina alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi settimanalmente sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la mia raccolta completa delle puntate è presso Attivissimo.me/np.

La settimana prossima Niente Panico è in pausa e torna per l’ultima puntata della stagione il 16 giugno.

I temi e le fonti della puntata

Il leone marino che sa battere il ritmo meglio degli umani. Un articolo scientifico pubblicato su Scientific Reports descrive Ronan, una femmina di leone marino che ama tenere il ritmo della musica e vive presso il Long Marine Laboratory dell’Università della California, a Santa Cruz, dove i ricercatori hanno esplorato in dettaglio la sua capacità di riconoscere i ritmi anche quando sono inediti, dimostrando quindi la flessibilità di Roman nel riconoscere nuovi ritmi. I ricercatori hanno chiesto a dieci studenti universitari di fare lo stesso, muovendo l’avambraccio al ritmo dei battiti che cambiavano, e Ronan li ha superati tutti (NBC News).

Due parole sul convegno anti fake news di Como. Ho raccontato per sommi capi gli argomenti del convegno e le tecniche per difendersi da social network e disinformazione.

Anniversari: incoronazione della regina Elisabetta (1953); morte di Garibaldi (1882); Festa della Repubblica in Italia e qualche chicca sull’inno di Mameli, diventato inno nazionale italiano ufficiale solo nel 2017.

Un filo interdentale in grado di misurare lo stress. Su Science Daily di fine maggio è stato presentato un filo interdentale che preleva campioni di cortisolo dalla saliva e li usa come indicatori dello stress, che viene quantificato tramite un elettrodo integrato. La tecnologia usata permette di catturare e quantificare numerosi indicatori, come gli estrogeni per monitorare la fertilità o il glucosio per monitorare il diabete, e la facilità d’uso consente di integrare il monitoraggio in molte aree di trattamento.

Perché dopo 2000 anni non sappiamo ancora come funziona il solletico? L’articolo The extraordinary enigma of ordinary tickle behavior: Why gargalesis still puzzles neuroscience pubblicato su Science Advances esplora il mistero del solletico: perché non è possibile farselo da soli, come mai alcuni lo sopportano perfettamente mentre altri gridano di disperazione, e perché in generale siamo sensibili a questo particolare tipo di esperienza tattile, che è una complessa interazione tra aspetti motori, sociali, neurologici, evolutivi e dello sviluppo, spiega la ricercatrice Konstantina Kilteni dell’Università Radboud di Nimega, nei Paesi Bassi.
La ricerca mostra anche che le persone con disturbi dello spettro autistico, ad esempio, percepiscono il tocco come più solleticante rispetto alle persone senza questi disturbi dello spettro autistico. Studiare questa differenza potrebbe fornire informazioni sulle differenze tra il cervello delle persone con disturbi dello spettro autistico e quello delle persone senza, e potrebbe aiutare ad acquisire conoscenze sull’autismo. Si sa anche che scimmie come i bonobo e i gorilla reagiscono al solletico, e lo fanno persino i ratti. Ma dal punto di vista evolutivo, qual è lo scopo del solleticare?
Kilteni ha un laboratorio del solletico appositamente attrezzato: contiene una sedia con una piastra con due fori. Si mettono i piedi in questi fori e poi un bastoncino meccanico ne solletica la pianta; tutto questo serve a standardizzare i test. Il neuroscienziato registra esattamente ciò che accade nel cervello e controlla immediatamente anche tutte le altre reazioni fisiche, come la frequenza cardiaca, la sudorazione, la respirazione o le reazioni di risata e urla. “Incorporando questo metodo di solleticare in un esperimento adeguato, possiamo prendere sul serio la ricerca sul solleticare. Non solo saremo in grado di comprendere veramente il solleticare, ma anche il nostro cervello”, dice Kilteni.

Una bolla di sapone che dura più di un anno. Sulla rivista Physical Review Fluids è uscito nel 2022 un articolo che racconta il lavoro di un gruppo di fisici francesi dell’Università di Lille, che hanno sviluppato una bolla che non è scoppiata per ben 465 giorni. Le tipiche bolle di sapone che si formano nella vasca da bagno o con il detersivo per i piatti durano solo pochi istanti prima di scoppiare a causa del “drenaggio indotto dalla gravità e/o dell’evaporazione del liquido”, ma adottando un’alta concentrazione di glicerolo, che assorbe acqua dall’aria, si è visto che le bolle riuscivano a compensare l’evaporazione e la presenza delle particelle di questa sostanza ha impedito il drenaggio.
A cosa serve una ricerca del genere? Per esempio per trovare nuove tecniche per contrastare l’evaporazione, come nel film lacrimale che riveste l’occhio e che svanirebbe se non contenesse lipidi, o per trasportare ed erogare medicinali nel corpo dei pazienti.