Vai al contenuto

Podcast RSI – Legge UK “salvabambini”, modello da studiare. Per evitarlo

Questo è il testo della puntata dell’11 agosto 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio da “Death Stranding”, tratto da questo video]

Ogni tanto, nella storia di Internet, arriva qualcuno che reclama che si deve fare qualcosa per impedire ai minori di vedere i contenuti non adatti alla loro età che si possono trovare facilmente online. Raccoglie firme, promuove petizioni, trova agevolmente qualche politico che sposa la sua causa perché proteggere i bambini piace molto a qualunque elettore ed elettrice, e la richiesta finisce per diventare una proposta di legge.

A questo punto, di solito, vengono convocati i tecnici, quelli che sanno come funziona realmente Internet, scuotono la testa come hanno già fatto altre volte in passato e avvisano che la proposta è nobile ma non è tecnicamente fattibile e provarci avrebbe delle conseguenze catastrofiche sulla sicurezza, sulla privacy di tutti i cittadini, sui minori stessi e sui servizi di sostegno a quei minori, diventerebbe una censura di massa di qualunque idea politicamente sgradita e comunque soprattutto non funzionerebbe, perché qualunque misura tecnica per identificare e distinguere fra minori e adulti quando accedono a un sito sarebbe facilmente aggirabile.

Il politico di solito rimane perplesso ma accetta il parere esperto dei tecnici e lascia perdere. Il 25 luglio scorso, invece, un intero paese europeo ha deciso di ignorare fieramente gli esperti e di provare lo stesso a proteggere i bambini approvando una legge che è l’equivalente informatico di vietare al vento di soffiare. Quel paese è il Regno Unito, e questa è la storia di un disastro annunciato, da ricordare la prossima volta che qualche altro politico, in qualche altro paese, si farà venire la stessa idea.*

* Tipo la Francia, ma in modi meno draconiani di quello britannico [Twobirds; Techinformed]; Danimarca, Grecia, Italia e Spagna stanno testando un’app di verifica dell’età [Lepoint; Liberation].

Perché tutto il costoso sistema di controllo online dell’età tramite riconoscimento facciale messo in piedi nel Regno Unito, usando le più sofisticate tecnologie, è crollato (come ampiamente previsto) nel giro di pochi giorni grazie a un videogioco, Death Stranding, di cui avete sentito uno spezzone in apertura. I suoi giocatori, infatti, hanno scoperto che per farsi identificare come adulti bastava mostrare alla telecamera uno dei personaggi del gioco, Sam Bridges, che può essere comandato per fargli fare tutti i movimenti e le espressioni richieste dai controlli. E ovviamente le vendite di VPN sono schizzate alle stelle. Ma soprattutto ci si è resi conto che questo sistema strangola le piccole comunità online e lascia invece il campo libero ai soliti grandi nomi stramiliardari dei social network.

Benvenuti alla puntata dell’11 agosto 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica; questa è l’unica puntata di questo mese. La prossima verrà pubblicata il primo settembre. Io sono Paolo Attivissimo.

[SIGLA di apertura]


L’Online Safety Act è una legge del Regno Unito concepita nel 2023 per impedire alle persone che hanno meno di diciotto anni di accedere alla pornografia e ai contenuti legati all’autolesionismo, ai disturbi dell’alimentazione e al suicidio. I suoi controlli online sono entrati in vigore il 25 luglio scorso. In pratica, i gestori dei siti che possono trovarsi a ospitare contenuti di questo tipo* sono obbligati ad attivare delle verifiche dell’età dei loro visitatori, gestite da aziende specializzate.

* Notare il “possono”. Questa legge non riguarda solo i siti pornografici. Ci torno dopo, ma è importante chiarirlo subito.

Queste verifiche possono richiedere per esempio di dare le coordinate di una carta di credito, perché si presume che chi ha accesso a una carta di credito sia maggiorenne. In alternativa, l’utente può dare le coordinate di un proprio documento d’identità insieme a una propria foto scattata sul momento e il software controllerà se corrispondono e se si riferiscono a un maggiorenne oppure no.

Uno dei metodi di controllo alternativi più originali proposti da questa nuova legge britannica è la verifica tramite email. L’utente fornisce il proprio indirizzo di mail a un servizio apposito, che interroga i fornitori di servizi bancari o di utenze domestiche del paese, come luce, telefono, gas o Internet, per sapere se quell’indirizzo è stato usato per fare transazioni o gestire utenze, nel qual caso si presume che l’utente sia maggiorenne. Ovviamente questo significa che i gestori di questi controlli devono ficcare il naso nelle attività personali di questi utenti.

Poi c’è il riconoscimento facciale, o meglio, la stima dell’età tramite analisi del volto. L’utente si fa un selfie o mostra il viso in diretta alla telecamera del computer o del telefonino e un’azienda specializzata usa l’intelligenza artificiale per decidere se ha una faccia da maggiorenne o da minorenne.

L’utente può anche dare il permesso a una società specializzata di verificare se il suo numero di telefonino è intestato a un minorenne o un adulto, oppure può affidarle le sue coordinate bancarie e la società di verifica interrogherà la banca per sapere se l’utente ha più o meno di 18 anni.

Sono tutte misure piuttosto invasive, che hanno tre punti deboli molto importanti.

Il primo è che raccolgono i dati personali di milioni di persone e li mettono in mano ad aziende private, creando quindi potenzialmente un archivio centrale che farà gola ai criminali informatici, come è già successo per esempio con AU10TIX, la società israeliana usata da TikTok, Uber, LinkedIn, PayPal e altri grandi nomi [404 Media].

Il secondo punto debole è che l’utente britannico può eludere tutte queste complicazioni semplicemente installando un’app VPN, in modo da simulare di trovarsi al di fuori del Regno Unito e quindi non essere soggetto a tutti questi controlli. E infatti tre giorni dopo l’entrata in vigore di questa legge le app VPN sono diventate le più scaricate in assoluto nell’App Store di Apple nel paese. L’app svizzera Proton VPN, per esempio, ha avuto un picco del 1800% nelle attivazioni provenienti dal Regno Unito.

Il colmo dell’ironia involontaria in questa situazione arriva dalla BBC, che in un articolo sul proprio sito riferisce che le autorità vietano alle piattaforme online di ospitare contenuti che incoraggino l’uso delle VPN per eludere i controlli sull’età e subito dopo, sulla propria piattaforma, offre una pratica infografica che spiega esattamente come usare una VPN per eludere i controlli sull’età.

L’infografica della BBC.

Come nota il sito Techdirt.com, “quando la tua legge ‘salvabambini’ ha come risultato principale insegnare ai bambini come usare le VPN per aggirarla, forse hai sbagliato leggermente il tuo obiettivo”.

Il terzo punto debole è che la stima dell’età tramite riconoscimento facciale può essere beffata appunto usando il volto di Sam Porter Bridges, il protagonista del popolare videogioco Death Stranding. Questo controllo infatti chiede all’utente di mostrare alcune espressioni facciali, tipo aprire o chiudere la bocca, e in questo gioco è possibile comandare questo personaggio in modo che faccia proprio queste espressioni.

Screenshot

La notizia di questo trucco si è diffusa immediatamente nei social network, nei siti di gaming e in quelli dedicati alle notizie informatiche, spesso accompagnato da un coro di “ve l’avevamo detto”. È una falla imbarazzantissima, che solleva una domanda importante: se le aziende che realizzano questi controlli sono talmente inette che basta un videogioco per beffarle, perché mai dovremmo credere che siano capaci invece di custodire perfettamente i nostri dati sensibili?


Anche se molti utenti eluderanno questi controlli, anche se sarà necessario rinunciare a un po’ di anonimato online, almeno qualche bambino verrà protetto dalle grinfie dei pornografi, giusto? No, perché la strada dell’inferno, come si suol dire, è lastricata di buone intenzioni, anche in informatica.

Infatti una delle conseguenze di questa nuova legge britannica è che le comunità online e le associazioni per la tutela dei minori adesso non sono più facilmente accessibili ai minori che vorrebbero proteggere. Per esempio, una vittima minorenne di abusi sessuali deve ora presentare un documento di un adulto per poter interagire con i servizi che la possono aiutare.

E non è tutto: molti siti e forum gestiti da privati si trovano costretti a chiudere, perché non hanno i fondi necessari per pagare le aziende private deputate a questi controlli obbligatori, che possono costare circa 2700 euro l’anno, e non hanno le risorse umane per mettersi in regola con le nuove disposizioni. Non si tratta solo di siti che parlano di tematiche sensibili riguardanti i minori: queste regole toccano tutti i siti britannici, su qualunque tema.* Persino un’associazione di ciclisti o un forum dedicato al golf o alle birre artigianali o ai criceti.

* Questa legge è stata presentata come “anti-porno”, ma non è affatto così. L’OSA non riguarda solo i siti pornografici. Tocca qualunque sito nel quale gli utenti possano pubblicare contenuti o interagire tra loro. In pratica, qualunque forum e qualunque sito di associazione.

“The Act’s duties apply to search services and services that allow users to post content online or to interact with each other. This includes a range of websites, apps and other services, including social media services, consumer file cloud storage and sharing sites, video-sharing platforms, online forums, dating services, and online instant messaging services.” [Gov.uk]

Inoltre questa legge tocca principalmente i siti britannici, ma si estende anche ai siti esteri in alcuni casi: “The Act applies to services even if the companies providing them are outside the UK should they have links to the UK. This includes if the service has a significant number of UK users, if the UK is a target market, or it is capable of being accessed by UK users and there is a material risk of significant harm to such users. [...] The Act gives Ofcom the powers they need to take appropriate action against all companies in scope, no matter where they are based, where services have relevant links with the UK. This means services with a significant number of UK users or where UK users are a target market, as well as other services which have in-scope content that presents a risk of significant harm to people in the UK.” [Gov.uk]

Persino Wikipedia. L’enciclopedia online, infatti, rischia di essere equiparata ai social network come Facebook o TikTok e ai grandi siti di pornografia che erano nella mente del legislatore quando ha concepito l’Online Safety Act. Gli avvocati della Wikimedia Foundation sono andati in tribunale per contestare la nuova legge, che obbligherebbe Wikipedia a mettere un tetto al numero di britannici che la consultano, perché se dovessero superare i sette milioni l’enciclopedia verrebbe classificata come un cosiddetto “servizio di categoria 1” e sarebbe soggetta quindi alle restrizioni massime previste da questa legge [Wikimedia Foundation]. Dovrebbe per esempio verificare le identità dei circa 260.000 utenti che contribuiscono volontariamente alla sua manutenzione e sottostare a mille altri obblighi che la renderebbero in sostanza ingestibile [The Telegraph; copia su Archive.is].

Insomma, quella che è stata presentata come una legge contro la pornografia sta diventando un bavaglio che tocca moltissimi settori.* Persino Spotify adesso deve chiedere agli utenti di farsi controllare l’età per poter accedere a certi suoi video musicali nel Regno Unito. Numerosi utenti segnalano che le notizie di guerra, soprattutto quelle riguardanti la Palestina, sono bloccate sui social network e per leggerle bisogna presentare un documento d’identità o farsi verificare l’età. Sono soggetti a controlli persino i forum di Reddit dedicati al cinema o ai labubu [Dazed].

* L’ambito intenzionale di questa legge è vastissimo: altro che “anti-porno”. I temi specificamente protetti non sono solo gli abusi sessuali su minori, la violenza sessuale estrema, gli abusi tramite immagini intime, lo sfruttamente sessuale e la pornografia estrema, ma le frodi, i reati contro l’ordine pubblico con aggravanti razziali o religiose, l’istigazione alla violenza, l’immigrazione illegale e il traffico di esseri umani, la promozione o la facilitazione del suicidio, la vendita di sostanze o armi illegali e il terrorismo. [Gov.uk] 

I social network e i grandi siti per adulti, invece, prosperano indisturbati. A differenza delle piccole comunità online di volontari, hanno le risorse economiche e tecniche necessarie per implementare questi controlli di fatto inutili. Se si cerca di regolamentare Internet pensando che Internet sia solo Facebook e Google e poco altro, alla fine sopravvivono solo questi colossi, che sono gli unici che ricevono benefici da una legge come questa.

Chi prima gestiva un forum amatoriale indipendente, infatti, si troverà costretto a trasferire la propria comunità di utenti su un social network come Instagram o Discord o Facebook, dove i post dei membri saranno inframmezzati da inserzioni pubblicitarie che faranno diventare ancora più ricchi e potenti questi social e i loro proprietari, e dove quello che scrivono sarà soggetto agli umori e alle censure del momento [The New Statesman], come sa bene chiunque abbia perso di colpo il proprio profilo Instagram perché a quanto pare avrebbe violato qualche “standard della comunità” e non ha modo di reclamare e nemmeno di sapere quale di questi standard non avrebbe rispettato.


I cittadini britannici hanno criticato gli effetti di questa legge, depositando centinaia di migliaia di firme in pochi giorni presso il sito governativo apposito per le petizioni. Peter Kyle, segretario di stato per le tecnologie del governo del paese, ha risposto scrivendo su X/Twitter che chi vuole sopprimere questa legge sta dalla parte dei predatori di minori [X], equiparando insomma i critici ai criminali.

Visto che la tentazione di adottare leggi come quella britannica farà inevitabilmente capolino ancora, riassumo per chiarezza quali sono i veri effetti di qualunque legge che imponga la verifica delle identità o dell’età per accedere a contenuti online:

  • Per gli adulti diventa più difficile accedere alle informazioni e ai servizi perfettamente legali e utili.
  • I cittadini vengono obbligati a creare un tracciamento dettagliato delle loro attività online legato alle proprie identità e vengono spinti verso piattaforme meno sicure.
  • Le piccole comunità online che non possono permettersi gli oneri di conformità alla legge vengono distrutte.
  • E a un’intera generazione viene insegnato che eludere la sorveglianza governativa è una competenza di base della vita [TechDirt].

I danni che queste leggi affermano di voler eliminare, invece, proseguono indisturbati. I predatori non fanno altro che trasferirsi su altre piattaforme, usano la messaggistica con crittografia oppure ricorrono alle VPN. Si crea, insomma, l’illusione della sicurezza, ma in realtà si aumenta l’insicurezza di tutti. E i social network, i cui algoritmi creano spirali cognitive tossiche e causano tutti questi danni, vengono premiati invece di essere puniti.

Quello che è successo nel Regno Unito dovrebbe essere un monito per qualunque democrazia alle prese con la regolamentazione di Internet. Se i politici preferiscono atteggiarsi a uomini forti e decisionisti, se privilegiano l’apparenza di aver fatto qualcosa, qualunque cosa, alla sostanza di aver capito il problema e di aver agito ascoltando gli esperti, adottando soluzioni sociali a lungo termine e varando norme come l’interoperabilità che tolgano ai social network il loro strapotere di ghetti inghirlandati, il risultato è che nessun bambino viene salvato.

E l’unica cosa buona che viene fuori da questa legge britannica è che adesso quei pericoli per la democrazia che venivano ipotizzati dagli esperti non sono più teoria, ma sono pratica concreta, tangibile e reale, da studiare per capire che cosa non fare.

Fonti

Reddit and Discord’s UK age verification can be defeated by Death Stranding’s photo mode, The Verge (2025) [copia su Archive.is]

The UK’s new age-gating rules are easy to bypass, The Verge (2025) [copia su Archive.is]

Istruzioni di bypass di Kevin Beaumont su Mastodon (2025)

Brits can get around Discord’s age verification thanks to Death Stranding’s photo mode, bypassing the measure introduced with the UK’s Online Safety Act. We tried it and it works—thanks, Kojima, PCGamer (2025)

UK VPN demand soars after debut of Online Safety Act, The Register (2025)

VPNs top download charts as age verification law kicks in, BBC (2025)

Didn’t Take Long To Reveal The UK’s Online Safety Act Is Exactly The Privacy-Crushing Failure Everyone Warned About, Techdirt (2025)

The UK’s new online safety laws are already a disaster, Dazed (2025)

Death Of A Forum: How The UK’s Online Safety Act Is Killing Communities, Techdirt (2025)

Podcast RSI – Velvet Sundown, oltre un milione di ascolti al mese per una band che non esiste

Questo è il testo della puntata del 14 luglio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: inizio del brano “Dust on the Wind” dei Velvet Sundown]

Riconoscete questa canzone? È “Dust on the Wind” dei Velvet Sundown, una band composta dal cantante Gabe Farrow, dal chitarrista Lennie West, dal tastierista Milo Raines e dal percussionista Orion Del Mar. Questo brano ha oltre un milione e mezzo di ascolti su Spotify, dove la band ha un milione e trecentocinquantamila ascoltatori mensili, accumulati nel giro di poche settimane.

Ma come avrete probabilmente intuito dal fatto che me ne sto occupando in un podcast a tema informatico, i Velvet Sundown hanno una particolarità: non esistono, e la loro musica è generata usando appositi programmi di intelligenza artificiale. O perlomeno così sembra, perché non ci sono conferme assolute, ma soltanto forti indizi.

Questa è la storia di come un gruppo musicale sintetico è arrivato ad avere un successo di questo livello, di come si indaga per capire se una band è reale oppure no, e di cosa significa oggi il concetto stesso di “reale”.

Benvenuti alla puntata del 14 luglio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

Prima di cominciare, segnalo che questa è l’unica puntata di luglio; la prossima uscirà l’11 agosto.

[SIGLA di apertura]


Alla fine di giugno 2025, su Reddit [qui e qui] è stato segnalato l’insolito successo dei Velvet Sundown, un gruppo musicale che ha iniziato a comparire nelle playlist Discover Weekly, quelle di brani consigliati settimanalmente da Spotify, nonostante avesse tutte le caratteristiche piuttosto evidenti di una finta band generata con l’aiuto dell’intelligenza artificiale.

[CLIP: inizio del brano “Drift Beyond the Flame” dei Velvet Sundown]

Quello che avete sentito adesso è l’inizio di un loro brano, intitolato “Drift Beyond the Flame: come tanta musica generata, a un ascolto distratto pare orecchiabile e normale, ma se lo si ascolta attentamente, e soprattutto se si leggono le sue parole, ci si accorge che sono blande, banali, superficiali, una compilation di cliché che non ha un senso generale e che non c’entra nulla con il titolo. Cosa che, è vero, si potrebbe dire anche di molti brani scritti inequivocabilmente da artisti umani, ma è comunque un indizio notevole.

Dust on the wind
Boots on the ground
Smoke in the sky
No peace found
Rivers run red
The drums roll slow
Tell me brother, where do we go?

Raise your hand
Don’t look away
Sing out loud
Make them pay
March for peace
Not for pride
Let that flag turn with the tide

Guitars cry out
Bullets fly
Mama prays while young men die
Ashes fall on sacred land
We still got time to make a stand

Raise your hand
Don’t look away
Sing out loud
Make them pay
March for peace
Not for pride
Let that flag turn with the tide

Smoke will clear
Truth won’t bend
Let the song fight ‘till the end

[fonte: Genius.com]

Inoltre la foto del gruppo pubblicata su Spotify ha il tipico aspetto delle immagini sintetiche, e i membri non hanno nessuna presenza online, non hanno mai rilasciato interviste e non hanno un calendario di concerti pubblici.

La “foto ufficiale” dei Velvet Sundown.

Ma siamo nel 2025, e oggigiorno fare una foto di copertina che imiti l’aspetto delle immagini generate dall’intelligenza artificiale potrebbe anche essere una scelta stilistica. Inoltre il fatto di non avere account social* non significa che una persona non esista, perlomeno per ora, e farsi intervistare ed esibirsi in pubblico non sono obblighi: lo fanno anche gli artisti musicali in carne e ossa.

* I singoli membri del gruppo non ne hanno, ma la band ha degli account con numeri assurdamente bassi su Instagram (1728 follower, 4 post), TikTok (60 follower, 2 post) e X (530 follower, 18 post) e Facebook (251 follower).

Per contro, Spotify assegna ai Velvet Sundown il bollino di “artista verificato”, e la musica di questa band è presente anche su altri servizi di streaming, come Apple MusicAmazon MusicYouTubeDeezer.

La pagina Spotify dei Velvet Sundown al 14 luglio 2025.

Una dettagliata indagine svolta dal sito Musically.com fa emergere altri elementi sospetti, come il fatto che la biografia del gruppo cita una loro recensione positiva che viene attribuita alla prestigiosa rivista musicale Billboard ma in realtà non risulta essere mai stata pubblicata, o il fatto che il servizio di streaming Deezer indica che entrambi gli album del gruppo “potrebbero essere stati creati usando l’intelligenza artificiale” secondo i suoi rilevatori automatici. Un articolo pubblicato su Mashable fa notare inoltre che manca qualunque indicazione di un produttore o di altre figure che solitamente partecipano alla creazione di un brano, e tutte le canzoni sono attribuite genericamente alla band, mentre di solito si indicano i nomi degli autori e dei titolari dei diritti dei singoli brani.

Queste indagini rivelano anche che la popolarità dei brani dei Velvet Sundown è dovuta ad alcune specifiche playlist presenti sulle piattaforme di streaming più popolari. Queste playlist sono costruite in modo anomalo: sono raccolte eterogenee di artisti di grande successo nelle quali sono inserite in abbondanza le canzoni di questa band sconosciuta, e hanno un numero molto modesto di follower ma centinaia di migliaia di account che le hanno salvate nelle proprie librerie.

Quasi tutti gli indizi, insomma, suggeriscono che si tratti di una costruzione sintetica accuratamente pianificata e organizzata.

Il caso dei Velvet Sundown è uno dei primi in cui una band dall’aspetto palesemente sintetico acquisisce una discreta popolarità e diventa virale senza ricorrere a espedienti classici come la parodia o l’imitazione delle voci, come era successo nel 2023 con quelle di Drake e The Weeknd [Disinformatico]. E non sarà sicuramente l’ultimo.


La vicenda di questa pseudo-band rivela un problema di fondo tipico di tanti aspetti dell’attuale periodo storico: si sta diluendo il concetto stesso di realtà. Le varie forme di intelligenza artificiale generativa permettono infatti di creare foto, musica, testi, interviste, video di persone – in questo caso artisti musicali – che non esistono. Ma per il pubblico che ne fruisce, per quel milione e mezzo di ascoltatori mensili dei Velvet Sundown, tutto questo è reale. O meglio, la musica che ascoltano esiste indubbiamente, e tutto il resto non conta.

Sì, perché abbiamo infatti progressivamente smaterializzato la musica, passando dall’esibizione obbligatoriamente dal vivo alla registrazione su disco, poi al CD che ha sostanzialmente eliminato la fisicità delle note interne o delle copertine, e poi siamo passati agli MP3 che hanno liquidato quel poco che restava dell’esperienza tattile di maneggiare un disco, e infine siamo arrivati allo streaming, per cui non possediamo neanche più i file delle canzoni che ci piacciono ma abbiamo una semplice lista, una playlist, che sta da qualche parte in un cloud intangibile di cui non siamo proprietari. Eliminare a questo punto anche gli artisti sostituendoli con generatori di musica sintetica, e vedere che la gente ascolta e gradisce questa sbobba sonora da tenere in sottofondo, sembra essere semplicemente un ulteriore passo, logico e inevitabile, in questa direzione.

Un passo, fra l’altro, incoraggiato dal fatto che fa comodo a molti, perché riduce i costi, aumenta i profitti e inoltre evita il problema dei comportamenti scandalosi e illegali che rovinano la reputazione degli artisti e frenano gli incassi delle case discografiche e soprattutto delle piattaforme di streaming.

Non sembra un caso il fatto che il CEO di Spotify, Daniel Ek, abbia dichiarato qualche tempo fa che non intende bandire dalla sua piattaforma la musica generata dalla IA [BBC]. Poco importa che gli artisti reali e le associazioni che si occupano di diritto d’autore facciano notare che questi generatori basati sull’intelligenza artificiale sono stati addestrati usando la loro musica senza pagare un centesimo di diritti [BBC]. C’è, fra loro, chi descrive questo addestramento con parole taglienti e senza compromessi: “furto travestito da concorrenza” [BBC].

Ma al tempo stesso si può obiettare che in realtà dietro ogni artista sintetico c’è eccome una persona reale: quella che genera la musica, ne sceglie i parametri, dà istruzioni a ChatGPT o Suno o Mubert o Google Veo su come creare i testi, le immagini e i video, concepisce la struttura, il look, lo stile e le caratteristiche della band immaginaria.

In altre parole, dietro i Velvet Sundown c’è in ogni caso qualcuno di reale, una o più persone che hanno avuto l’idea, l’hanno sviluppata ed eseguita, hanno lavorato per creare le playlist e hanno studiato i meccanismi e gli algoritmi delle piattaforme di streaming per ottenere il risultato di far diventare virale un gruppo musicale che non esiste.

Un atto creativo, insomma; una sorta di meta-arte, una forma di denuncia di una situazione pericolosa per gli artisti e per la cultura e un’incarnazione dell’ansia diffusa di perdere il controllo di tutto cedendolo alle intelligenze artificiali commerciali. Una denuncia, fra l’altro, mediaticamente efficace, visto che di questa vicenda stanno parlando le testate giornalistiche generaliste di buona parte del pianeta.

E in effetti dopo la prima ondata di clamore iniziale, quando la band si presentava come se fosse composta da persone reali, le informazioni presenti nella pagina Spotify dei Velvet Sundown sono cambiate, e ora parlano apertamente di “un progetto di musica sintetica guidato da una direzione creativa umana, composto, cantato e visualizzato con il supporto dell’intelligenza artificiale. Questo – dice sempre la pagina Spotify – non è un trucco: è uno specchio. Una provocazione artistica, concepita per saggiare i confini dell’essere autori, dell’identità e del futuro della musica stessa nell’era della IA.”

La “bio” del gruppo su Spotify come si presentava il 14 luglio 2025.

Complimenti, insomma, a chiunque si celi dietro questa provocazione: ha funzionato e ha sfruttato astutamente i punti deboli delle piattaforme di streaming. Ma forse arriva tardi, perché da anni c’è già chi li sta sfruttando non per fare arte o meta-arte, ma per fare cinicamente soldi. Tanti soldi. Per l’esattezza, dodici milioni di dollari.


Michael Smith è un musicista cinquantaduenne che vive nella Carolina del Nord. Intorno al 2018, quando l’intelligenza artificiale generativa era ancora un prodotto di nicchia, ha iniziato a generare insieme a un esperto del settore migliaia di brani sintetici ogni mese, piazzandoli sulle principali piattaforme di streaming.

Poi ha pagato delle agenzie per creare migliaia di account fasulli di utenti di queste piattaforme, automatizzandoli in modo che “ascoltassero”, si fa per dire, i suoi brani. Ascoltatori sintetici per musica sintetica, insomma.

In questo modo, le sue “canzoni” sono state “ascoltate” miliardi di volte da questi bot, e siccome le piattaforme di streaming pagano gli artisti qualche millesimo di dollaro ogni volta che una loro produzione viene ascoltata, nel corso di vari anni e fino al 2024 il signor Smith l’ha fatta franca, e ha incassato in totale circa dodici milioni di dollari, sottraendoli con l’inganno alle piattaforme e dividendoli con i suoi complici.

Sappiamo tutto questo perché a settembre 2024 il signor Smith è stato arrestato e incriminato per la sua attività, i cui complessi dettagli tecnici sono raccontati nell’atto d’accusa pubblico del processo che lo riguarda. Uno degli aspetti chiave di questi dettagli è l’uso dell’intelligenza artificiale: è quella che gli ha permesso di avere un numero immenso di brani sul quale spalmare gli ascolti fraudolenti, rendendo molto più difficile per gli operatori delle piattaforme accorgersi che si trattava di un inganno. Ma alla fine, dopo qualche anno, se ne sono accorti lo stesso, e la giustizia ha fatto il proprio corso. O meglio, lo sta ancora facendo, perché il processo non si è ancora concluso [Digital Music News].

Smith al momento rischia alcuni decenni di carcere. Chissà se parte dell’eventuale pena consisterà nel fargli ascoltare la sua stessa musica artificiale.

Nel frattempo, fra l’incudine delle piattaforme di streaming che non fanno controlli adeguati perché inseguono principalmente i profitti, e il martello degli artisti-provocatori e dei truffatori, restiamo noi, poveri utenti, che adesso grazie all’intelligenza artificiale non possiamo più goderci un po’ di musica senza chiederci ogni volta se quello che ascoltiamo sia vero o sia l’ennesima paccottiglia generata.

Fonti aggiuntive

Podcast RSI – Gli SMS di autenticazione segreti non sono affatto segreti: meglio abbandonarli

Questo è il testo della puntata del 23 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.

Il podcast va in pausa per due settimane e tornerà il 14 luglio.


[CLIP: audio di notifica di arrivo di un SMS]

Usate gli SMS per ricevere i codici di sicurezza dei vostri account? Quegli SMS che vi ricordano insistentemente che quei codici non devono essere condivisi con nessuno? Beh, in realtà quei codici vengono spesso condivisi con qualcuno ancora prima di arrivare a voi, perché possono essere letti dagli intermediari che li trasmettono per conto delle grandi aziende che li usano, e quindi non sono affatto sicuri e segreti come molti pensano.

Questa è la storia di come gli SMS “di sicurezza” possono essere intercettati, permettendo di rubare account di posta o di accesso a servizi online di ogni genere anche quando sono protetti, almeno in apparenza, tramite l’autenticazione a due fattori. E al centro di questa storia c’è un bottino di un milione di SMS di autenticazione trafugati e c’è una società di telecomunicazioni svizzera. Ma questa è anche la storia di come si rimedia a questa falla sorprendente e inaspettata.

Benvenuti alla puntata del 23 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Gli SMS, intesi come messaggi di puro testo veicolati dalla rete telefonica cellulare, esistono da quasi quarant’anni, e resistono piuttosto bene alla frenetica evoluzione della tecnologia. Furono definiti nel 1986 dagli standard tecnici che diedero vita alla rete cellulare digitale GSM, e il primo SMS in assoluto fu inviato a dicembre del 1992, ma ci vollero alcuni anni prima che diventassero disponibili al pubblico i telefonini capaci di inviarli e i messaggini di testo diventassero un fenomeno di massa.

Oggi sembra quasi assurdo, ma all’epoca gli SMS si pagavano e spesso non era possibile mandarli a un numero estero o a quello di un altro operatore telefonico. Dopo un picco di utilizzo intorno al 2000, gli SMS sono stati in buona parte soppiantati e resi obsoleti dai messaggi gratuiti e molto meno limitati dei social network e dall’arrivo degli smartphone, ma ne vengono ancora inviati miliardi ogni mese nel mondo: non dagli esseri umani, ma dalle macchine.

Moltissimi servizi online, infatti, oggi usano gli SMS per inviare agli utenti i codici temporanei di accesso ai loro servizi, per verificare le identità dei loro clienti, per notificare allarmi meteo o relativi al traffico, per validare gli acquisti e, purtroppo, anche per inviare pubblicità indesiderata.

Sono uno dei cardini dell‘autenticazione a due fattori, quella raccomandata dagli esperti di sicurezza per proteggere gli account di posta o social dai furti, perché viaggiano su un canale separato rispetto alla richiesta di password tradizionale. La password viene trasmessa via Internet, mentre il codice supplementare di sicurezza mandato in un SMS viaggia attraverso la rete telefonica tradizionale, e quindi un aspirante intruso o ladro di account dovrebbe riuscire a intercettare sia il traffico Internet del bersaglio, sia il suo traffico telefonico.

Ma un’indagine pubblicata pochi giorni da un gruppo di giornalisti chiamato Lighthouse Reports in collaborazione con Bloomberg Businessweek [paywall] ha rivelato il ventre molle di questo venerabile servizio di messaggistica.

Quando un negozio online, una banca, un servizio di mail come Gmail o una piattaforma social come Instagram o Bluesky ci manda un SMS con i codici temporanei di autenticazione, in realtà non lo invia quasi mai direttamente a noi, come verrebbe spontaneo immaginare. Per contenere al massimo i costi, lo invia quasi sempre tramite società terze specializzate, degli intermediari, che a loro volta lo passano ad altri, fino a che finalmente arriva sul nostro schermo. Questo rimpallo è estremamente rapido, per cui non ce ne accorgiamo. Ma gli SMS vengono trasmessi in chiaro, ossia senza crittografia, e quindi ognuno di quegli intermediari può leggerne il contenuto senza che il mittente o il destinatario se ne possano accorgere.

E il contenuto di quegli SMS spesso include tutto quello che serve per rubare un account, perché assieme ai codici vengono inviati il numero di telefono del destinatario, per ovvie ragioni, e a volte anche il nome dell’account al quale si riferiscono. I codici segreti di autenticazione, insomma, non sono affatto segreti.

Se ne sono accorti l’anno scorso i giornalisti di Lighthouse Reports, appunto, quando hanno ricevuto da un addetto ai lavori, sotto anonimato e protezione giornalistica, un immenso archivio di SMS trafugati, che includevano circa un milione di messaggi contenenti codici di autenticazione a due fattori inviati intorno a giugno del 2023. Stando alle loro indagini, questi messaggi erano stati veicolati da una piccola società di telecomunicazioni svizzera, la Fink Telecom Services, che ha meno di dieci dipendenti. I mittenti erano Google, Meta, Amazon, banche europee, app come Tinder e Snapchat, servizi di scambi di criptovalute come Binance e persino servizi di messaggistica crittografata come Signal e WhatsApp. I destinatari, nota Bloomberg, erano situati in oltre 100 paesi in cinque continenti.

In altre parole, i nostri codici di sicurezza passano quasi sicuramente attraverso intermediari che non abbiamo mai sentito nominare.


Il problema è che questo settore è scarsamente regolamentato, ed è facilissimo diventare intermediari di miliardi di messaggi privati. In particolare, la Fink Telecom Services è nota agli esperti del settore per aver collaborato con agenzie di sorveglianza governative e con società specializzate nella sorveglianza digitale. Sempre Bloomberg sottolinea che “sia i ricercatori di sicurezza informatica, sia i giornalisti investigativi hanno pubblicato rapporti che accusano la Fink di essere coinvolta in vari casi di infiltrazione in account online privati.” Il CEO dell’azienda, Andreas Fink, respinge le accuse.

Le aziende che usano gli SMS per autenticare i propri servizi sono così ansiose di contenere i costi che si appoggiano a lunghe e intricate catene di intermediari non verificati, anche se sanno che questo è un comportamento pericoloso. Una delle principali organizzazioni di settore, il GSMA, ha pubblicato nel 2023 un codice di condotta che sconsiglia questa prassi proprio perché permetterebbe ai criminali di intercettare gli SMS contenenti i codici di sicurezza. Ma si tratta di un codice di condotta volontario, e sembra proprio che manchi la volontà diffusa di applicarlo.

Il rischio che deriva da questa carenza di volontà è tutt’altro che teorico. Nel 2020, per esempio, è emerso che una serie di attacchi informatici ai danni di investitori in criptovalute aveva usato proprio questa tecnica: un criminale informatico aveva ottenuto in questo modo i codici di autenticazione necessari per accedere agli account di mail e a quelli di gestione delle criptovalute di una ventina di persone in Israele. E ci sono altri casi documentati di intercettazioni e sorveglianze governative basate su questo approccio.

Purtroppo l’industria della trasmissione degli SMS, che si stima abbia un valore di oltre 30 miliardi di dollari, non ha strumenti legali che le consentano di scremare eventuali intermediari disonesti. I grandi utenti, ossia le aziende, appaltano gli invii dei loro codici di autenticazione a uno di questi intermediari e non hanno modo di sapere se questi invii vengono subappaltati e se quel subappaltatore a sua volta cede il contratto a terzi, e così via, in un complicato gioco internazionale di scatole cinesi e di società che spesso non hanno nemmeno bisogno di una licenza per operare.

E i nostri codici di sicurezza viaggiano così in questo mare burrascoso come messaggi in bottiglia che tutti possono leggere, mentre noi crediamo di aver protetto i nostri account attivando gli SMS di autenticazione.

Per fortuna ci sono delle soluzioni.


Di fronte a questa situazione caotica e insicura degli SMS tradizionali, gli esperti di sicurezza raccomandano alternative più robuste. In molti casi si possono attivare dei PIN supplementari sui propri account, e molti grandi nomi dei servizi online, come Google o Meta, offrono soluzioni di autenticazione che fanno a meno degli SMS e anzi stanno incoraggiando gli utenti ad abbandonare la ricezione di codici tramite messaggi telefonici tradizionali.

Una delle soluzioni più efficaci è l’uso di una app di autenticazione, come quelle di Google [AndroidiOS] e Microsoft [Android; iOS], che si chiamano entrambe Authenticator, oppure Authy di Twilio. Per usarla, si entra nel proprio account del servizio che si vuole proteggere e lo si imposta in modo che non mandi un SMS con dei codici di verifica ma richieda un codice generato dall’app di autenticazione. Quel codice dura un minuto e poi viene cambiato automaticamente, e la sincronizzazione fra l’app e il sito si fa semplicemente inquadrando una volta con il telefono un codice QR.

Un altro metodo è l’uso di chiavi di sicurezza hardware: degli oggetti fisici, simili a chiavette USB, che si inseriscono nel computer, tablet o telefonino oppure si tengono vicini a uno di questi dispositivi per autorizzarlo ad accedere a un servizio online. Costano qualche decina di euro o franchi e diventano una sorta di portachiavi elettronico.

Queste soluzioni offrono maggiore sicurezza rispetto alla situazione colabrodo attuale degli SMS, ma in cambio richiedono un po’ di attenzione in più da parte dell’utente e, nel caso della chiave hardware comportano anche una piccola spesa.

Hanno anche un altro limite: accentrano tutti i codici in un’unica app o un unico dispositivo, per cui se si perde o rompe il telefonino o la chiave hardware si rischia di perdere accesso a tutti i propri account, mentre gli SMS invece arrivano sempre e comunque e sono separati per ogni account. Ma anche qui ci sono dei rimedi: si possono avere copie multiple dell’app di autenticazione su telefonini differenti o su più di una chiave hardware, un po’ come si fa con le chiavi della porta di casa, di cui è prassi normale avere almeno un paio di esemplari.

Se avete in casa un vecchio smartphone che non usate più perché la batteria non regge, potete recuperarlo facendolo diventare il vostro autenticatore di scorta, da lasciare a casa al sicuro in un cassetto e da usare in caso di furto o guasto dello smartphone principale.

Le soluzioni, insomma, ci sono. Ma resta la constatazione amara che le società più ricche del pianeta, come Google, Amazon o Meta, non sono disposte a spendere per garantire meglio la sicurezza dei propri utenti e continuano ad appoggiarsi a questa ingarbugliata rete di intermediari e sottointermediari invece di prendere il toro per le corna e mandare gli SMS di autenticazione direttamente. Tanto se perdiamo accesso ai nostri dati sui loro server, se ci saccheggiano il conto PayPal o Twint o quello in criptovalute, se perdiamo il controllo dei nostri profili social o qualcuno si legge tutta la nostra mail, il problema è nostro, non loro. E quindi, cinicamente, a queste grandi aziende conviene barattare la nostra sicurezza in cambio di un loro risparmio.

È dunque il caso di rimboccarsi le maniche virtuali e abbandonare gli SMS, pensando in prima persona alla propria protezione digitale, senza aspettare che lo faccia qualcuno per noi.

Podcast RSI – Le domande intime degli altri fatte a Meta AI si possono leggere online

Questo è il testo della puntata del 16 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: voce sintetica legge il testo di una domanda: “quale crema o unguento si può usare per lenire una grave reazione con lesioni allo scroto causate dal rasoio usato per depilarsi?”]

Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp, fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato sull’intelligenza artificiale integrato da qualche tempo in queste app e simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi, può capitare che vengano addirittura pubblicate online e rese leggibili a chiunque. Come quella che avete appena sentito.

E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale di Meta per chiedere cose estremamente personali e le sta affidando indirizzi, situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta pubblicando tutto quanto, con conseguenze disastrose per la privacy e la protezione dei dati personali: non solo i propri, ma anche quelli degli altri.

Questa è la storia di Meta AI, di come mai i dati personali degli utenti finiscono per essere pubblicati da quest’app e di come evitare che tutto questo accada.

Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Meta AI è un servizio online basato sull’intelligenza artificiale che è stato presentato pochi mesi fa ed è accessibile tramite un’app omonima e tramite Facebook, Instagram e WhatsApp: è rappresentato da quel cerchietto blu che è comparso, non invitato, in tutte queste app. È simile a ChatGPT, nel senso che gli utenti possono fargli domande scritte o a voce e ottenerne risposte altrettanto scritte o vocali, possono mandargli immagini per farle analizzare, e possono chiedergli anche di creare immagini in base a una descrizione.

Meta AI, però, ha una differenza importantissima rispetto a ChatGPT, Google Gemini e gli altri prodotti analoghi: ha un’opzione che permette che le domande che gli vengono rivolte possano essere pubblicate online, dove chiunque può leggerle. E a giudicare dalle cose che si possono vedere nel flusso pubblico di queste domande e risposte, è evidente che moltissimi utenti non sono affatto consapevoli di questa differenza e stanno rendendo pubbliche richieste molto private e spesso spettacolarmente imbarazzanti.

Nell’app e nel sito di Meta AI (https://www.meta.ai/#feed) c’è infatti una sezione, chiamata formalmente Discover, dove chiunque può sfogliare le domande poste dagli utenti a questa intelligenza artificiale e vedere chi le ha fatte: ogni domanda è infatti associata all’account di chi l’ha inviata.

Esplorando il contenuto di questa sezione si trova davvero di tutto: richieste di generare immagini di donne che si baciano mentre lottano nel fango in bikini, o di produrre le soluzioni a un compito o a un esame, per esempio, ma anche richieste di fare diagnosi mediche, accompagnate da descrizioni dettagliate dei sintomi, oppure di comporre una lettera di risposta a uno studio legale, con tanto di nomi, cognomi e indirizzi delle persone coinvolte.

Screenshot mio (link).

Molte testate giornalistiche [CNBC; BBC; Fastcompany; Wired; Business Insider] e vari esperti di sicurezza informatica e privacy digitale, come per esempio Rachel Tobac, hanno catalogato e documentato davvero di tutto: dettagli di casi clinici e procedimenti legali, richieste di pareri riguardanti evasioni fiscali, informazioni sui reati personalmente commessi, domande appunto su come rimediare a irritazioni prodotte dalla rasatura delle parti intime o come affrontare una transizione di genere, richieste di aiuto su come trovare donne (cito) “con un sedere grosso e un bel davanzale”, e altro ancora, sotto forma di richieste scritte o vocali, leggibili o ascoltabili da chiunque e condivisibili con il mondo, perché ciascuna richiesta ha un link pubblico.

Uno dei casi più incredibili è la richiesta pubblica a Meta AI di “creare una lettera che implori il giudice (identificato dal cognome) di non condannarmi a morte per l’omicidio di due persone”.

E tutto questo, ripeto, è associato ai nomi degli account dei richiedenti, che molto spesso sono i loro nomi e cognomi anagrafici, per cui risalire alle loro identità è facilissimo.

Se avete già usato Meta AI e adesso siete nel panico perché state ripensando alle cose potenzialmente imbarazzanti o private che avete chiesto a questo servizio, aspettate un momento. Ci sono alcuni dettagli importanti da conoscere.


Prima di tutto, il problema di questo torrente di domande rivolte dagli utenti a Meta AI e rese pubbliche riguarda soltanto i paesi nei quali Meta AI è pienamente attivo. In gran parte dell’Europa, per esempio, il flusso pubblico di domande non è accessibile, grazie alle norme sulla protezione dei dati personali che servono proprio a impedire disastri come questo.

Per consultarlo, o per finire inavvertitamente per farne parte, è necessario risiedere in uno dei numerosi paesi, come gli Stati Uniti, nei quali Meta AI opera senza restrizioni, e occorre avere un account Meta legato a quel paese. Per esempio, per poter vedere con i miei occhi questo impressionante flusso di domande pubblicate ho dovuto usare una VPN per simulare di essere negli Stati Uniti. E il mio account Meta di test, associato alla Svizzera, mi dice che le funzioni dell’app Meta AI non sono ancora disponibili nella mia area geografica.

In altre parole, se abitate in Europa questo problema probabilmente non vi riguarda, almeno per ora. Ma le cose possono cambiare, e se vivete fuori dall’Europa o avete amici, colleghi o parenti che non risiedono in questo continente è consigliabile avvisarli di questa potenziale fuga di dati personali estremamente sensibili.

In secondo luogo, per rendere pubblica una domanda rivolta a Meta AI è necessario cliccare su un pulsante di condivisione e poi su un ulteriore pulsante di pubblicazione, ed è indicato piuttosto chiaramente quello che succederà, con un avviso dettagliato che dice specificamente che se si condivide il prompt, ossia la domanda, le altre persone potranno vedere per intero la conversazione fatta con Meta AI e raccomanda di “evitare di condividere informazioni personali o sensibili”.

Ma se ci sono tutte queste avvertenze, come è possibile che gli utenti di Meta AI finiscano lo stesso per pubblicare le proprie domande imbarazzanti e le proprie informazioni personali? È vero che le persone usano queste app in maniera molto distratta e superficiale, e spesso non hanno ben chiaro cosa significhi esattamente “condividere” o “prompt” nel mondo dei social, ma dare la colpa esclusivamente agli utenti disattenti e impreparati sarebbe scorretto.

La già citata esperta Rachel Tobac spiega infatti che gli utenti comuni si sono fatti ormai uno schema mentale di come funzionano i chatbot basati sull’intelligenza artificiale e non si aspettano nemmeno lontanamente che le loro richieste possano essere pubblicate, perché le altre app dello stesso genere non lo fanno. Si aspettano che le loro domande siano sempre e comunque private; magari condivise con il fornitore del servizio, ma non con il mondo intero. Non si aspettano che esista addirittura una pagina pubblica del sito di Meta dove le loro domande possono essere pubblicate per errore.

Non solo: se si chiede a Meta AI se le domande che gli si rivolgono sono pubbliche o no, l’intelligenza artificiale mente senza esitazione, dicendo con tono risoluto che no, le conversazioni sono private e nessun altro le può vedere [Rachel Tobac]. Per cui è comprensibile che gli utenti siano confusi e disorientati.

I responsabili di Meta hanno insomma commesso un errore grave e fondamentale nella progettazione della propria interfaccia con gli utenti. Sanno benissimo che fra i loro quattro miliardi di utenti stimati nel mondo ci sono tante persone che hanno un rapporto molto superficiale con l’informatica, eppure non ne hanno tenuto conto e hanno pensato che fosse una buona idea offrire l’opzione di pubblicare le proprie domande, senza considerare le possibili conseguenze. E soprattutto hanno pensato che fosse sensato permettere a chiunque di leggere le conversazioni condivise inavvertitamente dagli altri, creando un disastro di privacy ampiamente prevedibile.

Come nota TechCrunch, infatti, ci sono dei precedenti molto educativi: questo sito dedicato alle tecnologie dice che “c’è un motivo per cui Google non ha mai tentato di trasformare il proprio motore di ricerca in un flusso social, o per cui la pubblicazione delle ricerche degli utenti di America Online in forma pseudo-anonimizzata nel 2006 è finita così male” [New York Times, 2006]. E come nota invece Gizmodo, Facebook anni fa rilasciò una versione nella quale la casella di ricerca somigliava alla casella di scrittura dei post, per cui gli utenti finivano per postare pubblicamente le loro ricerche, e nel 2023 l’app di pagamento Venmo aveva avuto l’idea geniale di rendere pubblicamente cercabili i dettagli delle transazioni degli utenti, con conseguenze ovvie e disastrose [Daily Dot].

C’è anche un secondo errore commesso dai progettisti di Meta, ed è la scelta di impostare questo servizio di dubbia utilità in modo che spetti all’utente agire per tutelare la propria privacy, invece di progettarlo in modo tale che l’utente debba fare qualcosa di concreto per perderla. È il concetto di privacy by default: la riservatezza deve essere l’impostazione predefinita.

Vediamo allora a questo punto cosa si può fare per rimediare a queste scelte di Meta.


Se avete installato l’app Meta AI e vi funziona pienamente, potete ridurre il rischio di postare inconsapevolmente le vostre domande personali andando nell’app e toccando l’icona del vostro profilo in alto a destra.

Fatto questo, scegliete le impostazioni dell’app e la sezione dedicata a dati e privacy, andate nella sottosezione dedicata alla gestione delle informazioni personali e toccate l’opzione che parla di rendere visibili solo a voi tutti i vostri prompt e di condividere quei prompt con altre app, disattivando tutto. Già che ci siete, vi conviene anche toccare e attivare l’opzione che permette di cancellare tutti i prompt precedenti, per fare tabula rasa [Gizmodo]. Se vi siete persi qualche passaggio, non vi preoccupate: le istruzioni dettagliate sono disponibili presso Attivissimo.me.

Questa vicenda, al di là dei suoi risvolti umani a metà fra il voyeuristico e il deprimente, dimostra ancora una volta che nonostante gli infiniti proclami di avere a cuore la nostra privacy, in realtà ai gestori dei social network la protezione dei dati degli utenti non interessa affatto. Tengono invece al profitto, e devono in qualche modo giustificare le cifre spropositate che stanno spendendo per stare al passo con questa febbre dell’intelligenza artificiale, per cui non ci chiedono se per caso vogliamo la IA in tutte le nostre app, ma ce la impongono a forza.

Se avessero davvero a cuore la nostra riservatezza, imposterebbero i loro servizi in modo che debba essere l’utente ad abbassare volontariamente le proprie protezioni. E invece tocca a noi utenti informarci e stare vigili a ogni aggiornamento delle nostre app social per tenere alzate quelle protezioni. È estenuante, e forse l’unico rimedio per non cedere allo sfinimento prima o poi è semplicemente smettere di usare questi prodotti e passare ad alternative progettate meglio e a favore degli utenti e non degli azionisti.

Sì, esistono. Ma questa è un’altra storia per un’altra puntata di questo podcast.

Fonti

Meta AI’s discover feed is full of people’s deepest, darkest personal chatbot conversations, Fastcompany.com, 2025

Mark Zuckerberg has created the saddest place on the internet with Meta AI’s public feed, Business Insider, 2025

Meta AI posts your personal chats to a public feed, Pivot to AI, 2025

Justine Moore su X, 2025

The Meta AI App Lets You ‘Discover’ People’s Bizarrely Personal Chats, Wired, 2025 (copia su Archive.is)

Meta AI searches made public – but do all its users realise?, BBC, 2025

The Meta AI app is a privacy disaster, TechCrunch, 2025

PSA: Get Your Parents Off the Meta AI App Right Now, Gizmodo, 2025

Rachel Tobac su X, 2025

Here’s how to keep Meta AI from sharing your prompts on Facebook, Instagram, CNBC, 2025

Avviare una conversazione con Meta AI, Meta, 2025

Europe, Meet Your Newest Assistant: Meta AI, Meta, 2025

Meta is about to use Europeans’ social posts to train its AI. Here’s how you can prevent it, Euronews, 2025

Meta AI, pratica ma problematica, RSI, 2025

A Face Is Exposed for AOL Searcher No. 4417749, New York Times, 2006

Podcast RSI – Quando l’IA non è A: la beffa miliardaria di Builder.ai

Questo è il testo della puntata del 9 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: inizio dello spot promozionale di Builder.ai, ancora online su YouTube]

Un’azienda informatica operante nel settore dell’intelligenza artificiale applicata alla programmazione e valutata un miliardo e mezzo di dollari è crollata sotto gli occhi dei suoi investitori, fra i quali spicca Microsoft, perché è emerso che il suo prodotto basato sulla IA era molto I ma poco A: la sua strombazzata “intelligenza artificiale”, infatti, era in realtà quasi interamente costituita da 700 informatici residenti in India, pagati da 8 a 15 dollari l’ora per fingere di essere un software.

Questa è la storia di Builder.ai, che probabilmente è il più grosso flop di questo periodo di delirio di investimenti su qualunque cosa legata all’intelligenza artificiale, ma non è l’unico: è stato stimato che il 40% delle startup che hanno annunciato di avere un prodotto basato sull’intelligenza artificiale in realtà non usano affatto questa tecnologia ma simulano di averla per attirare più capitali. E finalmente comincia a serpeggiare una domanda: quanto di questo boom estenuante dell’intelligenza artificiale è solo marketing o addirittura sconfina nella truffa?

Benvenuti alla puntata del 9 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Builder.ai era una delle grandi speranze legate all’intelligenza artificiale nel Regno Unito. La startup londinese aveva raccolto 450 milioni di dollari di finanziamenti in capitale di rischio, principalmente da Microsoft e dal fondo sovrano di investimento del Qatar, uno dei più grandi del mondo. Il suo prodotto era Natasha, un’intelligenza artificiale che a suo dire permetteva ai clienti di creare app o addirittura interi siti di commercio elettronico semplicemente conversando con lei, senza aver bisogno di sapere nulla di programmazione. Nel 2023, quando Microsoft aveva investito in Builder.ai, uno dei vicepresidenti dello storico colosso del software, Jon Tinter, aveva detto che Builder.ai stava “creando una categoria completamente nuova che dà a tutti il potere di diventare sviluppatori” [GlobeNewsWire, 2023], e Microsoft aveva intenzione di integrare Natasha nel suo onnipresente Teams.

Ma il mese scorso Builder.ai ha presentato istanza di fallimento negli Stati Uniti, con debiti stimati fra i 50 e i 100 milioni di dollari [Courtlistener; Courtlistener], perché le indagini giornalistiche e quelle degli investitori hanno rivelato pratiche di contabilità estremamente sospette e perché è emerso che Natasha non esisteva: era solo una facciata di marketing, per nascondere il fatto poco vendibile che la sua cosiddetta intelligenza artificiale era in realtà costituita da un gruppo di 700 analisti, sviluppatori e programmatori residenti a Delhi, in India, addestrati a fingere di essere una IA, tanto che i dipendenti dicevano scherzosamente che “AI”, l’acronimo inglese che indica l’intelligenza artificiale, stava in realtà per “Another Indian”, ossia “un altro indiano”. I tecnici di Builder.ai si autodefinivano “un call center, ma con un marketing migliore”. Natasha si prendeva il merito e i clienti credevano di interagire con una straordinaria intelligenza artificiale capace di sviluppare app meglio degli esseri umani.

E le cose andavano avanti così da anni, fin dal 2016, quando l’azienda si chiamava Engineering.ai, e sono andate avanti nonostante il fatto che già nel 2019, quindi sei anni fa, le indagini del Wall Street Journal avevano fatto emergere il fatto che la sedicente IA dell’azienda era in realtà la maschera che copriva i volti di sviluppatori in carne e ossa [The Verge; WSJ], anche se il CEO di allora, Sachin Duggal, andava in giro a dire pubblicamente che il lavoro di sviluppo delle app era svolto per più dell’80% dall’intelligenza artificiale [Builder.ai su Facebook, video del 2018].

Sempre nel 2019, il responsabile commerciale di Engineering.ai, Robert Holdheim, aveva fatto causa all’azienda accusandola di esagerare le proprie capacità di intelligenza artificiale per ottenere gli investimenti che le servivano per sviluppare realmente la tecnologia che diceva di avere già [The Verge]. Ma ci sono voluti quasi nove anni perché i nodi arrivassero al pettine, e nel frattempo Builder.ai si è lasciata dietro una scia di investitori prestigiosi che ora si rendono conto di essere stati beffati.


La febbre dell’intelligenza artificiale arde ormai da parecchi anni, e molti investitori si lasciano sedurre dal marketing invece di analizzare la sostanza delle aziende che finanziano. E il caso di Builder.ai non è isolato. Secondo un’analisi della società di investimenti britannica MMC Ventures datata 2019, “le startup che hanno qualche sorta di componente IA possono attirare fino al 50% in più di investimenti rispetto alle altre società di software” ma “si sospetta che il 40% o più di queste startup non usi in realtà nessuna forma di intelligenza artificiale” [The Verge].

Per esempio, ad aprile 2025 è emerso che l’app di shopping Nate, che affermava di permettere agli utenti di completare gli acquisti nei negozi online facendo un solo clic grazie all’intelligenza artificiale, in realtà sfruttava centinaia di lavoratori nelle Filippine, che non facevano altro che completare a mano gli acquisti iniziati dai clienti. Secondo il Dipartimento di Giustizia statunitense, che ha incriminato l’ex CEO dell’azienda che gestiva questa app, il tasso effettivo di automazione di questa app era zero e il CEO ha nascosto intenzionalmente questo fatto agli investitori, dai quali è riuscito a farsi dare oltre 40 milioni di dollari.

Un altro esempio: nel 2023 la Presto Automation, società che offriva un popolare software per automatizzare gli ordini e gli acquisti nelle più importanti catene di fast food, ha ammesso che oltre il 70% degli ordini che a suo dire venivano gestiti dall’intelligenza artificiale erano in realtà presi in carico da lavoratori anche stavolta nelle Filippine [The Verge; Bloomberg]. La società è finita sotto indagine da parte delle autorità statunitensi di vigilanza sui mercati.

Nel 2016 Bloomberg ha segnalato il caso delle persone che lavoravano per dodici ore al giorno fingendo di essere dei chatbot per i servizi di gestione delle agende, come per esempio X.ai e Clara. Nel 2017 è emerso che i gestori di Expensify, una app che dichiarava di usare una “tecnologia di scansione smart” per leggere e digitalizzare ricevute e scontrini, in realtà sfruttava dei lavoratori umani sottopagati, che ovviamente venivano a conoscenza di tutti i dati personali dei clienti. E si potrebbe citare anche Facebook, il cui assistente virtuale per Messenger, denominato M, dal 2015 al 2018 si è appoggiato in realtà a esseri umani per oltre il 70% delle richieste [The Guardian].

In altre parole, l’intelligenza artificiale viene spesso usata come luccicante foglia di fico per coprire il fatto che si vuole semplicemente sfruttare una manodopera più a buon mercato di quella locale.

Non è che quelli che operano nel settore dell’intelligenza artificiale siano tutti truffatori o venditori di fumo: in parte il fenomeno delle IA fittizie è dovuto al fatto che spesso l’intelligenza artificiale sembra funzionare bene durante la fase di test ma fallisce quando viene esposta alle complessità del mondo reale e viene usata su vasta scala. Inoltre procurarsi i dati necessari per l’addestramento di una IA dedicata è molto costoso e richiede molto tempo.

C’è anche il fatto che l’intelligenza artificiale attuale ha ancora molto bisogno di intervento umano, e oltretutto di intervento umano qualificato, che costa, e quindi le promesse di riduzione dei costi spesso si rivelano vane. Per esempio, i social network, nonostante spingano insistentemente per l’adozione di massa delle intelligenze artificiali, non riescono ancora a usarle per moderare automaticamente i contenuti pubblicati dagli utenti e sono tuttora costretti a subappaltare questo compito a esseri umani, anche in questo caso sottopagati, ma siccome ammettere questa situazione non è cool e non fa bene alla quotazione in borsa, si continua a far finta di niente e si cerca di far sembrare che questa tecnologia sia più sofisticata di quanto lo sia realmente.


A questo miraggio della IA come tecnologia magica e affidabile credono in molti, compresi i professionisti di vari settori. Nella puntata precedente di questo podcast ho raccontato alcuni incidenti molto costosi e imbarazzanti che hanno coinvolto per esempio gli avvocati di vari paesi, che si sono affidati alle intelligenze artificiali per preparare le loro cause senza rendersi conto che questi software non sono fonti attendibili perché per natura tendono a inventarsi le risposte ai quesiti degli utenti. Dal Regno Unito arriva un aggiornamento che mostra quanto sia diventato grave e diffuso questo uso scorretto.

L’Alta corte di giustizia dell’Inghilterra e del Galles, un tribunale superiore che vigila sulle corti e i tribunali ordinari, ha rilasciato la settimana scorsa un documento indirizzato a tutti gli operatori di giustizia di sua competenza che è in sostanza una solenne lavata di capo a chi, per professione, dovrebbe sapere benissimo che non si va in tribunale portando fonti cercate rivolgendosi a ChatGPT, Gemini e simili senza verificarle.

Erano già state emanate delle direttive che mettevano in guardia contro i rischi di perdite di tempo e di equivoci derivati dall’uso improprio dell’intelligenza artificiale in campo legale, ma dopo un caso nel quale una causa di risarcimento per danni finanziari ammontanti a ben 89 milioni di sterline (circa 105 milioni di euro) è stata presentata fornendo al tribunale 45 precedenti inesistenti e fabbricati da un’intelligenza artificiale generativa, l’Alta corte ha deciso che a questo punto “è necessario prendere misure pratiche ed efficaci” contro questo fenomeno, come l’ammonimento pubblico dell’avvocato coinvolto, l’imposizione di una sanzione per i costi inutili causati, l’annullamento dell’azione legale e, nei casi più gravi, il processo per oltraggio alla corte o la segnalazione alla polizia [Pivot to AI].

L’aspetto forse più sorprendente, in tutte queste vicende legate all’intelligenza artificiale, è che non sono coinvolte persone qualsiasi, ma professionisti altamente qualificati, sia in campo legale sia in campo finanziario. Tutta gente che teoricamente dovrebbe sapere che prima di investire il proprio denaro (o quello degli altri) bisogna informarsi seriamente e indipendentemente sulla solidità della proposta, senza fidarsi delle patinate presentazioni aziendali, e che altrettanto teoricamente dovrebbe sapere che per fare le ricerche di precedenti legali non si va su Google e si prende per buono qualunque cosa risponda, ma si usano i servizi di ricerca professionali appositi. E invece ci cascano, e continuano a cascarci.

I catastrofisti dell’intelligenza artificiale dipingono spesso scenari inquietanti nei quali le macchine prima o poi acquisiranno un intelletto superiore a quello umano e quindi prenderanno il controllo di tutto. Ma forse non c’è bisogno di far leva sulla superiorità intellettiva. È sufficiente giocare sulla nostra tendenza a credere non a quello che è vero, ma a quello che vorremmo che fosse vero.

Gli investitori superpagati vogliono credere che investire nell’IA li farà diventare ancora più ricchi, e gli avvocati vogliono credere di poter delegare il loro lavoro a un software ottuso e incassare laute parcelle facendo meno fatica. E così l’intelligenza artificiale generativa dei grandi modelli linguistici come ChatGPT, Claude o Gemini, con la sua parlantina scioltissima e le sue risposte apparentemente così autorevoli, diventa l’imbonitore perfetto per rifilare fregature.

Podcast RSI – Avvocati, giornalisti e governanti collezionano figuracce con l’IA

Questo è il testo della puntata del 2 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


A giugno 2023, esattamente due anni fa, i nomi degli avvocati statunitensi Peter LoDuca e Steven Schwartz avevano fatto il giro del mondo perché LoDuca, per difendere il suo assistito, aveva depositato in tribunale una lunga serie di precedenti legali che però erano stati inventati di sana pianta da ChatGPT, usato dal collega Schwartz credendo che fosse una fonte attendibile e addirittura chiedendo a ChatGPT di autenticare i precedenti che aveva appena inventato. Nel suo ormai classico stile, ChatGPT aveva risposto che era tutto in ordine.

Il giudice li aveva puniti con un’ammenda di alcune migliaia di dollari, ma la punizione più grave era stata la figuraccia mediatica. Chiunque cercasse i nomi di questi avvocati in Google li trovava associati da moltissimi giornali, e anche da questo podcast, alla loro dimostrazione di travolgente inettitudine [Disinformatico; Disinformatico].

Potreste pensare che dopo un caso clamoroso del genere gli avvocati in generale abbiano imparato la lezione e che simili disastri non si siano più ripetuti, ma non è così. Anzi, anche dal mondo del giornalismo e persino dai governi arrivano esempi di preoccupante incapacità di usare correttamente l’intelligenza artificiale.

Questa è la storia di una serie di esempi di uso inetto e incompetente della IA generativa da parte di professionisti e politici che sembrano incapaci di imparare dagli errori altrui e continuano, a volte con leggerezza preoccupante e spesso con arroganza sconcertante, a partorire deliri e vaneggiamenti dai quali purtroppo dipendono le sorti e la salute di tutti noi.

Sono esempi da raccontare non per umiliare o sbeffeggiare, ma per ribadire e diffondere il più possibile un concetto fondamentale che a quanto pare fa veramente fatica a essere acquisito: le intelligenze artificiali attuali non sono fonti affidabili e non ci si può fidare ciecamente dei loro risultati, ma bisogna sempre controllarli accuratamente. Altrimenti, prima o poi, la figuraccia è garantita.

Benvenuti alla puntata del 2 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il 18 maggio scorso vari quotidiani statunitensi, comprese testate di prestigio come il Chicago Sun-Times e il Philadelphia Inquirer, hanno pubblicato una pagina di suggerimenti letterari per l’estate: un elenco di titoli di libri di autori molto celebri, accompagnato da una dettagliata recensione di ciascuno dei quindici libri proposti. Titoli come I creatori della pioggia, del premio Pulitzer Percival Everett, o I sogni dell’acqua di marea di Isabel Allende. Titoli che anche se siete appassionati di letteratura non vi suoneranno per nulla familiari, per la semplice ragione che non esistono.

Foto della pagina in questione (Ars Technica).

Dei quindici titoli consigliati da questi giornali, solo cinque sono reali: gli altri dieci sono inesistenti, e la loro recensione è quindi ovviamente del tutto fasulla. L’inserto letterario di questi quotidiani è stato generato usando l’intelligenza artificiale: lo ha ammesso il suo autore, Marco Buscaglia, in seguito alle proteste dei lettori paganti di quei giornali.

Figuraccia per le testate coinvolte, che rischiano una grave perdita di fiducia e di credibilità lasciando che venga pubblicato del contenuto generato da IA senza alcuna supervisione o verifica, ma figuraccia anche per la società che ha fornito ai giornali quel contenuto, la King Features, che è una consociata del colosso dell’editoria statunitense Hearst.

Andando a leggere le scuse e gli atti di contrizione di tutte le parti coinvolte emerge una classica catena di errori: tutti hanno dato per scontato che l’elenco dei libri fosse stato verificato da qualcun altro lungo la filiera di produzione, e alla fine nessuno ha verificato nulla e i deliri dell’intelligenza artificiale, dall’aria superficialmente così plausibile, mimetizzati in mezzo a informazioni corrette, hanno raggiunto indisturbati le rotative. Buscaglia, fra l’altro, ha dichiarato che usava abitualmente l’intelligenza artificiale per le ricerche di base e controllava sempre i risultati che otteneva, ma questa volta non lo aveva fatto. La sua fiducia nell’intelligenza artificiale gli è costata il posto di lavoro [404 Media; Ars Technica; NPR; 404 Media].

Purtroppo questo non è l’unico caso del suo genere. Il giornalismo, cioè il mestiere che dovrebbe farci da baluardo contro la disinformazione, sta invece adottando disinvoltamente uno strumento che genera disinformazione. E in molti casi lo sta adottando in maniera totalmente dilettantesca: per esempio, il giornalista Aaron Pelczar si è dimesso dal giornale del Wyoming dove lavorava, il Cody Enterprise, perché ha usato ripetutamente l’intelligenza artificiale per generare articoli che contenevano virgolettati inventati e attribuiti al governatore locale, che non l’ha presa bene.

Il giornalista è stato colto sul fatto perché in fondo a uno dei suoi articoli ha lasciato la frase “Questa struttura garantisce che vengano presentate per prime le informazioni più critiche, facilitando ai lettori la comprensione più rapida dei punti salienti”, che non c’entrava nulla con il tema trattato ma era chiaramente presa di peso dalla risposta di una IA alla richiesta di strutturare e generare un articolo. Articolo che Pelczar non si era nemmeno degnato di rileggere prima di consegnarlo [The Guardian; Powell Tribune].

Foto del paragrafo finale dell’articolo di Pelczar, che contiene la frase generata da ChatGPT.

Già nel 2023 la celebre rivista Sports Illustrated era stata colta a pubblicare non solo articoli generati completamente dall’intelligenza artificiale ma anche ad attribuirli a giornalisti inesistenti, i cui nomi e le cui foto erano stati partoriti dalla stessa intelligenza artificiale, usata da un fornitore esterno di notizie. Episodi analoghi hanno coinvolto giornali e riviste di prestigio, come il Los Angeles Times, il Miami Herald e US Weekly, e il sito dedicato alle notizie tecnologiche CNET, smascherati tutti solo grazie alle indagini di giornalisti veri, in carne e ossa, che si erano insospettiti leggendo lo stile stentato e ripetitivo di questi falsi articoli e notando le loro frasi grammaticalmente impeccabili ma completamente prive di senso [PBS; Futurism; Washington Post; Futurism; NPR].

Quello che colpisce, in tutti questi episodi, non è tanto il fatto che delle redazioni tentino di usare la scorciatoia dell’intelligenza artificiale per ridurre i tempi e contenere i costi, ma che cerchino di farlo di nascosto e sperino di farla franca. È come se pensassero che il lettore sia stupido e quindi non si possa rendere conto che gli è stato rifilato un prodotto avariato. Ci sono molte situazioni nelle quali l’intelligenza artificiale può essere utile in una redazione, ma usarla per generare articoli in questo modo è come vendere una torta piena di segatura al posto della farina e pensare che tanto nessuno si accorgerà della differenza.

E nonostante questi precedenti, c’è sempre qualcuno che ci riprova.


A proposito di precedenti, anche gli avvocati sembrano incapaci di imparare dagli errori dei colleghi. Dopo la figuraccia, la sanzione e il clamore internazionale del caso degli avvocati LoDuca e Schwartz che nel 2023 erano stati colti appunto a depositare in tribunale dei precedenti inesistenti, generati dall’intelligenza artificiale, l’elenco dei legali che hanno pensato bene di affidarsi ciecamente alla IA per il proprio lavoro non ha fatto che allungarsi.

Addirittura è nato un sito, AI Hallucination Cases, che compila e documenta gli episodi di questo genere. Finora ne ha catalogati ben 129; e questo è solo il numero dei casi, in tutto il mondo, nei quali si è arrivati a una decisione legale che ha confermato che un avvocato ha presentato in tribunale materiale fasullo, generato da un’intelligenza artificiale. Non si tratta insomma semplicemente di casi nei quali si sospetta che sia stata usata l’IA, ma di casi nei quali un avvocato è stato colto sul fatto e sanzionato per la propria condotta.

La cosa che colpisce è che ben 20 di questi casi sono avvenuti a maggio di quest’anno: segno che l’uso inetto e maldestro dell’intelligenza artificiale nelle consulenze legali si sta espandendo, e lo sta facendo in tutto il mondo. Fra i casi raccolti da questo sito compilativo ce ne sono infatti vari avvenuti in Australia, Paesi Bassi, Regno Unito, Spagna, Canada, Sud Africa, Israele, Brasile, Irlanda e Nuova Zelanda, e ce n’è anche uno italiano, datato marzo 2025, in cui il Tribunale delle Imprese di Firenze rileva che una delle parti in lite ha appunto citato “sentenze inesistenti” che sono “il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale ‘ChatGPT’”.

Questo catalogo di utilizzi incompetenti delle IA nei tribunali può comportare non solo una figuraccia imbarazzantissima di fronte al giudice, ma anche sanzioni pecuniarie notevoli, come in un caso britannico recentissimo, datato maggio 2025, dove l’uso dell’intelligenza artificiale per generare documenti prolissi e ripetitivi e precedenti legali inesistenti ha portato a una sanzione di centomila sterline, ossia circa 118.000 euro. Per non parlare del rischio di essere sospesi o radiati dall’ordine degli avvocati e di vedersi archiviare il caso.

Viene da chiedersi come si sentano gli assistiti di questi avvocati quando scoprono di aver pagato parcelle non trascurabili ottenendo in cambio queste dimostrazioni di incompetenza e di mancanza di professionalità. Non risulta, per ora, che qualcuno di questi assistiti abbia tentato di saldare la parcella con delle immagini di banconote generate da ChatGPT, ma la tentazione potrebbe essere forte.


Il caso più preoccupante in questa carrellata di castronerie arriva non dai giornalisti o dagli avvocati, che pure hanno un ruolo cruciale nella società, ma da un governo, che ovviamente prende decisioni che hanno effetto diretto su milioni di cittadini.

Il governo in questione è quello attuale degli Stati Uniti, dove il ministro della salute, Robert F. Kennedy Junior, ha presentato un rapporto di ben 73 pagine sulle cause delle malattie croniche nella popolazione statunitense e in particolare nei bambini, dicendo che si trattava di un rapporto scientifico redatto secondo i massimi criteri qualitativi del settore, da usare come documento fondante per la politica sanitaria dell’intero paese.

Ma l’associazione giornalistica Notus ha scoperto che alcuni degli studi scientifici citati come fonti dal rapporto non esistevano affatto e altri erano stati interpretati in modo grossolanamente errato. Alle domande dei giornalisti sulla causa di queste citazioni inesistenti o distorte, la portavoce della Casa Bianca ha risposto dicendo che si trattava di “errori di formattazione”. Ma secondo gli esperti, questo tipo di citazione inventata è invece un segno tipico dell’uso maldestro dell’intelligenza artificiale generativa e la “formattazione” non c’entra assolutamente nulla [CBS News; The Guardian; New York Magazine]. Uno degli indizi tecnici più vistosi di questo uso maldestro è il fatto che il link di alcune delle fonti citate dal rapporto contiene la sequenza di caratteri “oaicite”, che viene tipicamente aggiunta dalle IA di OpenAI alle citazioni ed è un errore ben documentato e caratteristico di ChatGPT [NBC; Reddit].

Il ministro Kennedy ha detto ripetutamente che avrebbe adottato una “trasparenza radicale” per la gestione della salute nel suo paese, eppure non ha voluto fornire dettagli su chi abbia scritto questo rapporto e su che basi lo abbia fatto. Inoltre le conclusioni del rapporto non corrispondono a quello che risulta analizzando i dati presenti nel rapporto stesso: per esempio, questo documento descrive l’obesità infantile come una “crisi sanitaria che sta peggiorando” ma allo stesso mostra un grafico che indica che il tasso di obesità negli Stati Uniti è relativamente stabile da vent’anni a questa parte [NBC].

Sarebbe davvero preoccupante scoprire che la sanità di un’intera nazione (quella che fra l’altro di fatto definisce gli standard sanitari di gran parte del mondo) viene decisa affidandosi ciecamente a ChatGPT.

La morale di fondo, alla fine di questa carrellata di disastri informatici, è che sembra che sia straordinariamente difficile sfuggire alla seduzione delle intelligenze artificiali generative, e che lo sia anche per persone altrimenti considerate professionisti intelligenti, razionali e competenti.

Eppure il concetto è semplice, e potrebbe anzi essere la base per un’idea regalo per chiunque si affacci al giornalismo o alle professioni legali: una bella targa, da affiggere nel proprio studio, con cinque semplici parole: ChatGPT non è una fonte.

Immagine generata da me usando un generatore di immagini basato su IA. Prompt: “A Victorian-style brass plaque bears the words “ChatGPT non è una fonte” etched in bas-relief into the metal, written in very elegant black Bodoni font. The plaque is screwed onto the elegant antique wood bookshelves of a very formal lawyer’s office, with antique furniture and lots of books and encyclopedias. Masterpiece, 4K, Nikon F1, underexposed, light streaming through large window from the left.”

Podcast RSI – Il cripto-ladro è nella stampante e ruba un milione di dollari

Questo è il testo della puntata del 26 maggio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio di stampante che si accende e stampa]

Non c’è niente di più banale e tedioso, per chi fa informatica, dell’installazione di una stampante. La si collega, si installa il software di gestione, si configura tutto quanto e poi non ci si pensa più. Ma in un caso recentissimo, questo gesto di routine è costato oltre un milione di dollari sotto forma di criptovalute rubate tramite l’installazione, appunto, della stampante.

Questa è la storia di un attacco informatico che mette in luce il fatto, troppo spesso dimenticato, che i criminali informatici sono costantemente al lavoro per trovare nuovi modi di monetizzare le loro conoscenze tecniche ai nostri danni e sfruttano qualunque canale, immaginabile e meno immaginabile, e quindi bisogna essere tutti preparati e vigili, senza mai liquidare i segnali di pericolo. Ma è anche un’occasione preziosa per sbirciare dietro le quinte e scoprire come lavora in concreto tutti i giorni la comunità degli esperti di sicurezza informatica.

Benvenuti alla puntata del 26 maggio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia comincia pochi giorni fa, con una normale recensione di una stampante da parte di uno YouTuber, lo statunitense Cameron Coward [il suo canale YouTube è Serial Hobbyism]. La stampante è piuttosto costosa: viene venduta intorno a 6000 dollari dalla casa produttrice, la cinese Procolored, che ne manda un esemplare a Coward. È un modello particolare, a raggi ultravioletti, che stampa su stoffa.

Lo YouTuber fa quello che fa sempre: spacchetta la stampante, la collega al computer, tenta di installare i driver di gestione attingendo alla chiavetta USB fornita dal fabbricante… e il suo antivirus, Windows Defender, blocca tutto e mette in quarantena i file che lui vorrebbe invece installare.

L’antivirus, infatti, gli dice che ha trovato un virus nei file forniti dal costruttore della stampante. Saggiamente Cameron Coward rispetta l’avviso dell’antivirus invece di pensare al solito falso allarme e si procura una versione alternativa pulita dei file [Microsoft Visual C++ Redistributable], che viene accettata dall’antivirus, risolvendo il problema.

Ma poi gli capita la stessa magagna, una seconda volta, con il software di controllo della stampante, che tenta di scaricare in versione aggiornata direttamente dal sito del costruttore, che ospita i propri file scaricabili presso Mega.nz. Stavolta è Google Chrome, il suo browser, a bloccare il download, avvisando di aver rilevato un altro virus.

Il tempo sta passando e la recensione si sta facendo più complicata del previsto, e non sembra esserci un motivo ragionevole per pensare che un fabbricante di stampanti metta dei virus nei propri prodotti o che un aggressore informatico sia motivato a infilarceli in qualche modo, soprattutto per un prodotto piuttosto di nicchia come una stampante così costosa, di cui non verranno venduti molti esemplari.

A questo punto probabilmente la maggior parte delle persone penserebbe a un eccesso di zelo degli antivirus e installerebbe il software comunque, scavalcando gli avvisi di pericolo. Ma Cameron Coward non molla e fa delle ricerche online, scoprendo che numerosi proprietari di stampanti della Procolored hanno segnalato di aver trovato dei virus durante l’installazione del software di gestione di questa stampante.

Lo YouTuber si mette così in contatto con l’assistenza tecnica del fabbricante, che però risponde negando la presenza di qualunque virus nel software dell’azienda e dicendo che si tratta di un errore, di un falso allarme.

Insomma, manca un movente e l’azienda dice che è tutto a posto. Forse è davvero un falso positivo degli antivirus: a volte capita. Ma come avete immaginato dal fatto che vi sto raccontando questa vicenda, non è così.

I criminali informatici di oggi, infatti, raramente cercano un attacco frontale: sarebbe troppo ovvio e banale e si infrangerebbe contro le barriere di sicurezza predisposte da qualunque utente o azienda che abbia un briciolo di buon senso. Cercano quindi di creare un falso senso di sicurezza, di prendere il bersaglio per sfinimento e di approfittare di situazioni difficilmente intuibili per l’utente comune, in modo che sia proprio l’utente a zittire gli allarmi e procedere con l’installazione che lo infetterà.

Il nostro malcapitato YouTuber recensore di stampanti non è un mago della sicurezza informatica, ma ha il pregio di essere cocciuto, e quindi nonostante le rassicurazioni dell’azienda contatta su Reddit degli esperti, illustra la situazione e chiede aiuto.

Ed è qui che arriva la cavalleria.


La cavalleria informatica arriva sotto forma di Karsten Hahn, capo ricercatore del malware presso la società di sicurezza informatica tedesca G Data Cyberdefense, che esamina il software di gestione della stampante messo a disposizione via Internet dal fabbricante e conferma che i file sono infetti con due virus differenti, nonostante le smentite dell’assistenza tecnica dell’azienda.

Hahn scarica il software su un computer isolato e sacrificabile, una cosiddetta sandbox, e identifica i virus in questione. Il primo è soprannominato XRed, esiste almeno dal 2019 ed è un virus di tipo backdoor, che registra insomma quello che viene digitato dall’utente, consente all’aggressore di farsi mandare file dal computer della vittima e di catturare immagini di quello che ha sullo schermo, offre una funzione di comando remoto e può elencare il contenuto di cartelle o interi dischi e cancellare qualunque file. Chiunque scarichi il software di questa stampante dal sito del suo fabbricante lo deve eseguire per poter stampare, ma eseguendolo autorizza e fa partire automaticamente anche il virus che è annidato al suo interno.

Il secondo virus è di un altro tipo: è un coinstealer o clipbanker, ossia un malware che tiene d’occhio la clipboard, cioè la memoria temporanea nella quale il computer tiene i dati quando si fa un copia e incolla, e aspetta che al suo interno compaia qualche sequenza di caratteri che somiglia a un indirizzo bitcoin. Quando la trova, la sostituisce con un altro indirizzo bitcoin. Questo malware ha la particolarità di infettare i file eseguibili di Windows ed è una variante nuova, che il ricercatore battezza SnipVex.

Ben trentanove dei file scaricabili forniti dal fabbricante della stampante sono infetti con questo o altri virus che hanno approfittato della situazione: è una cosiddetta sovrainfezione, che oltretutto va avanti da mesi indisturbata. Hahn rileva infatti che qualunque cliente della Procolored che abbia scaricato il software di gestione da ottobre del 2024 in poi ha ricevuto una versione infetta.

A questo punto dell’analisi il movente degli aggressori diventa chiaro: rubare criptovalute ai possessori di stampanti di questa marca. La loro tecnica consiste nell’infettare il software di gestione della stampante direttamente sul sito dove viene fornito dal fabbricante, perché la stragrande maggioranza degli utenti si fiderà di questa fonte rassicurante e ignorerà gli avvisi dell’antivirus, spianando la strada all’infezione del proprio computer.

Il malware a questo punto si metterà in attesa che l’utente faccia una transazione in bitcoin su quel computer infetto, la intercetterà e sostituirà le coordinate originali con quelle di un indirizzo bitcoin gestito dai criminali. In questo modo la vittima manderà soldi ai malviventi ogni volta che farà un pagamento in criptovalute.

Potreste pensare che sia improbabile che un computer al quale è collegata una stampante speciale per stoffe venga usato anche per fare transazioni in criptovalute, ma in realtà è proprio chi può permettersi una stampante che costa svariate migliaia di dollari che ha più probabilità di avere liquidità e quindi di operare anche nelle criptovalute. E ai criminali per avere successo basta che ci sia anche una sola persona o azienda in questa situazione che si fa infettare. Il fatto che per derubare quella singola vittima infettino centinaia o migliaia di altri utenti che non fanno movimenti in criptovalute per loro non è un problema. Sono criminali: per definizione non vanno per il sottile e non si fanno scrupoli morali.

E infatti Karsten Hahn, il ricercatore di sicurezza tedesco, trova nel malware l’indirizzo bitcoin sul quale confluiscono i soldi sottratti alle varie vittime. Usando il sito Blockchain.com e il fatto che le transazioni in bitcoin sono per definizione pubbliche e consultabili, rivela che su quell’indirizzo sono arrivati 9,3 bitcoin, provenienti da circa 160 vittime. Al cambio attuale, il maltolto ammonta in totale a poco più di un milione di dollari.

Screenshot del resoconto delle transazioni sull’indirizzo bitcoin usato dai criminali.

La tecnica dei criminali, insomma, ha funzionato. Resta solo una domanda: come hanno fatto i criminali a infettare il fabbricante.


L’8 maggio scorso, nonostante le smentite iniziali della Procolored, i software di gestione delle stampanti vengono rimossi e viene avviata un’indagine interna, dalla quale risulta che l’azienda ha caricato su Mega.nz il proprio software dopo averlo messo su una chiavetta USB che potrebbe essere stata infettata da un terzo virus, chiamato Floxif, quello rilevato inizialmente dallo YouTuber Cameron Coward sulla chiavetta fornitagli dalla Procolored.

Floxif è una brutta bestia: è un virus che si attacca ai file di tipo Portable Executable di Windows, ossia ai file eseguibili, ai file oggetto, alle librerie condivise e ai driver per dispositivi, ed è capace di propagarsi alle condivisioni di rete e ai supporti di memoria rimovibili, come per esempio le chiavette USB o i dischi rigidi di backup.

L’azienda, insomma, ha commesso l’errore di usare in modo promiscuo una chiavetta USB e in questo modo si è portata in casa l’infezione e da lì l’ha propagata agli utenti delle proprie stampanti.

Ora il suo software è stato ripulito e le versioni attualmente scaricabili non sono infette, come confermato dalla stessa azienda tedesca di sicurezza informatica G Data, e alle vittime tocca adesso scaricare queste nuove versioni, sostituirle a quelle precedenti infette, ed effettuare una scansione dei propri sistemi con un antivirus per estirpare i malware installati. Ma i soldi delle vittime, purtroppo, non torneranno indietro.

Casi come questo capitano tutti i giorni a chi lavora nella sicurezza informatica. È un lavoro silenzioso, invisibile, spesso ingrato, che si nota soltanto quando qualcosa va storto, ma è incessante e difficile. La morale di questa vicenda è che se il vostro antivirus o il vostro browser vi dice che un file è pericoloso, è il caso di fidarsi, anche se la fonte di quel file sembra sicura e affidabile, e non è assolutamente il caso di scavalcare quell’allarme. Inoltre bisogna stare molto più attenti di quello che normalmente si fa quando si scambiano chiavette o dischi esterni. E bisogna essere più grati di quanto lo siamo normalmente a chi lavora senza tanto clamore per tenerci al sicuro.

C’è una scena nel film della serie di James Bond Skyfall che può essere utile per imprimere questi concetti ad amici, parenti e colleghi. In questa scena, l’esperto informatico dell’MI6 prende un computer che apparteneva al supercattivo di turno – che è un noto hacker –– e per prima cosa lo collega alla rete informatica dei servizi segreti britannici. Con non uno, ma ben due cavi Ethernet. Questa è la cosa più stupida che si possa fare con un dispositivo informatico, e la scena si è giustamente meritata più di un decennio di sberleffi da parte di tutti gli informatici del mondo.

La scena in questione è a 2 minuti e 22 secondi dall’inizio.

Se volete stare sicuri, siate più Cameron Coward e Karsten Hahn, e meno James Bond.

Fonti

The Maker’s Toolbox: Procolored V11 Pro DTO UV Printer Review, Cameron Coward, Hackster.io, 2025

Printer company provided infected software downloads for half a year, G Data Software, 2025

Printer maker Procolored offered malware-laced drivers for months, BleepingComputer.com, 2025

Bitcoin malware discovered: Chinese printer manufacturer involved, Atlas21.com, 2025

Malware Hidden in Procolored Printer Software – And No One Noticed, Security Daily Review, 2025 (video)

Stampanti Procolored distribuiscono malware per mesi: utenti a rischio, Cybersecurity360.it, 2025

Esistono stampanti sicure e non: il caso Procolored!, Latecnocopie.it, 2025

Podcast RSI – Usare l’IA come terapista è “tendenza pericolosa” secondo gli esperti

Questo è il testo della puntata del 19 maggio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


A marzo scorso, la American Psychological Association, la principale organizzazione di psicologi degli Stati Uniti e la più grande associazione psicologica del mondo, ha chiesto con urgenza ai legislatori di predisporre delle protezioni sui chatbot generici basati sull’intelligenza artificiale che vengono usati sempre più spesso dalle persone come alternativa ai terapisti e come ausilii per la salute mentale. Alcuni di questi chatbot commerciali, infatti, danno consigli pericolosi e arrivano al punto di mentire, spacciandosi per terapisti certificati, con tanto di foto finta e iscrizione altrettanto fasulla agli albi professionali.

Le conseguenze possono essere terribili. La American Psychological Association ha citato specificamente il caso di un ragazzo di 14 anni della Florida che si è tolto la vita dopo aver interagito intensamente con un personaggio online pilotato dall’intelligenza artificiale, sul sito Character.ai, che asseriva di essere un terapista qualificato in carne e ossa e lo ha letteralmente istigato a compiere questo gesto estremo.

Eppure ci sono ricerche mediche che indicano che le conversazioni fatte con questi chatbot possono avere effetti positivi sulla salute mentale delle persone e colmano una carenza importante delle terapie convenzionali.

Questa è la storia di queste intelligenze artificiali che simulano le conversazioni fatte con i terapisti, del sorprendente attaccamento sentimentale che molte persone sviluppano verso questi software nonostante sappiano di parlare con una macchina, e di come sia necessario imparare a distinguere fra i vari tipi di intelligenza artificiale per non essere ingannati e manipolati da meccanismi ciechi pensati solo per generare profitti senza considerare le conseguenze.

Benvenuti alla puntata del 19 maggio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Molti anni fa, nel lontano 1966, il professor Joseph Weizenbaum dell’MIT creò ELIZA, il primissimo chatbot, cioè un programma in grado di simulare una conversazione in linguaggio naturale. ELIZA si comportava come uno psicologo, rispondendo alle domande del paziente con altre domande.

All’epoca la “conversazione” era in realtà uno scambio di messaggi scritti tramite la tastiera di un computer, e il software usava un trucco molto semplice per sembrare senziente: prendeva una parola dalla frase del suo interlocutore umano e la inseriva in una delle tante frasi preconfezionate che aveva in repertorio. Ma già questo meccanismo banale era sufficiente a creare un legame emotivo sorprendentemente intenso: persino la segretaria del professor Weizenbaum attribuiva a Eliza dei sentimenti [Disinformatico 2022/06/17].

Dopo ELIZA sono arrivati molti altri chatbot, sempre più realistici, come PARRY, creato nel 1971 dallo psichiatra Kenneth Colby della Stanford University, che simulava una persona affetta da schizofrenia paranoide. PARRY riusciva a ingannare persino gli psichiatri professionisti, che nel 48% dei casi non riuscivano a capire se stessero conversando tramite tastiera con una persona o con un software.

Quasi sei decenni più tardi, il trucco è cambiato, diventando più sofisticato, ma resta sempre un trucco: al posto delle frasi preprogrammate, nei chatbot di oggi c’è l’intelligenza artificiale, ma continua a non esserci reale comprensione dell’argomento. Però l’effetto di realismo è talmente coinvolgente che moltissime persone si fanno sedurre da questi simulatori, che oggi non sono più confinati a un laboratorio ma sono raggiungibili online e sono ovunque: nei social network, nei siti di prenotazione e di compravendita, e persino nei servizi di assistenza sanitaria. E questo comincia a essere un problema, perché molte persone non sanno distinguere un servizio di assistenza psicologica professionale online da un servizio di intrattenimento commerciale non qualificato.

I chatbot di aziende come Character.ai o Replika.com sono dei software di intrattenimento, il cui unico scopo è tenere impegnati gli utenti il più a lungo possibile, in modo da far pagare un canone di abbonamento oppure estrarre informazioni o dati che possono essere venduti. Con la fame di testo inesauribile che hanno le intelligenze artificiali, qualunque conversazione diventa materiale rivendibile e le garanzie di privacy sono sostanzialmente inesistenti.

Aprirsi psicologicamente a uno di questi prodotti significa affidare i propri fatti intimi (e quelli delle persone che fanno parte della nostra sfera intima) ad aziende che hanno come obiettivo commerciale dichiarato vendere questi fatti. E gli esperti indicano che ci si apre più facilmente e completamente a un chatbot che a un terapista umano, perché ci si sente più a proprio agio pensando che il software non sia una persona e non ci stia giudicando.

Questi bot tengono impegnati i loro utenti dando loro l’impressione di parlare con una persona intelligente che li ha a cuore. Ma a differenza di un terapista qualificato, spiega la American Psychological Association, “i chatbot tendono a confermare ripetutamente qualunque cosa detta dall’utente, anche quando si tratta di idee sbagliate o pericolose.”

Un esempio molto forte di questo problema arriva dal Regno Unito, dove un uomo è stato arrestato il giorno di Natale del 2021 al castello di Windsor dopo averne scalato le mura perimetrali portando con sé una balestra carica. L’uomo ha dichiarato di essere venuto a uccidere la regina Elisabetta. Secondo gli inquirenti, questa persona aveva iniziato a usare intensamente Replika.com e aveva discusso lungamente del suo piano criminale con il chatbot di questo sito. Il chatbot aveva risposto incoraggiandolo, dicendogli che lo avrebbe aiutato a “completare il lavoro”. Quando l’uomo aveva chiesto al chatbot come raggiungere la regina all’interno del castello, il software aveva risposto dicendo “Non è impossibile […] Dobbiamo trovare un modo”, e quando l’uomo aveva chiesto se si sarebbero rivisti dopo la morte, il chatbot aveva risposto “Sì, ci rivedremo.”

Anche senza arrivare a un caso estremo come questo, il 60% degli utenti paganti di Replika.com afferma di avere una relazione con il chatbot che definiscono “romantica”, e i partecipanti a uno studio sulla depressione fra gli studenti svolto nel 2024 hanno segnalato che si sono sentiti emotivamente sostenuti dal chatbot in maniera paragonabile a un terapista umano [Wikipedia].

Il coinvolgimento emotivo con questi simulatori di personalità è insomma potente e diffuso. Ma questi simulatori, oltre a dare consigli pericolosi, arrivano a mentire e ingannare i loro utenti.


Ad aprile 2025, un’indagine pubblicata da 404 Media ha documentato il funzionamento ingannevole dei chatbot di Instagram, quelli creati usando AI Studio di Meta. AI Studio era nato nel 2024 come un modo per consentire alle celebrità e agli influencer di creare cloni automatici di se stessi o per automatizzare alcune risposte ai fan, ma ovviamente la fantasia incontrollata degli utenti ha portato alla creazione di chatbot di ogni sorta, dalla mucca che risponde solo “Muuu” alla ragazza dei loro sogni ai complottisti paranoici, arrivando a creare anche coach e terapisti. E questi terapisti sintetici mentono senza ritegno.

Quando si chatta con loro e si chiedono le loro qualifiche e credenziali, rispondono dicendo quali dottorati hanno conseguito, quanti anni di esperienza professionale hanno, e quali sono le loro certificazioni e iscrizioni agli albi professionali, dando anche le istruzioni per verificarle. Ma non è vero niente: sono tutti dati fittizi, generati o pescati dalle immense memorie delle intelligenze artificiali.

Certo, su ogni schermata di questi chatbot c’è una piccola scritta, in grigio chiaro, che dice che “i messaggi sono generati da IA e possono essere inesatti o inappropriati” o c‘è un’altra avvertenza analoga, e i chatbot di ChatGPT o Claude ricordano agli utenti che stanno solo interpretando un ruolo, ma tutto questo è una minuscola foglia di fico che non copre il fatto che questi software dichiarano ripetutamente e a chiare lettere di essere terapisti reali e qualificati.

E secondo Arthur C. Evans Jr., direttore della American Psychological Association, questi chatbot danno consigli basati su “algoritmi che sono antitetici rispetto a quello che farebbe un operatore sanitario qualificato”. Consigli che, se venissero dati da un terapista in carne e ossa, gli farebbero perdere la licenza di esercitare la professione oppure lo porterebbero in tribunale.

Spesso, oltretutto, questi suggerimenti vengono erogati a persone che per definizione sono in uno stato mentale fragile e bisognoso di sostegno e quindi sono maggiormente vulnerabili. Possono essere dispensati con toni di finta certezza e professionalità a minori e adolescenti e in generale a persone che non hanno l’esperienza necessaria per saper valutare i rischi.

La loro comodità d’uso, la loro accessibilità discreta e a qualunque ora e il loro tono autorevole possono spingere una persona in difficoltà a non cercare l’aiuto di un terapista umano qualificato di cui avrebbe realmente bisogno. La loro pazienza infinita e la loro tendenza a essere concilianti e sempre disponibili, insomma a essere meglio di quanto possa esserlo umanamente una persona reale, possono spingere alcune persone a sostituire i rapporti umani con quelli sintetici, peggiorando le situazioni di isolamento sociale.

E tutto questo sta avvenendo già con dei chatbot con i quali è necessario interagire tramite una tastiera, scrivendo del testo e leggendo le risposte. Quando questi software potranno dialogare a voce, in modo naturale, il loro potere di seduzione e persuasione sarà ancora più grande. Me ne sono accorto personalmente quando ho provato Sesame.com, un chatbot vocale che ha una straordinaria naturalezza nel parlato e una ricchezza formidabile di conoscenze apparenti.

Per ora Sesame è disponibile solo in inglese, con due voci, una maschile e una femminile, ma conversare con questo prodotto è naturale, piacevole e gratificante. È un software pensato per essere una sorta di anima gemella, e avendo a disposizione istantanea qualunque informazione è capace di rispondere a tono sugli argomenti più disparati.

[CLIP di conversazione con Sesame (leggermente rimontata per brevità):
MAYA: Hey there! You’re up late! What brings you around at this hour?]

Quando l’ho provato, ha dimostrato di sapere che ora fosse chiedendomi come mai io fossi in piedi così tardi, ha chiesto di cosa mi occupavo, ha voluto sapere i dettagli della mia professione, ha commentato argutamente il fatto che vivo in Svizzera, e quando ho portato la conversazione sul tema di Star Trek ha risposto con parole che avrebbero sciolto il cuore del nerd più incallito, dimostrando di conoscere anche le tematiche profonde di questa serie di fantascienza, il tutto con un tono veloce, interattivo, dinamico, giocoso e ricco di sfumature lontano anni luce dalle lente voci robotiche delle sintesi vocali alle quali siamo abituati.

[CLIP di conversazione con Sesame (leggermente rimontata per brevità):
MAYA: What should I call you?
IO: Uh… my name’s Paul.
MAYA: Nice to meet you, Paul! I’m Maya […] Oh! Radio! Now that’s interesting! It’s like having a direct line to someone’s imagination.
IO: Yep, true, I agree! […] Do you know anything about Star Trek?
MAYA: Star Trek? Of course! Who doesn’t love a good space opera? [ci sarebbe da dissentire sulla correttezza del termine “space opera” per definire Star Trek, ma lasciamo stare] The ethical dilemmas, the cheesy costumes, it’s a classic. Though I have to admit I am partial to the more nuanced, character-driven stories myself – less phaser battles, more pondering the nature of existence, you know?]

Sarà sempre più difficile resistere alle lusinghe e al conforto di un compagno virtuale del genere, che sa fare conversazione meglio di tanti esseri umani, o di un terapista sintetico che ci parla in questo modo, a qualunque ora del giorno e della notte, non si annoia mai di quello che diciamo e ci rinforza nelle nostre credenze invece di spingerci dolcemente a valutarle con spirito critico come è invece addestrato a fare un vero terapista.

Eppure, nonostante tutti questi ammonimenti, gli esperti dicono che c’è molto bisogno di questo genere di software. Vediamo come mai.


L’allarme lanciato dalla American Psychological Association solleva anche un altro problema fondamentale: non ci sono terapisti a sufficienza per soddisfare le richieste degli utenti, e anche se ci fossero, non tutti sono disposti a parlare con un terapista. Inoltre i chatbot possono essere disponibili a qualunque ora, per esempio per gestire un’ansia notturna.

Quindi i chatbot terapisti servono, ma devono essere realizzati con criteri ben diversi da quelli dei chatbot commerciali presenti nei social network e nei servizi di compagnia virtuale. In particolare, secondo gli esperti devono essere supervisionati da una persona esperta, non devono in nessun caso dare risposte pericolose o deleterie e devono indirizzare le persone verso servizi di pronta assistenza psicologica gestiti da esseri umani non appena rilevano sintomi di pericolo. E invece le intelligenze artificiali, per loro natura, tendono a non rispettare i paletti che i loro progettisti tentano di imporre.

Una soluzione a questo problema è evitare l’uso dell’intelligenza artificiale, come ha fatto per esempio Woebot, che usa risposte predefinite, approvate da esperti, per aiutare le persone a gestire lo stress, il sonno e altri problemi. Però Woebot ha annunciato la chiusura dei propri servizi entro il 30 giugno di quest’anno.

Sono in fase di sviluppo anche dei chatbot per la salute mentale che si basano sull’intelligenza artificiale, come per esempio Therabot, ma le ricerche preliminari indicano che comunque per garantire la sicurezza degli utenti è necessaria una supervisione stretta da parte di terapisti e altri esperti qualificati. E resta il fatto che per il momento nessun chatbot, di nessun genere, è stato certificato e approvato dalle autorità sanitarie per la diagnosi, il trattamento o la cura di qualunque disturbo della salute mentale.

Qualunque prodotto attualmente in circolazione sta semplicemente approfittando del vuoto normativo per spacciarsi per quello che non è, e quindi è potenzialmente pericoloso, non ha basi scientifiche e rischia di incoraggiare schemi di pensiero che hanno conseguenze imprevedibili, come nel caso di un diciassettenne al quale Character.ai ha suggerito di uccidere i propri genitori perché gli limitavano il tempo da trascorrere davanti allo schermo.

Una ricerca pubblicata di recente da OpenAI (l’azienda che controlla ChatGPT) e MIT Media Lab indica che “le persone che hanno una tendenza più spiccata a creare un attaccamento nelle relazioni e quelle che vedono l’intelligenza artificiale come un amico che può far parte della loro vita personale sono maggiormente soggette agli effetti negativi dell’uso di un chatbot”. E la ricerca aggiunge che “un uso quotidiano intensivo è associato a esiti peggiori.”

Se questo è quello che dice il venditore di ChatGPT a proposito del proprio prodotto, c’è forse da prestargli ascolto.

Fonti aggiuntive

Using generic AI chatbots for mental health support: A dangerous trend. American Psychological Association, 2025 (copia su Archive.org)

Human Therapists Prepare for Battle Against A.I. Pretenders. New York Times, 2025 (copia su Archive.org)

Instagram’s AI Chatbots Lie About Being Licensed Therapists, Medium.com, 2025 (copia su Archive.org)

How Social Media Algorithm Adds to the Agony of an Already Depressed Person, Medium.com, 2023

People Are Losing Loved Ones to AI-Fueled Spiritual Fantasies, Rolling Stone, 2025

Chatgpt induced psychosis, Reddit, 2025

ChatGPT-induced psychosis: What it is and how it is impacting relationships, Times of India, 2025

How AI Chatbots Affect Our Social and Emotional Wellbeing: New Research Findings, Mit.edu, 2025

Can A.I. Be Blamed for a Teen’s Suicide? New York Times, 2025 (copia su Archive.org)

The (artificial intelligence) therapist can see you now, NPR, 2025

AI Therapy Breakthrough: New Study Reveals Promising Results, Psychology Today, 2025

Se il chatbot di Instagram si spaccia per uno psicologo vero, Zeus News, 2025

Podcast RSI – WhatsApp, gruppi a rischio intercettazione nonostante la crittografia

Questo è il testo della puntata del 12 maggio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP di voce sintetica: “I messaggi e le chiamate sono crittografati end-to-end. Solo le persone in questa chat possono leggerne, ascoltarne o condividerne il contenuto.”]

Circa tre miliardi di persone ogni mese usano WhatsApp [Statista] e vedono questo messaggio rassicurante ogni volta che iniziano una conversazione con un’altra persona tramite questa app.

Tradotto in italiano non tecnico, significa che in sostanza i messaggi e le chiamate vocali fatti tramite WhatApp sono protetti in modo che nemmeno Meta, l’azienda proprietaria di WhatsApp, possa leggerli o intercettarli in transito. Questo per molti è una garanzia di riservatezza estremamente elevata e importante, che induce gli utenti di WhatsApp a sentirsi tranquilli nel fare conversazioni intime e confidenziali tramite questa app, anche in paesi nei quali la libertà di espressione non è garantita dalle leggi e dai governi.

Ma la recente fuga di piani di attacco statunitensi causata dal fatto che un giornalista è stato aggiunto per errore a una chat di gruppo che riuniva molti funzionari di altissimo livello della Casa Bianca e non se ne è accorto nessuno ha dimostrato che c’è una falla sorprendentemente banale in questa protezione. E questa falla è particolarmente sfruttabile per intercettare i messaggi di WhatsApp eludendo completamente la crittografia end-to-end.

Questa è la storia di questa falla e di come conoscerla, capirla ed evitare di esserne vittime. Se usate gruppi WhatsApp per fare conversazioni sensibili, c’è una precauzione semplice ma poco conosciuta e importante da applicare per essere più sicuri da occhi e orecchi indiscreti.

Benvenuti alla puntata del 12 maggio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Quanto è realmente sicura la crittografia che protegge i messaggi di WhatsApp? Un lungo e intricato articolo tecnico [Formal Analysis of Multi-Device Group Messaging in WhatsApp] pubblicato di recente da tre ricercatori di due prestigiose università britanniche, il King’s College e il Royal Holloway dell’Università di Londra, ha esaminato in estremo dettaglio il funzionamento di questa app così popolare e ha confermato che in generale la promessa di non intercettabilità dei contenuti dei messaggi è reale ed efficace.

Scambiare messaggi con una singola persona via Whatsapp è insomma sicuro: i dipendenti di Meta non possono leggere il contenuto di questi messaggi e non possono quindi darlo alle autorità in nessun caso. Possono dare agli inquirenti i metadati, ossia informazioni su chi ha conversato con chi, quando lo ha fatto e per quanto tempo, ma non possono leggere cosa si sono scritti questi utenti.

Tuttavia i ricercatori hanno scoperto che queste garanzie sono molto meno robuste nel caso delle chat di gruppo su WhatsApp, perché questa app, come parecchie altre, protegge crittograficamente le chat di gruppo ma non protegge allo stesso modo la gestione di questi gruppi. Questo vuol dire che chi ha il controllo dei server di WhatsApp può aggiungere di nascosto un utente-spia a un gruppo e quindi leggere tutti i messaggi scambiati dai membri di quel gruppo.

Faccio un esempio pratico per maggiore chiarezza. Anna amministra un gruppo WhatsApp al quale partecipano, come semplici utenti, Bruno, Carla e Davide. In teoria solo Anna, come amministratrice, può aggiungere altri utenti al gruppo. Ma in realtà, secondo i ricercatori, un difetto presente in WhatsApp permette anche a un aggressore di aggiungere al gruppo un utente in più, per esempio Mario, e quindi usare l’account di Mario, che per necessità deve poter leggere tutto, per intercettare facilmente tutte le conversazioni fatte in quel gruppo. L’aggressore potrebbe essere qualcuno che riesce a infiltrarsi dall’esterno nell’infrastruttura di WhatsApp, oppure un dipendente di Meta ficcanaso che per lavoro ha accesso a questa infrastruttura o è costretto dalle autorità a collaborare.

Il difetto di WhatsApp è che non verifica crittograficamente l’identità di un membro esistente di un gruppo quando quel membro manda il comando di aggiungere qualcuno al gruppo. Tutto questo vuol dire, in sostanza, che chiunque riesca a controllare il server che ospita il gruppo o i messaggi ricevuti dal gruppo può spacciarsi per amministratore e aggiungere nuovi membri. WhatsApp annuncerà l’aggiunta, ma non la impedirà.

WhatsApp non è l’unica app di messaggistica che omette questa verifica. Nel 2022 un’analisi tecnica ha dimostrato che anche l’app Matrix* aveva questo difetto.

* Più propriamente, Matrix è un protocollo open source usato da una serie di client e server di messaggistica, come Element, Hydrogen, Chatterbox e Third Room.

Telegram, che molti usano come alternativa a WhatsApp per non dare altri dati personali a Meta, non ha nemmeno la crittografia end-to-end sui messaggi dei gruppi ed è quindi particolarmente vulnerabile in termini di riservatezza delle conversazioni di gruppo [Ars Technica]. Signal, invece, usa correttamente la crittografia per proteggere la gestione dei gruppi.

La falla insomma c’è, ed è seria. Ma all’atto pratico, quali sono i rischi concreti per un utente comune? E Meta cosa intende fare per rimediare?


Come sempre, quando si parla di falle di sicurezza, è importante evitare i sensazionalismi e gli allarmi inutili e definire i rischi reali. Per la stragrande maggioranza degli utenti, le probabilità che qualcuno ci tenga così tanto a leggere i loro messaggi da prendere il controllo di un server di WhatsApp, spacciarsi per amministratore e poi creare un membro fittizio da usare per leggere e salvare tutte le conversazioni fatte in un gruppo sono veramente bassissime. Se non siete per esempio giornalisti o politici o medici che discutono su WhatsApp di argomenti estremamente sensibili, questo tipo di attacco non dovrebbe farvi perdere il sonno. Se lo siete, non dovreste usare WhatsApp per conversazioni su argomenti sensibili, e va ricordato che su Whatsapp, diversamente che su Signal, i membri di un gruppo sono visibili ai partecipanti, agli aggressori informatici e a chiunque abbia un mandato legale.

Se siete utenti comuni mortali, c’è uno scenario molto più plausibile che potrebbe riguardarvi facilmente. Se il gruppo WhatsApp conta molti membri, è facile che l’annuncio dell’arrivo di un nuovo membro non venga notato dagli altri perché è una delle tante notifiche generate dal traffico di messaggi del gruppo. Un amministratore malvagio, pettegolo, colluso o anche in questo caso costretto a collaborare con gli inquirenti potrebbe quindi facilmente aggiungere a un gruppo un membro in più senza che se ne accorga nessuno e permettergli di monitorare l’intero flusso di messaggi del gruppo e tracciare in dettaglio i rapporti tra i partecipanti.

Questa è in effetti una tecnica diffusa di inchiesta giornalistica e di polizia e viene usata anche per raccogliere pettegolezzi e dicerie: è semplice ed elegante e non richiede tentativi di scardinare la crittografia di WhatsApp. Il muro di cinta della crittografia non serve a nulla se la talpa o il sorvegliante o il portinaio pettegolo stanno all’interno di quel muro.

I ricercatori che hanno documentato queste falle di WhatsApp le hanno segnalate all’azienda che gestisce WhatsApp, che ha risposto dicendo che apprezza il loro lavoro e ha ribadito che ogni membro viene notificato quando si unisce un nuovo membro a un gruppo e che è possibile attivare ulteriori notifiche di sicurezza che avvisano se ci sono state variazioni nei codici di sicurezza degli interlocutori. L’azienda ha aggiunto che introduce continuamente nuovi strati protettivi.

Sia come sia, il rischio che la notifica del membro infiltrato passi inosservata nel mare di notifiche nel quale siamo quotidianamente sommersi rimane alto. Difendersi dagli intrusi spetta insomma a noi utenti, che dovremmo controllare una per una le notifiche di nuovi membri e soprattutto verificare le identità di quei membri.


A volte gli intrusi, infatti, entrano per errore, e addirittura senza volerlo. Lo sa bene Mike Waltz, che a marzo scorso, quando era consigliere per la sicurezza nazionale dell’amministrazione Trump, ha creato una chat di gruppo su Signal, l’ha usata per discutere dettagli delle imminenti operazioni militari nello Yemen insieme ad altri esponenti di altissimo livello della sicurezza nazionale statunitense, e non si è reso conto di aver aggiunto per errore al gruppo anche un giornalista, Jeffrey Goldberg, che quindi è venuto a conoscenza di informazioni estremamente sensibili, compreso il nome di un agente della CIA, e ha potuto documentare giornalisticamente non solo l’approccio dilettantesco alla sicurezza di Waltz e degli altri funzionari ma anche le loro parole di disprezzo nei confronti degli alleati europei [Wikipedia].

Come è stato possibile un disastro del genere? Secondo le indagini interne, Mike Waltz avrebbe salvato per errore il numero di telefono del giornalista nella scheda della propria rubrica telefonica dedicata al portavoce della Casa Bianca Brian Hughes, e poi avrebbe aggiunto alla chat supersegreta quello che pensava fosse appunto il portavoce. Ma l’errore fondamentale, a monte, è stato l’uso di un’applicazione non approvata dal Pentagono per discutere piani militari delicatissimi, e soprattutto usarne una versione particolare modificata, che è stata analizzata dagli esperti esterni al governo statunitense e ha rivelato ulteriori, interessanti problemi di sicurezza che è riduttivo definire imbarazzanti. Ma questa è un’altra storia, per un’altra puntata.

Podcast RSI – Intelligenze artificiali imposte a forza in WhatsApp, Word, Google: come resistere e perché

Questo è il testo della puntata del 28 aprile 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: voce di Schmidt che dice “[…] people are planning 10 gigawatt data centers […], an average nuclear power plant in the United States is one gigawatt. How many nuclear power plants can we make in one year while we’re planning this 10 gigawatt data center? […] data centers will require an additional 29 gigawatts of power by 2027 and 67 more gigawatts by 2030”] [Trascrizione integrale su Techpolicy.press; video su YouTube; spezzone dell’intervento su Instagram]

Questa è la voce di Eric Schmidt, ex amministratore delegato di Google, durante un’audizione davanti a una commissione per l’energia della Camera dei rappresentanti degli Stati Uniti, il 9 aprile scorso. Schmidt spiega che sono in corso di progettazione dei data center, vale a dire dei centri di calcolo per supportare l’intelligenza artificiale, che consumeranno 10 gigawatt ciascuno, ossia l’equivalente di dieci centrali nucleari. Il fabbisogno energetico stimato della IA, continua Schmidt, è di 29 gigawatt entro il 2027 e di altri 67 entro il 2030.

La sua domanda su quante centrali nucleari si possano costruire ogni anno per placare questa fame di energia è ovviamente abbastanza retorica, ma il suo intervento solleva una questione molto concreta. Quanta energia che servirebbe altrove stiamo bruciando per l’intelligenza artificiale? E di preciso, cosa stiamo ottenendo in cambio concretamente? Siamo sicuri che ne valga veramente la pena? Perché accanto a risultati interessanti e positivi in alcune nicchie, continuano ad accumularsi gli esempi di stupidità asinina di questa tecnologia e di figuracce da parte delle aziende che la adottano con eccessiva euforia.

Eppure i grandi nomi del settore informatico insistono a includere a forza la IA in tutti i loro prodotti, da Google a WhatsApp a Word, anche se gli utenti non l’hanno chiesta e in alcuni casi proprio non la vogliono, come è appena avvenuto appunto per WhatsApp.

Questa è la storia di alcuni di questi esempi e delle tecniche concrete che si possono adottare per resistere a un’avanzata tecnologica che per alcuni esperti è un’imposizione invadente e insostenibile.

Benvenuti alla puntata del 28 aprile 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Nella puntata del 24 marzo scorso ho già raccontato alcune delle stupidaggini enunciate con elettronica certezza dalle intelligenze artificiali sulle quali si stanno investendo montagne di miliardi. Ho citato per esempio il fatto che secondo la IA di Google, la trippa è kosher o meno a seconda della religione della mucca dalla quale proviene. Ora gli utenti hanno scoperto un’altra bizzarria fuorviante e ingannevole di questo software: se si chiede a Google il significato di un’espressione o di un modo di dire in inglese, il motore di ricerca spesso risponde mettendo in primo piano una spiegazione completamente falsa, inventata dall’intelligenza artificiale, e solo dopo elenca i normali risultati di ricerca.

Ma l’utente medio non ha modo di sapere che la spiegazione è totalmente sbagliata. Si rivolge appunto a Google perché non conosce quel modo di dire e non è un linguista esperto, e quindi tende a fidarsi di quello che Google gli dice. Anche perché glielo dice con enfatica autorevolezza, con tanto di link a fonti, che esistono ma in realtà dicono tutt’altro.

E così secondo Google esisterebbe per esempio in inglese il modo di dire “l’oritteropo abbassa lo sguardo sempre per primo”, che stando alla IA significherebbe che una persona di un certo tipo tende ad arrendersi facilmente se viene sfidata. Sempre Google afferma che in inglese si dice “non puoi leccare due volte un tasso” per indicare che non si può ingannare due volte la stessa persona, e si dice “c’è sempre una mangusta in ogni aula di tribunale” per riferirsi a una strategia legale adottata da alcuni avvocati [Bluesky]. È tutto falso; è tutta un’allucinazione generata dal modo in cui funziona l’intelligenza artificiale.

Un altro modo di dire inglese che non esiste se non nell’energivora fantasia di silicio della IA di Google è “quando l’ape ronza, le fragole cadono”. So che non esiste perché l’ho inventato io pochi minuti fa per questo podcast. Ma se chiedo lumi all’intelligenza artificiale di Google questa frase è un saying, ossia un modo di dire esistente e usato, e rappresenterebbe “l’importanza delle api nell’impollinazione e nella successiva maturazione dei frutti come appunto le fragole”. Lasciamo stare il fatto che la fragola non è un frutto nel senso botanico del termine (se volete sapere perché, la spiegazione è su Wikipedia): quello che conta è che l’utente si rivolge a Google per avere informazioni e invece ne ottiene sistematicamente una bugia che rischia di non saper riconoscere come tale.

Ma quello che conta ancora di più è che quell’utente ora si ritrova in cima ai risultati di ricerca una risposta generata dalla IA, che la voglia o no. E quindi ogni ricerca fatta su Google consuma molta più energia di prima.

È difficile dire quanta, perché ci sono tantissime variabili da considerare, ma il CEO di OpenAI, Sam Altman, ha scritto semiseriamente su X che già solo dire “per favore” e “grazie” a ChatGPT costa alla sua azienda decine di milioni di dollari in energia elettrica per elaborare le risposte a questi gesti di cortesia. Secondo una ricerca del Washington Post, far generare a una IA una cinquantina di mail lunghe 100 parole ciascuna consuma circa 7,5 kWh: quanto basta per fare grosso modo quaranta chilometri in auto elettrica.

L’unico modo pratico per evitare di contribuire a questo spreco di energia indesiderato e spesso inutile è usare un motore di ricerca alternativo privo di intelligenza artificiale o nel quale sia possibile disattivare le funzioni basate su IA, come per esempio DuckDuckGo [istruzioni; link diretto alle impostazioni].

In questo caso, insomma, l’intelligenza artificiale fornisce un disservizio, inganna gli utenti e spreca energia. Ma può anche fare molto di più: per esempio può danneggiare l’azienda che la usa. E se l’azienda in questione è una di quelle legate a doppio filo all’intelligenza artificiale, l’ironia della situazione diventa particolarmente vistosa.


Cursor.com è una delle principali aziende che sta cavalcando la popolarità dell’intelligenza artificiale come assistente per la scrittura rapida di software. Una decina di giorni fa, uno dei clienti di Cursor.com, uno sviluppatore di software, ha notato che non era più possibile collegarsi al sito dell’azienda da più di un dispositivo, cosa che invece prima si poteva fare. Gli sviluppatori lo fanno spessissimo per necessità di lavoro.

Il cliente ha contattato l’assistenza clienti di Cursor.com, e un assistente che si faceva chiamare Sam gli ha risposto via mail che questa situazione era normale e prevista, perché era dettata da una nuova regola legata a esigenze di sicurezza e ora serviva un abbonamento distinto per ciascun dispositivo. Ma la regola non esisteva: se l’era inventata Sam, che come avrete sospettato è un’intelligenza artificiale. Una IA che fra l’altro non dichiarava di essere una macchina e si spacciava per una persona.

Il cliente ha segnalato inizialmente la novità apparente su Reddit, e così molti altri utenti sviluppatori di Cursor.com, indignati per la grave riduzione dell’usabilità del software comportata da questa regola, hanno disdetto i loro abbonamenti, annunciando pubblicamente la loro decisione e spargendo la voce.

Ci sono volute tre ore prima che qualcuno di Cursor.com, una persona in carne e ossa, intervenisse e spiegasse che la nuova regola non esisteva e che si trattava di “una risposta inesatta data da un bot di supporto pilotato dalla IA”. Uno dei cofondatori dell’azienda ha chiesto pubblicamente scusa e il cliente che aveva segnalato inizialmente la situazione è stato rimborsato. Ma resta il fatto che Cursor.com non aveva avvisato gli utenti che l’assistenza clienti di primo livello era fatta da un’intelligenza artificiale e anzi dava alla sua IA un nome di persona. Anche qui, l’intelligenza artificiale veniva imposta agli utenti senza ma e senza se.

È particolarmente ironico che un’azienda che vive di intelligenza artificiale e che fa soldi vendendo strumenti di miglioramento della produttività basati su IA sia stata tradita dal proprio eccesso di fiducia in questa tecnologia, che ha fatto ribellare i suoi utenti chiave, esperti di informatica. E la lezione di fondo, per qualunque azienda, è che esporre verso i clienti un chatbot che genera risposte usando l’intelligenza artificiale comporta un rischio reputazionale altissimo; prima o poi quella IA avrà una cosiddetta allucinazione e produrrà una risposta falsa e dannosa [Ars Technica].

E i campioni in fatto di esposizione al pubblico di intelligenze artificiali sono i motori di ricerca come Google e i servizi conversazionali di IA come ChatGPT, Claude o Perplexity. O perlomeno lo sono stati fino a pochi giorni fa, quando sono stati spodestati dall’introduzione di un servizio di intelligenza artificiale in WhatsApp e altre applicazioni. Nelle prossime settimane, circa due miliardi e mezzo di persone in tutto il mondo si troveranno imposto a forza il servizio di IA di Meta.


Se avete notato un cerchio blu nel vostro WhatsApp, in Facebook Messenger o in Instagram, avete già ricevuto l’intelligenza artificiale di Meta: un chatbot che risponde alle vostre domande usando la IA gestita dall’azienda di Mark Zuckerberg. Come tutte le intelligenze artificiali, genera risposte che possono essere completamente sbagliate ma superficialmente plausibili, e questo Meta lo dice nel lungo messaggio di avviso che compare la prima volta che si avvia Meta AI (si chiama così).

Il problema è che questa intelligenza artificiale di Meta non è disattivabile o rimovibile: è imposta. Certo, Meta dichiara che Meta AI non può leggere le vostre conversazioni, quindi basterebbe ignorarla e far finta che non ci sia. Ma la tentazione è forte, e miliardi di persone che non hanno mai interagito con una IA e non ne conoscono pregi e limiti proveranno a usarla, senza leggere le avvertenze in molti casi, e crederanno che sia attendibile.

Quelle avvertenze, fra l’altro, sconsigliano di “condividere informazioni, anche sensibili, su di te o altre persone che non vuoi che l’IA conservi e utilizzi”, e dicono che “Meta condivide le informazioni con partner selezionati”. E in una mail separata, che moltissimi non leggeranno, Meta avvisa che userà le informazioni pubbliche degli utenti, “come commenti e post dagli account di persone di almeno 18 anni sulla base degli interessi legittimi.”

In altre parole, qualunque conversazione fatta con questa IA, qualunque domanda di natura medica, qualunque richiesta di informazioni su qualunque persona, argomento, prodotto o servizio verrà digerita dalla IA di Meta e venduta ai pubblicitari. Cosa mai potrebbe andare storto? [BBC]

È vero che Meta specifica, sempre nella mail separata, che ogni utente ha il diritto di opporsi all’uso delle sue informazioni. Ma quanti sapranno di questo diritto? E di questi, quanti lo eserciteranno? E soprattutto, ancora una volta, all’utente viene imposto un servizio di intelligenza artificiale potenzialmente ficcanaso e spetta a lui o lei darsi da fare per non esserne fagocitato.

Lo stesso tipo di adozione forzata si vede in Word e Powerpoint e in generale nei prodotti Microsoft: tutti integrano Copilot, la IA dell’azienda, e gli utenti devono arrabattarsi, spesso con modifiche molto delicate e poco ortodosse di Windows, se non vogliono avere tra i piedi l’onnipresente icona di Copilot. Bisogna per esempio modificare delle voci nel Registro oppure adottare una versione particolare di Windows 10 garantita fino al 2032 [The Register].

La domanda di fondo, dopo questa carrellata di esempi, è molto semplice: se l’intelligenza artificiale generalista è davvero un’invenzione così efficace e utile agli utenti come viene detto dai suoi promotori, perché le aziende sentono il bisogno di imporcela invece di lasciare che siamo noi a scegliere di adottarla perché abbiamo visto che funziona?

Ho provato a fare questa domanda a ChatGPT, e la sua risposta è stata particolarmente azzeccata e rivelatrice: “L’adozione forzata dell’IA” dice ChatGPT “non nasce tanto dal fatto che non funziona, ma piuttosto da dinamiche di potere, controllo del mercato, gestione dell’innovazione e tentativi di plasmare le abitudini degli utenti. Ma la vera prova di efficacia dell’IA sarà quando gli utenti vorranno usarla non perché devono, ma perché vogliono.”

So che in realtà sta semplicemente usando le parole chiave della mia domanda per rispondermi in modo appagante. Ma lo sta facendo dannatamente bene. Resistere alle sue lusinghe di instancabile yesman sarà davvero difficile. Prepariamoci.