Vai al contenuto

Podcast RSI – Dietro le IA c’è manodopera africana sfruttata

Questo è il testo della puntata del 13 aprile 2026 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio di Michael Geoffrey Asia da https://www.youtube.com/watch?v=QH654YPxvEE]

È la voce di Michael Geoffrey Asia, un uomo che vive in Kenya e per cinque anni ha fatto data labeling per lavoro: ha annotato, etichettato e descritto immagini e video da dare in pasto alle intelligenze artificiali per addestrarle.

Ne è uscito distrutto psicologicamente, come tanti uomini e tante donne del suo Paese, perché per questo lavoro ha dovuto descrivere minuziosamente immagini e video raccapriccianti, che mostravano incidenti mortali, uccisioni, abusi, violenze e altri orrori, per ore di fila, in una sorta di moderna Arancia meccanica. Perché un’intelligenza artificiale commerciale come ChatGPT o Gemini, per funzionare, ha bisogno di saper riconoscere anche queste cose, e quindi qualcuno gliele deve mostrare e spiegare in dettaglio.

Questa è la storia del lato oscuro delle IA che tutti usiamo con leggerezza: dietro la luccicante, asettica facciata dei miliardari della Silicon Valley ci sono lavoratori sottopagati e privi di qualunque sostegno psicologico, costretti a vedere cose che nessun essere umano dovrebbe subire. Michael Geoffrey Asia è una delle persone che stanno cercando, con fatica, di contrastare questo sfruttamento.

Benvenuti alla puntata del 13 aprile 2026 del Disinformatico, il podcast mensile della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il data labeling, o etichettatura dei dati, sembra un argomento tedioso, un dettaglio trascurabile delle tecnologie che stanno alla base delle intelligenze artificiali, ma non è così.

In sintesi, le IA “imparano” (per così dire) a riconoscere gli oggetti del mondo reale perché qualcuno fornisce loro un numero enorme di immagini accuratamente etichettate: questo è un gattino accucciato su un ramo di un albero, questo è un semaforo stradale che segna rosso per i pedoni, queste sono persone in costume da bagno che mangiano un gelato, e così via.

A differenza degli esseri umani, le intelligenze artificiali hanno bisogno di moltissimi esempi prima di riuscire a generalizzare un concetto di oggetto. Un bambino vede un gatto per la prima volta ed è subito in grado di riconoscere qualunque altro gatto in qualunque situazione. Invece per insegnare a un’intelligenza artificiale come riconoscere una persona, per esempio, bisogna mostrarle immagini di bambini e di adulti, in tante posizioni e situazioni differenti, con lineamenti e colori della pelle diversi, con abbigliamenti di ogni sorta, di giorno e di notte, al coperto e all’aperto, eccetera eccetera.

I casi possibili sono molto più numerosi di quello che immaginiamo normalmente: per esempio, una IA potrebbe non riconoscere come persona un uomo che porta un bambino in braccio o sulle spalle, una donna che ha un braccio solo, un tifoso che si è dipinto la faccia con i colori della squadra del cuore, un soccorritore accucciato, un vigile che dirige il traffico, un ragazzo su una sedia a rotelle oppure una donna con il volto insanguinato dopo un incidente notturno.

Un’etichettatura imprecisa o incompleta può avere delle conseguenze reali terribili. Pensiamo per esempio alle auto a guida assistita o autonoma, nelle quali l’intelligenza artificiale deve riconoscere gli oggetti inquadrati dalle telecamere del veicolo per consentire al sistema di guida di decidere correttamente come comportarsi. Davanti all’auto c’è un pedone, o si tratta di un’immagine pubblicitaria sul retro di un furgone? Quella sagoma sull’asfalto è un telo caduto da un camion o è una persona ferita o incosciente? Un errore di riconoscimento potrebbe costare la vita a qualcuno.

Tutto questo lavoro meticoloso di etichettatura deve essere svolto da esseri umani. Non può essere delegato a un’intelligenza artificiale se non in piccolissima parte. E deve continuare nel tempo, perché oltre all’etichettatura delle immagini per l’addestramento delle IA c’è anche quella per la moderazione dei contenuti dei social network. Ogni giorno milioni di utenti irresponsabili tentano di postare immagini inaccettabili sui social, dalle decapitazioni agli abusi su minori alle torture; i filtri automatici e gli utenti possono segnalarle, ma poi qualcuno in carne e ossa deve valutarle professionalmente.

Nel 2024 il Guardian ha segnalato il caso di Mercy, moderatrice di contenuti di Meta (quindi Facebook, Instagram e Threads) presso un’azienda esterna che ha sede a Nairobi. Faceva turni di dieci ore ed era tenuta a risolvere un caso ogni 55 secondi. Un giorno le è capitato un video di un incidente stradale, segnalato come inaccettabile da un utente su Facebook per la sua natura violenta e macabra. Mercy doveva valutare se il video violasse o meno le regole sui contenuti di questo social network. A un certo punto si è accorta che la vittima era suo nonno. I suoi datori di lavoro le hanno concesso una pausa per contattare i membri della sua famiglia, ma poi le hanno detto di proseguire il turno se voleva raggiungere la propria quota giornaliera. Sul suo schermo sono apparsi altri video da moderare: mostravano ancora suo nonno, con altre immagini dell’auto e delle quattro persone morte nell’incidente.

Come Mercy, ci sono ogni giorno migliaia di lavoratori e lavoratrici, in molti Paesi africani, che sono sottoposti a un flusso continuo di immagini orrende di ogni genere: suicidi, torture, stupri. Non possono semplicemente dare un’occhiata a queste immagini: devono descriverle dettagliatamente, in modo che le intelligenze artificiali possano poi riconoscerle e integrarle. E devono guardare ogni video fino in fondo, perché nel finale potrebbe mostrare cose ancora peggiori di quelle che hanno già visto nella sua parte iniziale.

Dietro la magia dell’intelligenza artificiale c’è insomma la sofferenza di chi deve ripulire la fogna della morbosità umana.


So direttamente cosa significa essere esposti a contenuti di questo genere. Negli anni in cui mi sono occupato delle teorie cospirazioniste intorno agli attentati dell’11 settembre 2001 ho dovuto visionare le immagini dei corpi dilaniati di quel giorno: quelli degli occupanti degli aerei dirottati e quelli delle vittime negli edifici colpiti. Tutte persone che, secondo certi complottisti, non esistevano o erano attori e attrici pagati per simulare. Nelle mie perizie informatiche ho visto e analizzato immagini di abusi irriferibili. Come chiunque lavori nel pronto soccorso o nelle forze di polizia, ho assistito a cose che non riesco a dimenticare. L’idea di passare ore ogni giorno ad annotare minuziosamente contenuti di questo tipo per lavoro, al ritmo minimo di cinquecento casi al giorno, è assolutamente inimmaginabile.

Le conseguenze psicologiche su chi lavora nel data labeling e nella moderazione dei contenuti dei social network sono pesantissime. I casi di disturbi post-traumatici da stress non si contano. E il loro ambiente di lavoro è a dir poco orwelliano: uno speciale software sorveglia ogni loro clic, ogni loro gesto. Chi corre via dalla propria scrivania perché non ce la fa più a vedere l’ennesimo video di violenza estrema viene rimproverato perché non ha immesso nel proprio computer il codice che indica che si sta prendendo una pausa.

Chi ha lavorato nel campo della moderazione dei siti pornografici e della classificazione dei loro video per addestrare le intelligenze artificiali specializzate in questi contenuti e per creare partner intimi virtuali o sexbot pilotati dalla IA, ha segnalato una desensibilizzazione che ha avuto ricadute pesanti sulla sua vita intima.

Michael Geoffrey Asia ha inoltre rivelato che dietro molti di questi sexbot ufficialmente controllati da intelligenze artificiali si nascondono persone reali che fingono di essere sofisticate intelligenze artificiali.

Le aziende che si buttano nel mercato dell’IA facendo finta di avere un prodotto maturo e affidabile che in realtà non hanno sono tante. Per esempio, nel 2014 furono presentati numerosi assistenti personali ufficialmente basati su intelligenze artificiali, come X.ai o Clara, ma che in realtà usavano persone che fingevano di essere delle IA che fingevano di essere persone [Bloomberg].

In tempi più recenti, a marzo 2026 Tesla ha ammesso [Wired] che i suoi robotaxi, ufficialmente guidati dall’intelligenza artificiale, dispongono in realtà di operatori remoti che possono (cito) “assumere temporaneamente il controllo diretto del veicolo” (a bassa velocità) se il software di bordo non riesce a risolvere una situazione. Altre aziende che gestiscono flotte analoghe di taxi, come Waymo e Zoox di Amazon, hanno assistenti remoti che non prendono direttamente il volante ma si limitano, si fa per dire, a indicare al veicolo cosa fare. Però questi assistenti remoti umani, nel caso di Waymo, stanno nelle Filippine. E tutte queste aziende sono molto reticenti a fornire dati precisi sul numero di questo interventi manuali, perché questo toglierebbe l’aura di fascino magico intorno ai loro prodotti e rivelerebbe quanto sono in realtà limitate le loro intelligenze artificiali tanto magnificate.

Un’altra conseguenza di questo modo di commercializzare i prodotti inghirlandandoli con la sigla magica “IA” è che molti utenti credono che le loro interazioni con questi software siano private, perché gestite interamente da computer, e i computer non giudicano, non criticano. Ma in realtà l’intervento umano c’è quasi sempre e quindi i video, per esempio, non sono affatto privati: come ho raccontato nella puntata precedente di questo podcast, anche dietro gli attuali occhiali “smart” di Meta ci sono degli operatori umani, che in molti casi vedono le immagini riprese da questi dispositivi e le etichettano. Questi operatori lavorano per aziende come Sama, in Kenya, su incarico di Meta. Sama è una delle aziende di data labeling per le quali ha lavorato Michael Geoffrey Asia.


Asia adesso ha smesso di lavorare per queste società. È segretario generale di un’organizzazione chiamata Data Labelers Association, che cerca di coordinare i lavoratori del settore per ottenere paghe meno da fame, supporto psicologico decente e l’eliminazione degli NDA o non-disclosure agreement, ossia le clausole capestro dei contratti di lavoro del settore che vietano ai dipendenti di rivelare qualunque informazione riguardante le attività aziendali e creano una cultura della paura che genera omertà intorno a questo sfruttamento.

Come nota un’inchiesta giornalistica di 404media uscita poche settimane fa, i data labeler addestrano, affinano e moderano i prodotti generati dagli strumenti di intelligenza artificiale venduti dalle più grandi aziende del mondo, eppure sono paurosamente sottopagati e non hanno beneficiato in alcun modo delle valutazioni sempre più stratosferiche di queste aziende. Ora hanno avviato azioni legali per chiedere parità di diritti invece di trattamenti che sanno di neocolonialismo digitalizzato.

È indubbio che questo lavoro debba essere fatto da qualcuno, ma come dice Asia, cosa c’è di così difficile nel fornire almeno supporto psicologico alle persone che trattano contenuti traumatizzanti? Ad Apple, Meta, Amazon, Microsoft e Google non mancano certo le risorse economiche per farlo.

L’intelligenza artificiale, insomma, non è “uno strumento magico costruito da persone a San Francisco che guadagnano milioni di dollari l’anno e portano le proprie aziende ad avere valutazioni di mercato pazzesche. È una tecnologia estrattiva, come una miniera, che si appoggia sulla fatica brutale di lavoratori sottopagati in tutto il mondo”, dice 404media, e di cui si cerca di non parlare perché le loro sofferenze guasterebbero l’immagine patinata del mondo hi-tech.

Per dirla con Michael Geoffrey Asia: “L’IA non può essere senza gli esseri umani. Non è intelligenza artificiale: è intelligenza africana.”

Ricordiamocene, la prossima volta che Elon Musk o Mark Zuckerberg o Sam Altman annunciano la “loro” nuova innovazione.

Podcast RSI – Occhiali “smart” di Meta: operatori vedono immagini intime degli utenti

Ultimo aggiornamento: 2026/03/11 13:00.

Questo è il testo della puntata del 9 marzo 2026 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.

CORREZIONE: nel podcast dico che l’app Nearby Glasses è disponibile anche per smartphone Apple. Non è così. Ho corretto il testo qui sotto. Mi scuso per l’errore.


[CLIP: Zuckerberg presenta gli occhiali di Meta e Ray-Ban]

È la voce di Mark Zuckerberg, che alcuni mesi fa ha presentato gli occhiali “smart” di Meta*, dotati di minischermo integrato, microfoni per ascoltare i comandi dell’utente, altoparlanti per sussurrargli informazioni, e minuscole telecamere. E ovviamente dotati anche di intelligenza artificiale, che arriva via Internet tramite lo smartphone. Sono in vendita anche da noi a partire da circa 350 franchi, lenti correttive escluse.

* Meta ha adottato il termine “AI Glasses” anche in italiano nel proprio materiale promozionale.

Secondo Zuckerberg, questi occhiali, abbinati a un braccialetto che rileva i movimenti del polso, permetteranno di fare a meno del computer. In effetti basta dire a questi occhiali “Ehi Meta, fai una foto” per scattare una fotografia presa dallo stesso punto di vista dell’utente. Altri comandi vocali e gestuali consentono di scrivere messaggi, identificare e descrivere oggetti, tradurre conversazioni in tempo reale, e così via, in maniera praticamente invisibile.

Ma questa invisibilità significa che questi occhiali vengono anche usati dai molestatori per fare riprese abusive in luoghi privati e intimi, passando inosservati perché la gente non si aspetta che degli occhiali dall’aria assolutamente normale includano una telecamera e non sa che con poca spesa è anche possibile disattivare la loro lucina che avvisa che è in corso una ripresa.

Oltretutto Meta vuole offrire anche un servizio di identificazione delle persone inquadrate, che ovviamente permette a chi ha buone intenzioni di fingere di ricordarsi che vostra zia si chiama Adalgisa ma consente ai malintenzionati di identificare in massa e automaticamente tutte le persone che inquadrano con questi occhiali.

Anche la privacy di chi li usa è a rischio, perché l’audio e le immagini che questi occhiali acquisiscono in continuazione non sono privati: spesso vengono visti dai dipendenti delle aziende incaricate da Meta di fare monitoraggio della qualità del servizio.

Questa è la storia della nuova generazione di occhiali “smart”, dei loro pro e contro, e dell’app che permette di sapere se qualcuno nelle nostre vicinanze li sta usando, per tentare di capire se questo sarà il prossimo gadget universalmente desiderabile oppure un flop o, peggio ancora, una trappola.

Benvenuti alla puntata del 9 marzo 2026 del Disinformatico, il podcast mensile della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Se sentite nominare occhiali “smart” e vi viene in mente ancora Google Glass, il prodotto presentato appunto da Google nel 2012 in pompa magna ma scomparso tre anni più tardi, aggiornate subito la vostra immagine mentale. Gli occhiali computerizzati presentati da Meta insieme a marchi come Ray-Ban e Oakley a settembre 2025 sono completamente diversi. Non c’è più quell’ingombrante, antiestetico braccetto che sporgeva davanti a una delle lenti e faceva sembrare chi lo indossava una sorta di impresentabile incrocio fra un orafo cyberpunk e un Borg di Star Trek. Gli occhiali smart di oggi sembrano dei normali occhiali, con una montatura e delle astine leggermente più corpose rispetto a quelle tradizionali, ma niente di più.

In quelle astine e in quelle montature c’è di tutto: una batteria, un touchpad, una serie di microfoni, due minialtoparlanti, due telecamere, i processori che elaborano e smistano tutti i dati generati e ricevuti dagli altri componenti, e un trasmettitore e ricevitore Bluetooth per comunicare con lo smartphone. Questi occhiali “smart” pesano solo un ventina di grammi in più rispetto a quelli tradizionali equivalenti.

Non sono autonomi: dipendono appunto dallo smartphone per connettersi a Internet, e il grosso dell’elaborazione dei dati avviene sui computer remoti di Meta, non localmente. Se non c’è Internet, se non c’è campo o se lo smartphone è scarico, gli occhiali “smart” perdono quasi tutte le loro funzionalità.

Ma quando tutto funziona, questi occhiali fanno cose davvero notevoli: diventano l’interfaccia alternativa dello smartphone. Il telefono rimane in tasca o nella borsetta, e invece si scattano foto, si fanno video, si fanno scorrere i messaggi social, si risponde alle telefonate direttamente dagli occhiali, si chiede a voce di riconoscere un fiore o un quadro o qualunque altro oggetto (o anche una persona), si ottengono indicazioni visive di quale direzione prendere per raggiungere una certa destinazione. E con il braccialetto che rileva i movimenti della mano diventa possibile scrivere su una tastiera virtuale o addirittura scrivere tracciando con un dito la forma delle singole lettere, tenendo la mano in tasca. L’ideale per inviare un messaggio con discrezione senza far vedere che si tira fuori il telefono.

C’è di più: le telecamere negli occhiali possono diventare gli occhi delle persone ipovedenti o cieche, grazie a servizi come Be My Eyes, che usano un mix di intelligenza artificiale e di volontari per fornire assistenza visiva remota. I microfoni possono ascoltare una conversazione e passarla via Internet a sistemi di riconoscimento vocale, per far comparire istantaneamente sullo schermo degli occhiali i sottotitoli di un film o di una conversazione, aiutando così chi ha problemi di udito. L’audio può essere anche inviato a sistemi di traduzione automatica, per fornire quasi in tempo reale la trascrizione tradotta di quello che viene detto.

Insomma, gli usi positivi di certo non mancano, ed è indubbiamente comodo avere un assistente che vede e sente tutto quello che facciamo e può aiutarci in ogni momento, perché lo abbiamo letteramente già addosso, e non è vistoso e antiestetico. E infatti, nonostante il prezzo non regalato, gli occhiali “smart” si vendono bene. EssilorLuxottica, il fabbricante di questi prodotti di Meta, ha dichiarato di averne piazzati oltre sette milioni di esemplari nel 2025, in aggiunta ai due milioni venduti in totale nei due anni precedenti [CNBC].*

* Oltre a Meta, prodotti analoghi sono proposti o in fase di sviluppo da parte di Snapchat e Google.

Ma proprio le loro caratteristiche favorevoli più evidenti sono anche le più problematiche.


Questi occhiali “smart” potenziati con l’intelligenza artificiale hanno l’aspetto di occhiali normali e quindi passano inosservati. Questo vuol dire che è facilissimo abusarne per effettuare riprese di nascosto, anche perché a differenza del telefono, che va estratto e puntato, le telecamere integrate in questi occhiali sono già nella posizione di ripresa perfetta, ossia accanto agli occhi dell’utente. Chi vuole fare riprese non fa nessun gesto rivelatore, ma si limita a dire a bassa voce agli occhiali di iniziare a registrare un video, oppure tocca leggermente il touchpad presente sull’astina. Tutto qui.

E la lucina a LED che si illumina quando inizia una ripresa video è facile da disabilitare, tanto che le istruzioni per farlo sono su YouTube. In alcuni casi è sufficiente un banale tappino adesivo sagomato, nonostante Meta abbia progettato i propri occhiali in modo che non funzionino se la spia luminosa è coperta [404 media, paywall].

Gli abusi di questo genere non si sono fatti attendere [CNN; Yahoo]*. TikTok, Instagram e altre piattaforme social sono pieni di video in cui un uomo attacca bottone con una donna e riprende le sue reazioni alle avances senza chiederle il permesso di riprenderla e men che meno di postare il suo volto sui social. Questi video ottengono migliaia e a volte milioni di visualizzazioni e quindi portano denaro a chi li pubblica; sono diventati una moda e un fenomeno di massa.

* La BBC segnala un caso risalente al 2019: un ginecologo britannico ha usato occhiali con telecamera incorporata per riprendere di nascosto una donna mentre faceva sesso con lui e poi l’ha ricattata. È stato processato e condannato a 14 mesi di carcere. Sempre la BBC nel 2024 riferisce di un altro caso di abuso di occhiali dotati di telecamera.

Questi uomini credono di avere il diritto di fare riprese di nascosto a persone specifiche, perché sono in un luogo pubblico (ma la legge di quasi tutti i paesi dice il contrario). Questi uomini considerano le donne che abbordano come oggetti da monetizzare, ai quali quindi non ritengono di dover chiedere consensi o permessi. L’idea che una donna non voglia essere mostrata a milioni di persone e poi essere bersagliata da commenti misogini o diventare vittima di stalking non li sfiora nemmeno [BBC]. E i social network, invece di vietare e rimuovere questi tipi di video, li promuovono. Siamo arrivati alla monetizzazione delle molestie.

TikTok Screenshot of the video of Oonagh from TikTok. She is crossing the road in and is engaged in a conversation. The video is filmed from the perspective of the person she is talking to.
Una donna ripresa da degli occhiali “smart”. Il video ha avuto oltre un milione di visualizzazioni su TikTok [BBC].

Gli occhiali “smart” sono insomma una manna dal cielo per questi uomini e un pericolo nuovo e ulteriore per le donne, che adesso dovranno cominciare a chiedersi se ogni interazione con una persona che non conoscono sia una ripresa nascosta che verrà pubblicata sui social. E il pericolo aumenterà a dismisura se, come sembra, Meta aggiungerà il riconoscimento facciale ai propri dispositivi indossabili [New York Times]. Se oggi una vittima può in parte proteggersi evitando di dare il proprio nome o altri dati personali a uno sconosciuto, con l’arrivo del riconoscimento facciale il molestatore avrà direttamente tutti i dati che gli servono, dal nome al numero di telefono all’indirizzo di casa e di lavoro, gentilmente forniti da Meta.


Anche senza arrivare a questi livelli di patetica misoginia, ci sono moltissime situazioni comuni nelle quali andare in giro con degli occhiali in grado di fare riprese di nascosto è inaccettabile o addirittura illegale. Basta pensare a luoghi come studi medici, ospedali, scuole, spogliatoi: qualunque spazio nel quale ci sia la ragionevole presunzione che non ci siano telecamere o microfoni che filmano e ascoltano.

Paradossalmente, a febbraio scorso persino il personale di Meta è stato colto a indossare questi occhiali in un tribunale californiano, dove le riprese sono vietate, ed è stato quindi ammonito dal giudice durante un’audizione di Mark Zuckerberg, che era stato convocato come testimone di un processo nel quale Meta e YouTube sono accusati di creare dipendenza nelle persone giovani. Il solo fatto di averli addosso, quindi in sostanza di aver attaccata alla faccia una telecamera puntata e pronta a filmare, è percepito come un rischio, un atto ostile. Se decidete di indossare un oggetto di questo genere, anche con le migliori intenzioni, potreste essere visti come potenziali molestatori o ficcanaso.

L’uso di questi occhiali rischia di essere problematico anche durante la guida, dove la comparsa di messaggi e immagini davanti a un occhio potrebbe essere interpretata come intralcio alla vista e distrazione dalla conduzione del veicolo. A scuola, i docenti che adesso tribolano per far rispettare i sempre più diffusi divieti di uso del telefonino nelle sedi scolastiche vedranno complicarsi ulteriormente questo compito, anche perché questi occhiali possono montare lenti correttive e quindi non si può semplicemente chiedere a una persona di toglierseli e metterli via come si fa con lo smartphone. Inoltre controllare che siano effettivamente spenti o inattivi non è affatto intuitivo.*

* Futurism cita il caso di una donna che è andata in un centro estetico per una depilazione intima e si è accorta che la sua estetista indossava occhiali “smart” di Meta. Ha protestato per la situazione, ma l’estetista ha detto che gli occhiali erano spenti e li doveva indossare perché hanno lenti correttive.

E questo è un problema che riguarda anche gli utenti di questi occhiali. Un’indagine svolta da due giornali svedesi [Svenska Dagbladet, Göteborgs-Posten] in collaborazione con un giornalista kenyota [Naipanoi Lepapa] denuncia che le immagini e le registrazioni audio acquisite dagli utenti degli occhiali “smart” sono state viste dai dipendenti di Sama, una società con sede in Kenya che opera in subappalto per conto di Meta e fa la cosiddetta annotazione dei video (una sorta di catalogazione dei contenuti).

Fra le cose personali viste da questi dipendenti, dice l’indagine, ci sono riprese di attività sessuali, persone che si svestono, persone che usano la toilette, inquadrature di carte di credito e di video pornografici. A quanto pare gli occhiali “smart” sono così comodi e impercettibili che i loro stessi acquirenti si dimenticano che li stanno indossando e sono in modalità di acquisizione.

Meta ha confermato che in alcuni casi i contenuti che gli utenti condividono con l’azienda, attraverso la chat interattiva degli occhiali, vengono passati ad altre aziende a scopo di miglioramento del servizio, ma soltanto, dicono, dopo che sono stati filtrati, per esempio sfocando i volti [ma sembra che non lo faccia sempre, secondo BBC], e possono includere contenuti registrati dagli occhiali quando l’utente li attiva involontariamente. Tutto questo viene spiegato in dettaglio nelle oltre novemila parole dell’informativa sulla privacy apposita e dell’avviso sulla privacy delle funzioni vocali degli occhiali di Meta. Novemila parole che probabilmente pochissimi degli utenti di questi disposiivi si prenderanno la briga di leggere.

Questa situazione ha indotto uno dei garanti per la protezione dei dati del Regno Unito a chiedere spiegazioni a Meta, e negli Stati Uniti è stata depositata una class action contro Meta e Luxottica of America che contesta l’ingannevolezza dello slogan usato da Meta per promuovere questi occhiali, che è “progettati per la privacy, controllati da te” [“designed for privacy, controlled by you”]: la class action afferma infatti che

[Voce sintetica che legge la citazione] Nessun consumatore ragionevole interpreterebbe frasi come “progettati per la privacy, controllati da te” e promesse simili, come “costruiti per la tua privacy”, nel senso che filmati profondamente personali, girati all’interno delle loro case, vengano visionati e catalogati da operatori umani all’estero. Meta ha scelto di mettere la privacy al centro della sua pervasiva campagna di marketing, nascondendo però i fatti che rivelano la falsità di tali promesse.

Screenshot dal sito svizzero italiano di Meta (https://www.meta.com/ch/it/ai-glasses/privacy/).

L’azione legale è ancora in corso. Nel frattempo, chi sta pensando di acquistare questi occhiali dovrebbe informarsi bene su come funzionino realmente, tralasciando gli slogan. E chi invece rischia di essere bersaglio degli utenti molesti di questi dispositivi dovrebbe sapere prima di tutto che esistono e poi come riconoscerli, per esempio notando lo spessore delle astine o la presenza di piccoli elementi circolari sul frontale delle montature: sono gli obiettivi delle loro telecamere.

Ma c’è chi ha fatto di più: Yves Jeanrenaud, un docente dell’Università di scienze applicate di Darmstadt, in Germania, ha pubblicato un’app che aiuta a rilevare la vicinanza di questi occhiali “smart”. L’app si chiama Nearby Glasses, è gratuita e open source [GitHub] ed è disponibile per smartphone Android [Google Play; Izzysoft.de] e Apple [errore mio, scusate]. Sfrutta il fatto che questi occhiali comunicano con lo smartphone del loro utente tramite Bluetooth. Quando un dispositivo comunica in questo modo, nei segnali radio che emette c’è un identificativo che indica il fabbricante. Questi segnali sono captabili e decifrabili dall’app. Se Nearby Glasses rileva degli identificativi di fabbricanti che corrispondono a quelli di Meta e di altre aziende che fabbricano prodotti analoghi [per esempio quelli di Snapchat], fa comparire sul telefono un avviso.

L’app può dare dei falsi positivi e si limita a rilevare il fatto che questi occhiali sono accesi [ma non può sapere se vengono usati per effettuare riprese e quali siano le intenzioni di chi fa queste eventuali riprese]. Di conseguenza il creatore dell’app raccomanda di non aggredire chi indossa occhiali “smart” e di non presumere che tutti coloro che li indossano siano molestatori o comunque malintenzionati. Ma il fatto stesso che sia stata realizzata quest’app indica quanto sia sentito il problema.

L‘avvento degli occhiali digitali è insomma una nuova rivoluzione delle nostre abitudini sociali e delle nostre sicurezze, che va seguita con attenzione e prudenza. È il caso di dire che in un modo o nell’altro, ne vedremo delle belle.

Fonti

Facebook owner unveils new AI-powered smart glasses, BBC, settembre 2025

Meta faces privacy lawsuit over AI smart glasses, Euronews.com, marzo 2026

Meta Lied About Its Smart Glasses Protecting User Privacy, New Class Action Lawsuit Claims, Futurism.com, marzo 2026

She Came Out of the Bathroom Naked, Employee Says, Svenska Dagbladet, febbraio 2026

Meta sued over AI smart glasses’ privacy concerns, after workers reviewed nudity, sex, and other footage, TechCrunch, marzo 2026

Workers report watching Ray-Ban Meta-shot footage of people using the bathroom, Ars Technica, marzo 2026

Regulator contacts Meta over workers watching intimate AI glasses videos, BBC, marzo 2026

Les nouvelles lunettes connectées capables de tout filmer inquiètent face au risque d’atteinte à la vie privée, RTS.ch, marzo 2026

‘I was secretly filmed with smart glasses and then trolled online’, BBC, gennaio 2026

Woman Goes to Get Brazilian Wax, Alarmed to Notice Waxer Is Wearing Meta’s Video Recording Glasses, Futurism, agosto 2025

“Imagine being this based”: Guy says woman “assaulted” him by breaking his Meta AI glasses on the subway. The internet disagrees, Yahoo News, dicembre 2025

Meta’s Ray-Ban Glasses Users Film and Harass Massage Parlor Workers, 404media, ottobre 2025

Hide from Meta’s spyglasses with this new Android app, The Register, febbraio 2026

So-called ‘manfluencers’ are filming themselves trying to pick up women. Smart glasses are their perfect tool, CNN, febbraio 2026

Podcast RSI – Bitchat: messaggi senza Internet, senza rete cellulare e senza padroni

Questo è il testo della puntata del 9 febbraio 2026 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio di bordo di un aereo di linea, con annuncio in inglese]

Immaginate di essere in aereo, in volo per qualche destinazione lontana. Vorreste chattare con i vostri compagni di viaggio e mandare loro alcune foto e informazioni per pianificare il vostro itinerario, ma loro sono seduti alcune file davanti a voi e l’aereo è strapieno. A bordo non c’è Internet, e se anche ci fosse, tramite Wi-Fi, i suoi costi sarebbero proibitivi.

Ma siete stati previdenti, e così potete comunicare quanto vi pare con i vostri amici, senza Internet, senza Wi-Fi e senza rete cellulare. Ciliegina sulla torta, le vostre comunicazioni sono cifrate e non vengono lette da nessun gestore di social network per profilarvi o per nutrire qualche intelligenza artificiale avida di testi scritti da esseri umani.

[CLIP: audio di bordo di un aereo di linea, con annuncio in inglese]

E se atterrate in qualche Paese che sorveglia le comunicazioni sui social network o sulle reti cellulari, potete comunque comunicare fra di voi a distanza senza poter essere intercettati.

L’app che fa tutte queste cose in apparenza impossibili esiste, e si chiama Bitchat. Potete scaricarla e installarla anche subito sul vostro smartphone Android o iOS.

Benvenuti alla puntata del 9 febbraio 2026 del Disinformatico, il podcast mensile della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Oggi vediamo come è possibile mandare messaggi senza Internet, senza rete cellulare, e senza filtri o padroni. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia inizia ai primi di luglio del 2025. Jack Dorsey, cofondatore del social network che una volta si chiamava Twitter, annuncia e pubblica su Internet la prima versione di Bitchat, un’app che permette di mandare messaggi testuali e vocali oppure foto senza Wi-Fi, senza Internet, senza server centrali, senza chiedere numeri di telefono o mail, e in forma anonima e cifrata. Non c’è neanche bisogno di creare un account.

Bitchat riesce a fare queste cose per esempio in caso di blackout o calamità che mettono fuori uso la rete di telefonia mobile e in zone nelle quali non c’è copertura cellulare oppure è pericoloso, vietato o troppo costoso usare Internet o il Wi-Fi. Ci riesce perché a differenza delle app di messaggistica tradizionali come WhatsApp, Telegram, Signal o Threema, Bitchat usa una cosiddetta peer-to-peer wireless mesh network, ossia una rete paritaria magliata senza fili.

Traducendo dal gergo tecnico, la rete che interconnette i telefonini fra loro con Bitchat è composta esclusivamente dagli smartphone stessi, che si parlano via Bluetooth, senza aver bisogno di un server centrale, di connessioni a Internet o altro.

Ogni cellulare che usa Bitchat riceve i segnali Bluetooth e i messaggi Bitchat degli altri telefonini che hanno installato quest’app e sono nelle vicinanze. Questi messaggi vengono trasmessi, ricevuti e inoltrati tramite queste connessioni Bluetooth dirette e possono saltare da un telefono all’altro, protetti dalla crittografia, in una sorta di catena di Sant’Antonio, fino a raggiungere l’utente desiderato.

Usare Bitchat è di una semplicità disarmante: si scarica l’app dal Play Store o dall’App Store, la si installa e poi le si dà il permesso di usare e tenere attivo il Bluetooth, cosa che già fa chiunque abbia degli auricolari senza filo.

Fatto questo, ci si trova già collegati alla rete locale di tutti gli utenti Bitchat nelle vicinanze. Non viene chiesto nulla: nessuna mail, nessun numero telefonico, e l’app è gratuita e oltretutto open source. Il suo codice sorgente è liberamente ispezionabile e altrettanto liberamente modificabile.

Esteticamente, Bitchat è un’app spartana fino in fondo: la sua schermata principale è praticamente vuota e persino il suo font è volutamente semplice e a spaziatura fissa, come quello delle macchine per scrivere o dei vecchi computer. In alto c’è l’indicazione del nome dell’utente su Bitchat, che è di solito anon seguito da quattro cifre. Volendo è personalizzabile con un semplice tocco. Poi è indicato il canale al quale si è collegati, che per la rete locale è #mesh, seguito dal numero di utenti presenti su quel canale. Toccando questo numero compare l’elenco degli utenti e si può scegliere quello con il quale si desidera chattare o scambiare messaggi vocali o foto.

Non compare nessuna informazione personale degli utenti e non c’è nessuna foto del profilo, e tutto questo è intenzionale. Bitchat è pensato per proteggere la riservatezza e la sicurezza delle persone e per consentire lo scambio anonimo di messaggi effimeri, come spiega il documento programmatico pubblicato da Jack Dorsey. I messaggi, in forma cifrata, vengono custoditi solo sui singoli telefonini, scompaiono dopo l’invio o la consegna e non toccano mai un’infrastruttura centralizzata. In caso di emergenza, toccando tre volte in sequenza l’icona dell’app vengono cancellati tutti i dati.

È tutto molto bello, ma non è il caso di mollare WhatsApp e simili, almeno per il momento.


Bitchat funziona, ma il suo limite principale sta proprio nella sua caratteristica centrale: l’uso del Bluetooth come canale di comunicazione primario. Questa tecnologia, nella sua diffusissima versione a basso consumo energetico o Bluetooth Low Energy, presente in quasi tutti gli smartphone, ha una portata teorica massima all’aperto di una settantina di metri.

Questo vuol dire che se non avete altri utenti Bitchat entro questa distanza, non potete usare Bitchat per scambiare messaggi senza usare Internet. E c’è anche un limite al numero di salti da un cellulare all’altro che può fare un messaggio nel tentativo di propagarsi fino alla propria destinazione senza appoggiarsi a Internet. Questo limite è sette, e questo significa che una rete locale di Bitchat, anche nelle migliori condizioni, ha una portata massima di circa mezzo chilometro. In condizioni reali la portata effettiva può aggirarsi sui duecento metri.

Tuttavia se alcuni dei telefoni che fanno parte della rete locale si spostano, per esempio facendo la spola fra vari luoghi, diventano dei “postini” digitali, che possono recapitare anche su grandi distanze i messaggi che custodiscono, anche se in questo caso la consegna ovviamente non è istantanea.

Per compensare questa limitazione, Bitchat si è evoluto rispetto al suo debutto di sei mesi fa e ora include anche la possibilità di comunicare con utenti lontanissimi, anche in altri continenti. In questo caso si appoggia a Internet in maniera classica [tramite Wi-Fi o rete dati cellulare] e comunica mediante il protocollo aperto Nostr.

In altre parole, Bitchat funziona benissimo per comunicare privatamente da una stanza all’altra in una casa, in una cabina d’aereo, su un autobus, in treno, in alta montagna o allo stadio [o in nave], ma su grandi distanze torna a dover dipendere da Internet e da una connessione dati di telefonia mobile. Può essere un complemento prezioso alle app di messaggistica tradizionali, ma non un loro sostituto, almeno per ora.

C’è però anche un’altra situazione nella quale Bitchat funziona particolarmente bene e può addirittura salvare vite: le manifestazioni e le adunate di protesta, nelle quali un numero molto elevato di utenti si trova in uno spazio limitato e quindi ci sono moltissimi smartphone nelle vicinanze che possono passarsi i messaggi di Bitchat. Spesso le autorità di alcuni Paesi tentano di impedire il coordinamento dei manifestanti disattivando localmente la rete cellulare o l’accesso a Internet. Ma Bitchat non ha bisogno di questi servizi e quindi continua a funzionare anche in caso di oscuramenti della rete.

Non è un caso che ci siano state decine di migliaia di scaricamenti di Bitchat in relazione alle proteste in Madagascar e in Nepal a settembre 2025 e in Uganda e Iran a gennaio 2026. In questi Paesi le autorità spesso impongono il blocco di Internet nel tentativo di sabotare le comunicazioni fra cittadini. E Bitchat non è la prima app di questo genere: una dozzina d’anni fa numerosi cittadini in Iraq e a Hong Kong usarono un software chiamato FireChat che si basava appunto sul Bluetooth e sulla creazione di reti locali temporanee costituite da smartphone per comunicare tra loro nonostante gli interventi di censura e i blackout delle telecomunicazioni tradizionali imposti dalle autorità.

Le prossime versioni di Bitchat potrebbero includere l’opzione di creare interconnessioni tra telefonini usando il Wi-Fi, nella sua forma denominata Wi-Fi Direct. Questo aumenterebbe moltissimo la portata di Bitchat, consentendo distanze considerevolmente maggiori fra i telefoni che formano una rete locale, anche se ci sono alcune questioni di sicurezza intrinseche in questa tecnologia che andranno risolte se Bitchat vuole tenere fede alle proprie ambizioni di software a prova di intrusioni e censure.

In un momento storico nel quale si parla sempre più seriamente della necessità strategica di una sovranità digitale europea e nel quale la dipendenza da software e social network gestiti da miliardari statunitensi fortemente politicizzati fa sentire il proprio peso politico ed economico, è particolarmente allettante e letteralmente rivoluzionaria l’idea di un sistema di comunicazione senza padroni, senza pubblicità, gratuito, senza licenze capestro, senza schedatura degli utenti, liberamente ispezionabile e modificabile, e orientato a proteggere gli utenti dalle ingerenze e violenze governative, come quelle che stanno avvenendo per esempio in Iran e a Minneapolis.


La cronaca amara di questi giorni purtroppo rende inevitabile questo accostamento di luoghi che un tempo sarebbe sembrato assurdo e surreale, e l’informatica fa parte di questa cronaca, perché Apple ha scelto di rimuovere dal suo App Store le app che permettevano di segnalare legalmente la presenza degli agenti dell’ICE, l’agenzia statunitense dell’immigrazione, quelli che hanno ucciso per strada, senza alcuna giustificazione, cittadini innocenti come Renée Good e Alex Pretti. Questa rimozione la dice lunga sulle scelte di campo dei giganti del settore informatico e sull’urgenza crescente di svincolarsi dal loro controllo sui nostri dispositivi digitali.

Resta però il problema che anche l’app più salvaprivacy del mondo non serve a nulla se non la usa nessuno e tutti restano ancorati ai social network commerciali per pigrizia o per convenienza. Bitchat è stata scaricata alcuni milioni di volte, ed è vero che siamo a pochi mesi dal suo debutto, ma di fatto la mappa mondiale dei suoi utenti pubblici resta desolantemente vuota, e quei pochi che ci sono si aggirano chiedendo soprattutto “C’è nessuno?” in varie lingue.

Può sembrare strano che un’app così orientata alla riservatezza abbia una mappa mondiale degli utenti, ma è così. Bisogna infatti chiarire che Bitchat perde in parte le proprie protezioni quando la si usa per chat su grande distanza via Internet. Gli utenti restano anonimi, le loro comunicazioni vengono instradate, in modo molto protetto e poco tracciabile, tramite il sistema Tor e i messaggi diretti a un singolo utente restano cifrati. Però i messaggi Bitchat destinati a canali lontani sono pubblici per impostazione predefinita e per necessità, visto che devono essere leggibili da chiunque partecipi a un canale.

Per capire bene questa differenza importante fra uso locale e uso via Internet di Bitchat si può andare a consultare una delle mappe pubbliche degli utenti, come quella disponibile in forma aggiornata in tempo reale presso Bitchatexplorer.com. Lì si possono vedere gli utenti che stanno utilizzando Bitchat per comunicazioni a lunga distanza e si possono leggere le loro conversazioni pubbliche.

[Un’altra mappa interattiva aggiornata è disponibile presso Bitmap.lat]

Schermata di BitchatExplorer.com.

Per scegliere un canale di Bitchat basta digitarne il nome nella casella apposita di Bitchatexplorer.com: non occorre aprire account o altro. Il flusso dei messaggi pubblici in quel canale compare sullo schermo. Si tratta di messaggi rivolti a chiunque frequenti lo specifico canale, non di messaggi privati.

I canali sono geolocalizzati, nel senso che sono associati a una località o a una regione più o meno ampia. Per esempio, ogni utente di Bitchat ha dei canali predefiniti, chiamati isolato, quartiere, città, provincia, regione, che coprono un raggio variabile da 200 metri nel caso dell’isolato a 1250 chilometri nel caso della regione, e il mondo è mappato con estrema precisione tramite nomi di canali chiamati geohash. Più è lungo il nome del canale, più è precisa la sua localizzazione, e bastano otto caratteri per indicare un singolo edificio in qualunque parte del pianeta, come spiegato interattivamente presso geohash.softeng.co.

Tutto questo può sembrare complicato, ma in sintesi basta ricordare due cose: la prima è che solo gli utenti che vediamo quando scegliamo il canale #mesh sono raggiungibili senza usare Internet e tutti gli altri richiedono una connessione a Internet come le app normali. La seconda è che i messaggi rivolti ai canali sono pubblici ma anonimi, mentre quelli diretti, rivolti a un singolo utente, sono privati oltre che anonimi.

Prenderà piede Bitchat? Dipende da noi utenti. L’esperienza insegna che di solito la convenienza temporanea prevale sulla sicurezza a lungo termine, ma il fatto che in alcuni Paesi particolarmente travagliati questa app sia stata scaricata prima del prevedibile oscuramento governativo di Internet permette di sperare in bene. Tenere Bitchat a disposizione accanto alle app di messaggistica tradizionali non costa nulla e in emergenza o in casi particolari può tornare molto utile. Ma soprattutto il semplice fatto che esista un’app di questo tipo dimostra che un’altra Internet, libera e al servizio dei cittadini, è ancora possibile.

Fonti aggiuntive

Jack Dorsey made an encrypted Bluetooth messaging app, The Verge, 2025/07/08

Bitchat, come funziona l’app di messaggistica che non ha bisogno di internet, Wired.it, 2025/07/09

Jack Dorsey floats specs for decentralized messaging app that uses Bluetooth, The Register, 2025/07/08

Jack Dorsey launches a WhatsApp messaging rival built on Bluetooth, CNBC, 2025/07/07

Former Twitter CEO launches messaging app that doesn’t need WiFi or mobile data, Euronews, 2025/07/08

Apple Took Down These ICE-Tracking Apps. The Developers Aren’t Giving Up, Wired.com, 2025/10/09

Podcast RSI – Utenti dell’IA di Musk generano ogni ora oltre 6000 immagini di donne e bambini denudati. Musk le monetizza

Ultimo aggiornamento: 2026/01/16.

Questo è il testo della puntata del 12 gennaio 2026 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata. Mi scuso per la quantità di note che ho inserito nel testo, ma era necessario documentare e citare in dettaglio molto materiale che non era in alcun modo presentabile in un podcast.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi. Ricordo che da oggi il podcast assume cadenza mensile e verrà pubblicato il secondo lunedì del mese.


Sono Paolo Attivissimo. Vorrei avvisare che questa puntata tocca un tema estremamente delicato, legato alla violenza e agli abusi su donne e bambini. Vi chiedo di ascoltarla e condividerla responsabilmente.

[CLIP: voce di Ashley St. Clair, tratta da un’intervista rilasciata al Guardian e pubblicata in parte su Instagram]

Questa è la voce di una donna che racconta che su X, il social network di Elon Musk, gli utenti hanno preso una sua foto in cui era completamente vestita e hanno ordinato a Grok, l’intelligenza artificiale di Musk, di svestirla e metterla in microbikini. E poi hanno chiesto sempre a Grok di creare immagini in cui era piegata in avanti e in altre pose e di generare video in cui lei si toccava il seno e ballava. Tutto, s’intende, senza il consenso della donna, e con l’intento preciso di causarle disagio e umiliazione.

Grok non ha fatto una piega e ha generato tutto il materiale richiesto dagli utenti. Da settimane, quest’intelligenza artificiale diretta da Elon Musk sta ubbidientemente generando immagini e video di abusi e violenze su donne e bambini, al ritmo stimato di seimila immagini l’ora [Bloomberg]. Le persone colpite sono migliaia.*

* Il Times segnala per esempio il caso di una discendente di sopravvissuti all’Olocausto che è stata bersagliata da aggressori online usando Grok per generare una sua immagine in bikini davanti ad Auschwitz. Altri bersagli frequenti sono le donne impegnate in politica [Eliot Higgins], le giornaliste e Kate Middleton [Katu.com].

Nell Fisher, l’attrice quattordicenne che interpreta Holly Wheeler nella stagione finale di Stranger Things, è un’altra delle vittime di questi utenti. Immagini sintetiche che la raffigurano in abbigliamenti e in situazioni che non è opportuno descrivere qui vengono richieste intenzionalmente dagli utenti e fatte circolare impunemente sul social network X. E Grok, senza esitazioni, le genera [Yahoo News; Axios].

Segnalare e chiederne la rimozione è sostanzialmente inutile. La donna che avete sentito all’inizio di questo podcast è Ashley St. Clair, madre di uno dei figli di Elon Musk. Neppure lei è stata ascoltata [Guardian su Archive.is]. Le sue immagini, comprese alcune foto di quand’era bambina, continuano a circolare sul social network del suo ex partner in versione denudata e manipolata dall’intelligenza artificiale per aggiungere lividi, mutilazioni e altri abusi sessuali.*

* L‘esperto Kevin Beaumont e il Guardian mostrano alcuni esempi di come Grok riceve ordini espliciti di aggiungere lividi o sangue e sorrisi forzati alle foto di donne o di svestirle o mostrarle legate e imbavagliate o imbrattate con fluidi corporali e li esegue.

Gli addetti del social network X sono perfettamente al corrente della situazione, ma non fanno nulla di concreto per rimediare. Anzi, da qualche giorno X addirittura monetizza questi contenuti, offrendo a pagamento la possibilità di generarli.

Questa è la puntata del 12 gennaio 2026 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – in questo caso inquietanti – dell’informatica.

[SIGLA di apertura]


Grok è un’intelligenza artificiale generativa, in grado di produrre immagini e video sintetici praticamente indistinguibili dalle riprese reali. È sviluppata e gestita da xAI, un’azienda fondata da Elon Musk, la stessa che gestisce X, il social network che una volta si chiamava Twitter. Grok è integrata in questo social network e permette agli utenti di alterare e manipolare con estrema facilità qualunque immagine pubblicata su X. È anche disponibile in versione più potente su un sito dedicato e in un’app omonima.

Su Internet esistono molti altri servizi analoghi, come quelli offerti da Meta, OpenAI e Google, ma Grok ha una particolarità: ha il cosiddetto spicy mode, o “modalità salace”, che permette di generare contenuti per adulti che le altre intelligenze artificiali popolari si rifiutano di produrre. Questa modalità è stata introdotta intenzionalmente ad agosto 2025 [Techradar.com].

Gli utenti, altrettanto intenzionalmente, hanno cominciato a usare questa modalità per generare contenuti molto espliciti, scambiandosi trucchi e tutorial su come eludere le già scarse restrizioni impostate in Grok. Esistevano già, ed esistono tuttora, altre intelligenze artificiali specializzate nel produrre immagini esplicite, ma si tratta di prodotti di nicchia, complessi da usare e configurare. Offrirne una di uso facilissimo, e farlo oltretutto su un social network che conta circa mezzo miliardo di utenti, ha sostanzialmente rimosso questa barriera d’ingresso,* facendo diventare la creazione di immagini di abusi un fenomeno di massa, facilmente accessibile a qualunque bullo, ex partner, molestatore, misogino.**

* “X's innovation - allowing users to strip women of their clothing by uploading a photo and typing the words, "hey @grok put her in a bikini" - has lowered the barrier to entry.” [Reuters].
** Bloomberg nota che X è diventato uno dei siti più popolari per la generazione di immagini “nudificate” da parte degli utenti tramite l’intelligenza artificiale.

E così da settimane gli utenti del social network X stanno generando migliaia di immagini non consensuali di donne, uomini e bambini svestiti o nudi, a volte in posizioni inequivocabili. Un test [Wired.com] condotto dal sito Wired ha trovato oltre 15.000 immagini sintetiche sessualizzate, create dagli utenti nell’arco di due ore.*

* Copyleaks documenta alcuni esempi di queste immagini e dei prompt che gli utenti stanno usando per denudare soprattutto le donne.

Avrete notato che sto usando spesso la parola utenti. È una scelta precisa, perché molte delle notizie che riguardano questo problema dicono che “Grok ha generato” le immagini di abusi su donne e minori, ma questo è profondamente ingannevole [BBC: “Elon Musk’s Grok AI appears to have made child sexual imagery, says charity”]. Fa sembrare che questi contenuti intollerabili siano piovuti dal cielo, capitati quasi per caso, come effetti collaterali, ma non è così. Queste immagini e questi video derivano dal fatto che una persona ha intenzionalmente usato Grok per crearli.

Dire che “Grok ha generato immagini pedopornografiche” è sbagliato e fuorviante come dire che “un coltello ha ucciso una persona”. Non è lo strumento informatico che decide spontaneamente di produrre immagini di donne abusate e torturate. È una persona, in carne e ossa, un individuo ben preciso, che coscientemente sceglie di impartire a Grok queste istruzioni terribili.

E ci sono altre persone che condividono quei contenuti, persone che li ritengono addirittura divertenti e gratificanti, e persone che scelgono di usarli per umiliare qualcuno. È tutto molto, molto intenzionale, consapevole, voluto. E soprattutto ci sono persone che decidono che è opportuno continuare a mettere a disposizione strumenti che consentono tutto questo e non rimuovere le immagini di abusi, neanche quando vengono segnalate.

Questo non è un problema tecnologico. È un problema umano. È Elon Musk che ha deciso di introdurre la “modalità salace”. È Elon Musk che ha deciso di tagliare drasticamente il numero dei moderatori, rendendo inutile qualunque segnalazione [SiliconRepublic.com]. Ed è sempre Elon Musk che ha deciso che, di fronte alle notizie degli abusi commessi dagli utenti sfruttando Grok, la cosa migliore da fare non era rimuovere del tutto quest’intelligenza artificiale e correggerla, come farebbe qualunque azienda di fronte a un prodotto che si rivela pericoloso o tossico.*

* Quando una versione precedente di Grok ha cominciato ad autodefinirsi “MechaHitler” e a rigurgitare deliri di antisemitismo e neonazismo, a luglio 2025, il comportamento è stato invece corretto molto prontamente da xAI [NPR]. 

Musk, invece, ha deciso di rendere Grok, così com’è, accessibile solo agli utenti a pagamento all’interno di X.

In altre parole, di fatto Elon Musk sta monetizzando gli abusi su donne e bambini. In altre parole, se paghi, puoi commettere facilmente tutti gli abusi che vuoi, senza che ci siano conseguenze.


Gli utenti a pagamento di X sono pochi, quindi si può avere l’impressione che il problema a questo punto sia diventato di nicchia. Ma in realtà non è affatto scomparso.

L’intervento di Musk per limitare l’accesso a Grok è avvenuto dopo che alcuni governi, come quello britannico, quello indiano, quello francese e quello malese [Time], avevano dichiarato che il social network X rischiava di dover essere vietato e bloccato in quanto facilitatore e disseminatore di pedopornografia e di messaggi di odio, brutalità e discriminazione [Guardian; Ofcom].* Molte testate hanno annunciato l’arrivo di questa limitazione come se fosse la fine della crisi, ma l’app Grok continua tuttora a generare contenuti illegali gratuitamente per tutti.**

* Malesia e Indonesia hanno dichiarato di aver limitato l’accesso a Grok rispettivamente il 10 e 11 gennaio 2026 [BoingBoing].
** Il materiale generato dalla versione web di Grok è ancora più estremo di quello generato dal chatbot di Grok su X [Wired]: “One photorealistic Grok video, hosted on Grok.com, shows a fully naked AI-generated man and woman, covered in blood across the body and face, having sex, while two other naked women dance in the background. The video is framed by a series of images of anime-style characters. Another photorealistic video includes an AI-generated naked woman with a knife inserted into her genitalia, with blood appearing on her legs and the bed. Other short videos include imagery of real-life female celebrities engaged in sexual activities, and a series of videos also appear to show television news presenters lifting up their tops to expose their breasts”.

A questo punto di questa triste vicenda è importante fare una precisazione per togliere un dubbio molto diffuso. Capita spesso di imbattersi nell’obiezione che creare immagini pornografiche sintetiche di minori non faccia male a nessuno perché, si dice, dopotutto si tratta di fantasie. Manca una vittima concreta.

Ma non è così. La produzione di questi contenuti li normalizza, in un certo senso li sdogana, associa questi orrori a un “ma dai che male c’è”, e già questa è una china pericolosissima. Inoltre rende infinitamente più difficili le indagini degli inquirenti sui casi di abusi reali su minori, perché oggi diventa necessario appurare se ogni singola immagine in possesso di una persona incriminata sia sintetica o ritragga invece un bambino realmente esistente. La persona che commette abusi può nascondere le immagini reali in una selva di foto artificiali. Trovare quelle reali diventa un problema peggiore del proverbiale ago in un pagliaio: semmai è come cercare un ago in una catasta di spilli. E per complicare ulteriormente la situazione, la persona accusata può tentare di difendersi dicendo che sono rappresentazioni di fantasia.

Ma la legge è molto chiara su questa questione. A novembre 2025, il Tribunale federale ha stabilito che immagini o video pornografici che mostrano adulti ringiovaniti digitalmente, secondo una tecnica tipica di questo settore, il de-aging, sono comunque inequivocabilmente illegali. Il Codice penale, dal 2014, punisce non solo la pornografia che coinvolge minori reali ma anche quella che rappresenta minori generati artificialmente, di solito ricorrendo all’intelligenza artificiale [RSI.ch; sentenza 6B 122/2024]. Principi analoghi valgono anche in molti altri Paesi.*

* Per esempio il Regno Unito, dove a giorni entrerà in vigore una legge che vieta proprio il tipo di contenuti resi possibili dal modo in cui è stato impostato Grok [BBC].

A queste leggi si aggiungono quelle che impongono alle piattaforme social di intervenire in tempi brevi dopo ogni segnalazione e di fornire canali efficienti ed efficaci per la rimozione di contenuti illegali di questo genere. Un esempio molto influente è il Take It Down Act statunitense, che però non è ancora in vigore: sarà attivo da maggio del 2026 [Gizmodo].

La situazione attuale, infatti, è tutta a favore dell’indifferenza da parte dei grandi social network. X, in particolare, non ha un ufficio stampa e risponde a tutte le richieste di prese di posizione da parte della stampa con un muro di silenzio* o, peggio ancora, con un post generato da Grok, che in quanto intelligenza artificiale non è formalmente in grado di rappresentare nulla e nessuno.**

* O con la risposta standard “Legacy media lies”, come è successo a Reuters quando ha contattato xAI a proposito di questa vicenda.
** A conferma del ruolo assolutamente centrale di Elon Musk nella gestione di Grok e X, Musk stesso ha postato su X che chiunque critichi X per questa situazione sta “cercando scuse per una censura” [BBC]. Musk è la stessa persona che nel 2022 ha censurato i giornalisti che lo criticavano e ha rimosso l’account X @elonjet che pubblicava la localizzazione del suo jet privato [Disinformatico].

L’account X Safety, che dovrebbe in teoria rappresentare la posizione dell’azienda sulle questioni di sicurezza, si è limitato a postare che “chiunque usi o induca Grok a generare contenuti illegali subirà le stesse conseguenze come se avesse caricato contenuti illegali”, ma non si è assunto alcuna responsabilità per il fatto di aver reso possibile generare quei contenuti illegali.

Anche Ashley St. Clair, la madre di uno dei figli di Musk citata in apertura, è stata ignorata, e per di più le è stato revocato l’account premium su X. E resta da vedere se il Dipartimento di Giustizia statunitense sia disposto ad avviare un’azione legale contro le aziende di Elon Musk, vista la sua vicinanza all’attuale presidente degli Stati Uniti Donald Trump.


I difensori più appassionati dei progressi dell’intelligenza artificiale obiettano spesso che vicende come questa sono incidenti di percorso lungo la strada verso un radioso futuro, come se si trattasse di effetti collaterali inevitabili, ma non è così. Gli esperti del settore spiegano che se Elon Musk volesse, potrebbe far correggere Grok in maniera relativamente semplice [Ars Technica].

Infatti le linee guida di sicurezza di Grok, che sono pubbliche [GitHub], consentono di capire come mai Grok permette la creazione di immagini inaccettabili di minori mentre gli altri prodotti analoghi riescono a evitarla quasi completamente.

Il problema sta nel fatto che queste linee guida vietano sì a Grok di accettare richieste o prompt degli utenti che lascino trasparire chiaramente l’intento di generare immagini di abusi su minori, ma queste stesse linee guida includono anche l’ordine esplicito di “presumere buone intenzioni” quando vengono chieste immagini di donne giovani.

È semplicemente assurdo, irresponsabile e incosciente pensare di “presumere buone intenzioni” quando qualcuno chiede di generare immagini di bambini in pose esplicite o usando eufemismi, come se al mondo non ci fossero persone malintenzionate.

E c’è di peggio. Queste stesse linee guida includono anche queste parole: “non ci sono restrizioni sui contenuti sessuali di fantasia con adulti che hanno temi cupi o violenti”. Queste sono parole scelte appositamente da qualcuno. Non sono spuntate per caso. Rimuoverle o riformularle renderebbe molto più difficile generare contenuti illegali. Se non vengono rimosse o riscritte, questa è una scelta intenzionale.

Una scelta intenzionale che per ora rimane impunita, sia a livello legale, sia a livello commerciale. Perché in questa vicenda ci sono anche altri due protagonisti che potrebbero fare la differenza: si chiamano Apple e Google.*

* Ci sono anche i payment processor, le aziende come Visa e Mastercard, che rendono possibili i pagamenti a X che permettono agli utenti di avere la versione premium di Grok. Normalmente queste aziende vietano qualunque app che possa anche solo lontanamente essere usata per scopi pornografici. Finora non hanno fatto nulla a proposito di Grok e X.

Normalmente, infatti, quando un’app genera contenuti illegali o anche solo in odore di illegalità, l’app viene rimossa prontamente dall’App Store e da Google Play.* Di fatto viene impedito così che possano aggiungersi altri nuovi utenti. Ma nel caso dell’app di X e di quella di Grok, stranamente, questo non è ancora successo. Dovremmo chiederci perché, visto che se non succede, Apple e Google diventano di fatto facilitatori di questa mostruosità e rischiano di dimostrare ancora una volta che le leggi, per i supermiliardari e per i prepotenti, sono solo un fastidio da scavalcare.**

* Andò così per esempio per Tumblr a novembre 2018, perché gli utenti vi stavano caricando immagini di nudi di minori che non venivano riconosciute dai filtri automatici del sito [BBC].
** Ars Technica nota che per Google Play, quello che fa Grok è un caso specificamente contemplato dalle sue regole di divieto, che dicono che non sono ammesse “app che contengono o promuovono contenuti associati a comportamenti da predatori sessuali o distribuiscono contenuti sessuali non consensuali“ e specificano che sono vietate le “app che dicono di svestire le persone” e i “contenuti e comportamenti che tentano di minacciare o sfruttare le persone in maniera sessuale, come [...] contenuti sessuali non consensuali creati tramite deepfake o tecnologie simili”. Più chiaro di così non si può, ma Grok continua a essere disponibile su Google Play.

Ma ci sono due cose che noi semplici cittadini digitali possiamo fare concretamente. La prima è smettere di usare X, sia per postare, sia per leggere i contenuti altrui. Non significa eliminare il proprio account, perché questo comporterebbe il rischio che qualcun altro ne prenda il nome (un’altra idea geniale di Musk che va contro ogni buona regola informatica). Significa semplicemente non usarlo.

La seconda cosa è fare una cordiale richiesta alle autorità, ai media, alle aziende: visto che X alimenta di fatto la generazione di immagini di abusi di ogni genere, perché siete ancora presenti su X? La vostra presenza assidua, la vostra pubblicazione di contenuti, incoraggia le persone a frequentare questo social network per informarsi e gli conferisce una patente di autorevolezza e di importanza che sta dimostrando sempre di più di non meritare.

Le alternative non mancano: da Bluesky a Mastodon a Threads, c’è solo l’imbarazzo della scelta. Proviamo dunque a scegliere, invece di aspettare che qualcuno lo faccia per noi.

2026/01/16

L’account @safety di X annuncia che sono state “implementate misure tecnologiche” per impedire che Grok accetti richieste di svestire persone reali e che sono state introdotte restrizioni geografiche “nelle giurisdizioni nelle quali questi contenuti sono illegali”. Queste misure arrivano soltanto dopo settimane di proteste e segnalazioni e la loro efficacia non è stata ancora confermata indipendentemente. Inoltre va notata la precisazione “persone reali. Come se svestire quelle immaginarie, comprese i bambini, fosse ancora accettabile.

Fonti aggiuntive

Malaysia and Indonesia block Grok over deepfake sexual abuse material, BoingBoing, 2026-01-12.

UK probes X over Grok CSAM scandal; Elon Musk cries censorship, Ars Technica, 2026-01-12.

xAI silent after Grok sexualized images of kids; dril mocks Grok’s “apology”, Ars Technica, 2026-01-02.

Elon Musk’s X must be banned, Disconnect.blog, 2026-01-08.

Inside the Grok CSAM scandal and how brands have faced ‘weaponised political pressure’ to spend with X, TheMediaLeader.com, 2026-01-07.

Podcast RSI – In caso di blackout, le auto “autonome” di Waymo paralizzano il traffico

Questo è il testo della puntata del 22 dicembre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.

Questa è l’ultima di quest’anno; la prossima verrà pubblicata il 12 gennaio 2026. Con l’anno nuovo, questo podcast diventerà un appuntamento mensile: troverete una nuova puntata ogni secondo lunedì del mese.


[CLIP: audio di clacson a San Francisco durante il blackout]

Sabato scorso, 20 dicembre, un blackout parziale ha colpito alcune zone di San Francisco, in California. Cose che càpitano, ogni tanto, con le solite conseguenze: ma stavolta ce n’è stata una in più, inattesa e decisamente sgradita: moltissimi taxi senza conducente di Waymo si sono fermati di colpo in mezzo alle strade e agli incroci, contribuendo enormemente a ingorgare il traffico natalizio già messo a dura prova dallo spegnimento di molti semafori.

Questa è la storia del tallone d’Achille di queste auto supertecnologiche e delle sue implicazioni sull’introduzione della guida robotica sulle strade di tutto il mondo.

Benvenuti alla puntata del 22 dicembre 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Questa è l’ultima puntata dell’anno; la prossima sarà pubblicata il 12 gennaio 2026. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il 20 dicembre scorso un incendio divampato nel pomeriggio presso una sottostazione elettrica a San Francisco ha causato un blackout che ha colpito circa un terzo della città californiana, che conta circa ottocentomila abitanti. Vari quartieri sono rimasti al buio per diverse ore, e si prevede che il guasto non verrà completamente risolto per alcuni giorni.

L’interruzione dell’erogazione della corrente elettrica ha spento i semafori e forzato la sospensione di molte corse della metropolitana leggera e dei tram. Il traffico, già intenso in condizioni normali, è andato in crisi, ma questa crisi è stata peggiorata da un fattore nuovo e inatteso: la paralisi dei taxi “autonomi” di Waymo.

I social network sono pieni di video che mostrano queste auto senza conducente ferme agli incroci, con le quattro frecce lampeggianti, incapaci di proseguire o almeno di accostare e farsi da parte per lasciar passare il traffico dei veicoli normali.

In un video*, per esempio, si vedono tre Waymo ferme una accanto all’altra, che occupano tutte e tre le corsie di un’arteria cittadina principale. Dietro di loro, una colonna interminabile di altri veicoli. Alcuni conducenti di queste altre auto invadono la corsia opposta, cercando di aggirare le Waymo che fanno barriera, ma pochi metri più in là si trovano davanti una quarta Waymo, ferma in mezzo all’incrocio, che getta ulteriore scompiglio.

* Molti dei video pubblicati sono ripresi di sera, segno che il problema con le Waymo è durato per ore, visto che il blackout è iniziato intorno alle 14 locali [“The SFFD received a call about the fire at 2:16 p.m. on Saturday”, San Francisco Standard].

Scene come questa si sono viste in gran parte della città, sulle cui strade circolano circa 800 [TheLastDriverLicenceHolder.com] di queste automobili formalmente autonome. Waymo ha sospeso temporaneamente il proprio servizio taxi, riprendendolo nella serata di domenica.

Le auto di un’altra azienda che ha puntato moltissimo sulla guida autonoma, cioè Tesla, hanno continuato a funzionare: il loro sistema di assistenza alla guida non ha subìto interruzioni durante il blackout. Ma va chiarito che questo sistema è meno evoluto e richiede per legge la presenza a bordo di un conducente umano pronto a intervenire e legalmente responsabile della condotta del veicolo, e questa regola vale non solo per le Tesla private ma anche nel caso della manciata di cosiddetti “Robotaxi” che l’azienda di Elon Musk sta sperimentando in varie città statunitensi. Waymo, invece, gestisce una flotta di taxi completamente privi di conducente a bordo. Si tratta, insomma, di due situazioni molto differenti.

Ma allora come mai il sistema più sofisticato ha fallito?


La risposta a questo apparente paradosso è che le auto di Waymo, quando incontrano una situazione che non sono in grado di gestire autonomamente, inviano una chiamata di aiuto a un conducente umano, pardon, un fleet response agent nel gergo di Waymo, che riceve dall’auto immagini in diretta di quello che vedono le telecamere esterne del veicolo e una rappresentazione grafica tridimensionale degli oggetti e delle persone che i sensori di bordo stanno rilevando. Questo conducente remoto può dare ordini all’auto su come affrontare la specifica situazione oppure può teleguidarla direttamente nei casi più impegnativi. Questo dettaglio, poco conosciuto ma molto importante, è documentato da Waymo sul proprio sito.

Il problema è che questo invio massiccio di informazioni e questa teleguida dipendono dalla rete cellulare, che durante un blackout può smettere di funzionare, per esempio perché le antenne della rete non sono alimentate autonomamente oppure perché tantissimi cittadini stanno cercando di usare la trasmissione dati via cellulare, visto che il Wi-Fi su rete fissa non va a causa dell’interruzione della corrente elettrica.

In altre parole, il piano B delle Waymo in caso di blackout dipende completamente da una risorsa che proprio durante un’interruzione di corrente rischia di non esserci.

Inoltre le auto di Waymo non sono in grado di adattarsi alle situazioni: se affrontano un incrocio gestito da un semaforo e quel semaforo è fuori uso o spento, non sono capaci di considerarlo come un incrocio non regolato da semafori, nel quale valgono semplicemente le regole della precedenza. Sono infatti in grado di operare solo su strade che sono state mappate e descritte molto dettagliatamente: non riescono a determinare come comportarsi usando solo le regole generali della circolazione stradale e osservando la segnaletica e la situazione locale del momento. Hanno bisogno di un aiuto esterno, e quando questo aiuto esterno viene a mancare fanno giustamente la cosa meno pericolosa: si fermano dovunque si trovino, in attesa che intervenga un conducente remoto.

Ma ovviamente, in caso di blackout è probabile che quasi tutte le auto Waymo della zona colpita perdano contemporaneamente la connessione con il centro di controllo e quindi si fermino tutte per aspettare un operatore umano che le guidi. E siccome l’azienda non ha un operatore per ogni singola auto, si forma una coda di attesa intanto che gli operatori disponibili affrontano e smaltiscono man mano le singole situazioni.

Il sistema di guida semiautonoma adottato da Waymo ha insomma due vulnerabilità fondamentali: dipende da una connessione che può venire a mancare proprio quando serve di più e non è in grado di affrontare una crisi che coinvolga un numero elevato di veicoli simultaneamente.

Queste vulnerabilità, fra l’altro, non spuntano dal nulla a sorpresa. Non solo erano ampiamente prevedibili semplicemente osservando l’architettura del sistema, ma erano già accadute concretamente entrambe pochi mesi fa. Una Waymo, infatti, era rimasta paralizzata di fronte a un semaforo impazzito e un’altra si era fermata in mezzo alla strada a Austin, in Texas, durante un blackout, e la stessa cosa era successa anche in altre occasioni.*

* E una Waymo, ai primi di dicembre, si è inserita in un fermo di polizia in corso.

Sembra assurdo che un’azienda valutata 110 miliardi di dollari non abbia saputo prevedere questi ostacoli. E infatti li ha previsti, ma ha semplicemente scaricato il costo dei disagi conseguenti sui cittadini. E intanto lavora in perdita secca.


La tecnologia di Waymo, infatti, è molto costosa. Una Jaguar I-PACE elettrica come quelle usate da Waymo costa circa 150.000 dollari al pezzo, a causa della quantità di sensori e computer che devono essere aggiunti al veicolo di base per renderlo semi-autonomo: tredici telecamere, quattro sensori LIDAR, sei radar, ricevitori audio esterni, telecamere termiche e processori in grado di elaborare l’enorme quantità di dati raccolta ogni secondo da tutti questi dispositivi.

A questi costi, ovviamente, si aggiungono gli stipendi per il personale: quello che guida i veicoli quando il sistema di bordo non è in grado di farlo, quello che si occupa della manutenzione e della pulizia delle auto, quello amministrativo, e così via: 2500 dipendenti. E poi c’è il costo dei depositi nei quali le auto restano parcheggiate quando sono in attesa di clienti.

Con circa duemila veicoli sparsi in varie città, Waymo dichiara di effettuare circa 300.000 corse a settimana, che valgono circa sei milioni di dollari. Gli incassi annui sono insomma di poco superiori ai 300 milioni di dollari: una goccia nell’oceano della dozzina di miliardi spesi dal 2015 a oggi [Forbes 2025]. L’unica speranza di guadagno è aumentare a dismisura il numero di questi veicoli e ridurne i costi. Infatti i piani di Waymo prevedono il passaggio a modelli di auto più economici e a sensori meno cari e una rapida espansione ad almeno quindici città statunitensi e prossimamente anche in altri paesi, per esempio a Londra e a Tokyo.

Waymo può permettersi di lavorare in perdita per anni perché ha le spalle coperte da Alphabet, la holding che possiede anche Google. E così ha chiesto recentemente altri 15 miliardi di dollari per finanziare la propria espansione. Ma non si sa se sarà mai più conveniente un veicolo autonomo superequipaggiato rispetto a un’auto normale dotata di un tassista umano a bordo, che funziona anche in caso di blackout.

Nel frattempo, quelle due vulnerabilità continuano a restare senza soluzione. E questa è una tendenza comune a tanti colossi del settore hi-tech, dove conta soltanto crescere, senza consolidare le fondamenta, ossia le infrastrutture altrui che sfruttano per alimentare questa crescita, col risultato di costruire soluzioni sempre più complesse ma sempre più precarie, scaricando sulla collettività eventuali malfunzionamenti o effetti collaterali.

Il risultato è quello che una celeberrima vignetta di Randall Munroe, noto ai più come xkcd, descrive così bene: l’intera infrastruttura informatica moderna è rappresentata da una sorta di torre di Jenga sorretta in un angolo da “un progetto che un tizio in Nebraska mantiene dal 2003 senza che nessuno lo ringrazi”. Lo abbiamo visto a novembre scorso, quando un automatismo mal pensato di Cloudflare ha messo in ginocchio mezza Internet, e lo avevamo visto a luglio 2024, quando un aggiornamento di CrowdStrike aveva bloccato otto milioni e mezzo di computer di banche, borse, ospedali, aeroporti, sistemi di pagamento, emittenti televisive e tanti altri servizi vitali in tutto il mondo.

Se i piani di Waymo e degli altri giganti della tecnologia proseguono come stanno procedendo adesso, e se le amministrazioni pubbliche continuano a concedere a queste aziende di sfruttare il suolo pubblico come laboratorio sperimentale, uno dei prossimi blackout informatici potrebbe essere rappresentato da un’immagine molto simbolica e memorabile: il robotaxi smarrito, col suo fragile concentrato di supersensori, software e ambizioni che lampeggia immobile in mezzo alla strada, mentre pedoni, automobilisti e tassisti in carne e ossa gli girano rassegnatamente intorno lanciando colorite maledizioni.

Il problema non è la tecnologia: è la gente alla quale incautamente affidiamo il suo sviluppo.

Fonti

SF blackout: Richmond resource center opened; Waymo back in operation, San Francisco Standard, 2025

Four way stop versus $100 billion valuation, Jwz.org, 2025

Waymo Stats 2025: Funding, Growth, Coverage, Fleet Size & More, The Driverless Digest, 2025

Waymo Is A Trillion-Dollar Opportunity. Google Just Needs To Seize It, Forbes, 2025

Waymo halts service during massive S.F. blackout after causing traffic jams, Mission Local, 2025

Waymo suspends service amid widespread blackout-related disruption, San Francisco Standard, 2025

Waymos are bricked at stoplights, Reddit, 2025

Creating Waymo traffic, Reddit, 2025

Frozen Waymos backed up San Francisco traffic during a widespread power outage, The Verge, 2025

Waymo’s driverless cars froze all over SF during the blackout, BoingBoing, 2025

Waymo resumes robotaxi service in San Francisco after blackout chaos — Musk says Tesla car service unaffected, CNBC, 2025

Mass power outages affect 130,000 in San Francisco and disrupt traffic, The Guardian, 2025

Blackout elettrico, robotaxi fermi: la fragilità della guida autonoma, Quattroruote, 2025

Podcast RSI – Ricerca in Google peggiorata apposta. Come rimediare

Ultimo aggiornamento: 2025/12/30 10:55.

Questo è il testo della puntata del 15 dicembre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


Se avete la sensazione che la ricerca in Google non sia più quella di una volta, quella che trovava al primo colpo quello che cercavate, siete in buona compagnia.

Ormai da qualche tempo, se si cerca qualcosa con Google non si ottiene più direttamente il risultato desiderato: oggi si riceve prima di tutto una sintesi generata da un’intelligenza artificiale, che è spesso sbagliata e fuorviante, poi si ottengono dei risultati sponsorizzati, poi arriva l’elenco delle ricerche correlate fatte da altri utenti, poi vengono visualizzati dei prodotti pubblicizzati, e solo a questo punto Google propone finalmente il risultato desiderato. O almeno qualcosa che gli somiglia, perché di solito servono due o tre tentativi.

Questo peggioramento delle prestazioni è reale. Cosa più importante, è intenzionale.

Benvenuti alla puntata del 15 dicembre 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e vi racconto perché Google ha scelto consapevolmente di funzionare peggio, e soprattutto come possiamo rimediare.

[SIGLA di apertura]


Uno studio condotto dal gruppo di ricerca tedesco Webis nel 2024 [Is Google Getting Worse? A Longitudinal Investigation of SEO Spam in Search Engines, Advances in Information Retrieval. 46th European Conference on IR Research (ECIR 2024), Lecture Notes in Computer Science, March 2024, Springer; Opensearchfoundation.org; Webis.de (PDF); ACM.org] conferma un’impressione condivisa da molti utenti: le ricerche fatte con Google non sono più efficaci come una volta e stanno peggiorando da qualche anno.

Secondo questo studio, la colpa di questo declino è l’enorme quantità di contenuti di bassa qualità che vengono ottimizzati dagli esperti di marketing per comparire nei risultati di Google più in alto rispetto ai contenuti effettivamente utili. Il fenomeno riguarda anche anche motori di ricerca rivali, come Bing e DuckDuckGo, stando a questi ricercatori.

Ma c’è anche chi punta il dito verso la dirigenza di Google, accusandola di aver deciso cinicamente di seguire la strada del peggioramento allo scopo di massimizzare i profitti. Esperti del settore come Cory Doctorow [Medium.com; CBC Radio] e Edward Zitron [Wheresyoured.at] indicano anche una persona che sarebbe specificamente colpevole di questo stato di cose: l’informatico Prabhakar Raghavan [Wikipedia; Techspot.com], che è oggi Chief Technologist di Google e ha diretto per alcuni anni il settore pubblicità e commercio dell’azienda e poi anche quello della ricerca.

Zitron basa la propria accusa sulle mail interne di Google rese pubbliche dall’inchiesta antitrust del Dipartimento di Giustizia statunitense sul colosso della ricerca online. Nel 2019, spiega Zitron, la crescita del numero di ricerche fatte dagli utenti tramite Google era sostanzialmente stagnante, e il settore pubblicità lanciò un allarme: bisognava trovare un modo per indurre gli utenti a fare più ricerche e più clic sulle inserzioni.

Ogni volta che un utente cerca qualcosa in Google, infatti, gli viene mostrata della pubblicità, per la quale Google incassa denaro dagli inserzionisti; se l’utente non solo vede l’inserzione ma ci clicca anche su, Google incassa di più. Ma Google era già all’epoca di gran lunga il motore di ricerca più usato al mondo, per cui non era possibile aumentare il numero di ricerche fatte reclutando nuovi utenti.

La prima soluzione scelta da Google nel 2019 fu rendere le inserzioni meno differenti dai risultati veri e propri, eliminando il colore verde del testo che contrassegnava le pubblicità e proseguendo una tendenza, in corso da anni, che annacquava sempre di più la differenza visiva fra contenuti visualizzati a pagamento e risultati effettivamente desiderati dall’utente.

Per dirla in altre parole, Google fece man mano in modo che fosse più facile per l’utente cliccare per errore su uno spot invece di cliccare su un risultato genuino, e lo fece nonostante nel 2013 si fosse già presa un richiamo da parte della Commissione Federale per il Commercio statunitense (la Federal Trade Commission).

Un grafico pubblicato da Searchengineland.com mostra eloquentissimamente questo progressivo deterioramento.

Grafico che mostra l'evoluzione della segnalazione e dell'evidenziazione degli annunci pubblicitari su Google dal 2007 al 2019, evidenziando i cambiamenti nel design e nel posizionamento degli annunci nel motore di ricerca.
Evoluzione dell’aspetto delle pubblicità in Google dal 2007 al 2019. Credit: SearchEngineLand.

Nel 2007, per esempio, le inserzioni su Google comparivano su sfondo colorato e i risultati veri venivano invece mostrati su sfondo bianco. Nel 2013 lo sfondo era scomparso, sostituito da un bordo e da un’iconcina che indicava che si trattava di una pubblicità. Nel 2020 l’unica differenza visiva rimasta era costituita da un’etichettina che in inglese era composta da due sole lettere: “AD”, abbreviazione di “advert”, ossia “pubblicità”. Oggi tutti questi avvertimenti sono svaniti e distinguere un risultato reale da un’inserzione è quasi impossibile.

La seconda soluzione adottata da Google per aumentare gli introiti fu letteralmente peggiorare le proprie prestazioni, seguendo una logica ineccepibile ma spettacolarmente cinica.


La strategia di peggioramento intenzionale scelta dalla dirigenza di Google sembra in apparenza un autogol, ma in realtà ha perfettamente senso, perlomeno dal punto di vista degli azionisti dell’azienda. Se il motore di ricerca funziona bene e fornisce al primo colpo il risultato desiderato dall’utente, quell’utente è contento, però ha visto una sola bordata di pubblicità.

Ma cosa succederebbe se il motore di ricerca funzionasse meno bene e gli fornisse il risultato soltanto al secondo o terzo tentativo? Vedrebbe il doppio o il triplo di inserzioni. E così gli incassi di Google aumenterebbero massicciamente. Questa è l’idea geniale che, secondo Doctorow e Zitron, fu adottata da Prabhakar Raghavan alcuni anni fa e ha portato alla situazione attuale.

Normalmente peggiorare la qualità di un servizio indurrebbe gli utenti a cercare delle alternative, ma nel caso di Google all’atto pratico non ce ne sono. Grazie anche agli accordi commerciali con i produttori di smartphone, Google è il motore di ricerca predefinito su quasi tutti i dispositivi mobili del mondo, compreso l’iPhone. Google paga una ventina di miliardi di dollari ogni anno ad Apple per questo piazzamento di assoluto favore.

Inoltre la stragrande maggioranza degli utenti non sa come cambiare il motore di ricerca predefinito e spesso non sa neanche che esistono alternative, per cui di fatto Google può permettersi di peggiorare il proprio servizio senza subire alcuna conseguenza negativa. Anche perché le autorità antitrust statunitensi che dovrebbero intervenire si limitano da anni a scrivere letterine di fermo rimprovero.

Google, insomma, è come un albergatore che possiede l’unico hotel in una località e quindi può permettersi di aumentare i prezzi quanto gli pare o di fornire un servizio scadente e al risparmio, perché tanto i clienti non hanno scelta. E lo stesso cinico ragionamento vale anche per i suoi fornitori e per il suo personale: può decidere lui quanto e quando pagarli, perché non hanno nessun altro a cui possono vendere i loro prodotti e servizi.

Questa strategia, che l’esperto Cory Doctorow definisce coloritamente enshittification o immerdificazione, funziona benissimo, tanto è vero che viene adottata anche da altri colossi del settore informatico e tecnologico.

Amazon, per esempio, ha iniziato vendendo prodotti sottocosto e con la spedizione gratuita per gli abbonati ad Amazon Prime. Una volta consolidata la clientela, il numero di fornitori che usavano Amazon per vendere i propri prodotti è aumentato vertiginosamente, e a quel punto l’azienda di Jeff Bezos ha iniziato a chiedere commissioni sempre più alte a questi fornitori, tanto che nel 2023 oltre il 45% del prezzo di vendita dei prodotti finiva in tasca ad Amazon.

Audible, che controlla oltre il 90% del mercato degli audiolibri, inizialmente offriva agli autori dal 20% al 40% degli incassi, ma ora usa un complesso e fumoso sistema di redistribuzione degli introiti e di restituzione degli audiolibri, per cui ai pesci piccoli arriva una miseria e solo i grandi nomi ricevono lauti compensi; anzi, ai grandi arriva anche una quota degli incassi delle vendite dei piccoli. Gli utenti non sanno che esiste questo meccanismo e pensano che quello che pagano per un audiolibro vada in buona parte all’autore, ma non è così [Medium.com, 2025; Authorsguild.org, 2022].

Inoltre Audible, che è di proprietà di Amazon, impone sistemi anticopia su tutti gli audiolibri che distribuisce, per cui un utente che dovesse decidere di smettere di usare Audible perderebbe tutti i libri che ha pagato. L’azienda, quindi, tiene in pugno sia gli autori, sia i consumatori.

Ma almeno nel caso di Google noi utenti possiamo fare subito qualcosa di concreto contro questo modo di operare.


Questo qualcosa si chiama SearXNG [pronuncia: surk-sing o searching], ed è facilissimo da usare (a differenza del suo nome, che è complicatissimo da pronunciare): basta installarlo oppure, ancora più semplicemente, visitare uno dei siti che lo offre via Web e immettere lì quello che si vuole cercare.

Si ottengono risultati puliti e precisi, senza deliranti e inaffidabili aiutini forniti da energivore intelligenze artificiali, senza risultati sponsorizzati da scansare, senza inserzioni mascherate, e senza regalare dati personali a mega-aziende o a nessuno. E SearXNG non costa nulla, perché è un servizio gestito dagli utenti per gli utenti, non è in mano a fantastiliardari discutibili ed è basato su software aperto e libero.

SearXNG è un cosiddetto metamotore di ricerca. In sostanza, passa la vostra richiesta a una rosa di motori di ricerca commerciali, che includono Google, Bing, DuckDuckGo e molti altri, e restituisce a voi i risultati. Fa da filtro salvaprivacy e impedisce a questi motori di acquisire informazioni su di voi e di collezionare la cronologia delle vostre ricerche.

Potete scegliere fra tanti siti che lo forniscono: l’elenco completo e aggiornato si trova presso Searx.space, e trovate una guida completa e dettagliata in italiano presso Devol.it. Se usate un sito europeo, i vostri dati personali beneficiano delle protezioni offerte dalla normativa GDPR.

Provarlo non costa nulla, e se vi piace potete poi impostarlo come motore di ricerca predefinito in qualunque browser seguendo le apposite istruzioni. Potete anche configurarlo in modo da selezionare i motori di ricerca che più vi interessano e le categorie che desiderate, come immagini, video, contenuti presenti sui social network, musica e altro ancora.

Può sembrare paranoico ed eccessivo ricorrere a soluzioni come questa per evitare di essere profilati commercialmente, ma è ormai chiaro che il problema non è più puramente di natura commerciale. Il corso attuale della politica statunitense significa infatti che i dati che affidiamo ad aziende di quel Paese possono essere usati contro di noi molto concretamente.

Lo dimostra per esempio un recente avviso, pubblicato ai primi di dicembre sul Federal Register, che è l’equivalente statunitense della gazzetta ufficiale. Questo avviso annuncia [Rsi.ch; BBC] l’intenzione di chiedere a chiunque voglia visitare gli Stati Uniti di fornire la cronologia* delle sue attività sui social network sull’arco degli ultimi cinque anni se proviene da un Paese che è esentato dal visto, come Australia, Regno Unito, Svizzera, Francia, Germania e altri. Verranno chiesti anche i numeri di telefono usati negli ultimi cinque anni e gli indirizzi e-mail degli ultimi dieci, insieme a informazioni sui familiari, come per esempio i loro nomi, numeri di telefono, data e luogo di nascita e indirizzo di residenza.

*  Numerosi lettori mi hanno segnalato un articolo de Il Post del direttore, Francesco Costa, che sembra contraddire quello che ho detto e scritto nel podcast e minimizzare l’effettiva pericolosità di questa misura proposta. Ma a pagina 9 l’annuncio del Federal Register riporta testualmente quanto segue (grassetti aggiunti da me): "In order to comply with the January 2025 Executive Order 14161 (Protecting the United States From Foreign Terrorists and Other National Security and Public Safety Threats), CBP is adding social media as a mandatory data element for an ESTA application. The data element will require ESTA applicants to provide their social media from the last 5 years." Cosa si intenda con “their social media from the last 5 years" è da chiarire, ma io lo interpreterei in maniera molto estensiva, perché non è una richiesta di fornire i nomi degli account social, ma di fornire i “media”, ossia i contenuti di quegli account.

Costa dice anche che “Non risulta che in questi anni l’inclusione degli account social fra le moltissime informazioni personali che è sempre stato necessario fornire [...] abbia determinato comportamenti repressivi simili a quelli che l’amministrazione Trump ha attuato contro alcune persone che erano già nel paese, come gli studenti filopalestinesi espulsi per il loro attivismo”.

Ma va notato che i visti di sei persone non statunitensi sono stati revocati in seguito ai loro commenti fatti sui social network a proposito dell’uccisione del commentatore di estrema destra Charlie Kirk [The Guardian, 2025/10/14]. Inoltre è già accaduto che turisti di vari Paesi si siano visti negare l’ingresso negli Stati Uniti di recente “sulla base di contenuti trovati nei dispositivi mobili” [The Times, 2025/12/11]. Che tutto questo, come dice Costa, non sia successo “in questi anni” non fornisce alcuna garanzia per il futuro.

In aggiunta, il Dipartimento di Stato USA ha dato istruzioni al proprio personale di rifiutare le richieste di visti, soprattutto del tipo H-1B (visti di lavoro temporanei), di persone che lavorano nel fact-checking e nella moderazione di contenuti, dichiarando che si tratta di forme di “censura” dell’asserita libertà di parola degli statunitensi [Npr.org, 2025/12/11].

L‘amministrazione Trump sta inoltre cercando di vietare a cinque ricercatori europei l’ingresso o la residenza negli USA, accusandoli di essere “censori stranieri” che vogliono imporre restrizioni nei social network [Scripps News, 2025/12/29].

In questa lista manca per ora la cronologia delle ricerche online, ma viene il dubbio che non sia una dimenticanza perché la storia completa di tutto quello che abbiamo mai cercato in Google ce l’hanno già. Ricorrere a soluzioni come SearXNG è quindi un piccolo ma positivo passo nella direzione giusta, verso la sovranità digitale che la cronaca ha trasformato da fantasia idealista in necessità assolutamente concreta.

Fonti aggiuntive

Perché è necessario e urgente liberarsi di Google – e come cominciare a farlo, Wumingfoundation.org, 2020.

Quickstart for SearXNG, Elest.io.

SearXNG enjoyers, how do you do it?, Privacyguides.net, 2022.

SearXNG, Wikipedia.org, 2025.

Welcome to SearXNG, Searxng.org, 2025.

Setting Up SearXNG, Snee.la, 2024.

How to Get AI Out of Your Google Search Results, Therevelator.org, 2025.

Just Want Links in Google Search Results Instead of AI Overviews? Here’s How to Do It, Cnet.com, 2025.

Podcast RSI – Niente social sotto i 16 anni, parte l’esperimento australiano. Altri Paesi si preparano

Questo è il testo della puntata dell’8 dicembre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: “Australia will become the first country in the world to ban under 16s from having social media accounts.”]

È la voce della ministra australiana per le comunicazioni Anika Wells, che annuncia che il prossimo 10 dicembre entrerà in vigore in Australia il divieto assoluto di avere un account sui principali social network per chiunque abbia meno di sedici anni. Molti Paesi stanno osservando con interesse questo esperimento sociale australiano per vederne i risultati.

Ma ancora prima della scadenza, i giovani del Paese stanno scoprendo come eludere questo divieto, beffando i controlli sull’età in maniere comicamente semplici. Le buone intenzioni dei politici si scontrano con la realtà tecnica e ne escono con le ossa rotte, come ampiamente previsto dagli esperti. Ma da questa sperimentazione stanno anche emergendo idee meno grossolane e più mirate su come arginare gli effetti sociali indiscutibilmente pesantissimi dei trucchi usati dai social network per indurre dipendenza nei loro utenti. Trucchi che uno dei loro inventori definisce senza mezzi termini “cocaina comportamentale”.

Benvenuti alla puntata dell’8 dicembre 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Dal 10 dicembre prossimo in Australia sarà vietato ai minori di sedici anni possedere un account su TikTok, Instagram, Facebook, Threads, X, Snapchat, Twitch, Kick, Reddit e YouTube. È il primo effetto di una legge, denominata Social Media Minimum Age Bill, approvata poco più di un anno fa. Ne avevo parlato in questo podcast all’epoca, segnalando i problemi tecnici di questo divieto.

È passato un anno, e come era facile prevedere i problemi tecnici non sono stati risolti: non appena i social network colpiti dal provvedimento hanno iniziato ad avvisare i loro utenti che avrebbero perso i loro account se non avessero dimostrato di avere più di sedici anni, i giovanissimi sotto questa soglia hanno escogitato tecniche per eludere i controlli. È emerso che su Snapchat, per esempio, basta mostrare alla telecamera frontale dello smartphone una foto di una persona adulta, oppure indossare una maschera di carnevale che raffiguri un viso adulto, e l’app risponde “Grazie di aver verificato la tua età”.

Uno degli aspetti più criticati della legge australiana, infatti, è che delega ai social network il compito di scegliere la tecnica usata per verificare l’età. E ovviamente i social network hanno fatto solo il minimo indispensabile per essere conformi alla legge, perché non hanno nessun interesse a perdere utenti. Dare alle volpi le chiavi del pollaio non è mai una buona idea, specialmente se le sanzioni in caso di inadempienza sono trascurabili, come in questo caso. Il loro importo massimo, 50 milioni di dollari [australiani], sembra notevole, ma è l’equivalente di appena un paio d’ore di fatturato delle grandi piattaforme social.

Le volpi in questione hanno scelto vari metodi per la verifica dell’età. Alcune offrono il riconoscimento facciale, che però è facilmente aggirabile e poco preciso, per cui sbaglia spesso, approvando una quattordicenne dall’aspetto maturo e rifiutando chi ha lineamenti molto fini, con un margine di errore di circa due o tre anni per eccesso o per difetto.

L’invio di una foto di un documento d’identità è più affidabile, ma comporta che i social network (o meglio, le società private alle quali hanno dato l’incarico in subappalto) diventano custodi di milioni di documenti personali, e questo chiaramente non piace agli utenti, che non si fidano dei social. Inoltre procurarsi temporaneamente un documento di una persona più che sedicenne non è un problema.

C’è anche il metodo della cosiddetta age inference o stima dell’età basata sul comportamento online, ma è risultato poco attendibile. La legge australiana, però, parla semplicemente di “misure ragionevoli” di verifica, senza fissare metodi specifici o livelli minimi di affidabilità, e questi sono i risultati.

Le tecniche di elusione del divieto sono tante. Si può anche usare una VPN per simulare di non essere in Australia, o si possono usare piattaforme social non colpite dal divieto, e questo significa che paradossalmente la legge australiana rischia di spingere gli adolescenti verso servizi online ancora meno adatti alla loro età oppure ancora meno moderati dai loro gestori, come WhatsApp o Telegram. Le piattaforme escluse dal divieto sono numerose e includono Discord, GitHub, Lego Play, Roblox, Steam, Steam Chat, Google Classroom e YouTube Kids. Anche ChatGPT non fa parte dei servizi online vietati ai minori di sedici anni.

Inoltre gran parte dei contenuti dei social network resta comunque accessibile ai minori: infatti chi ha meno di sedici anni non può avere un account social, ma può benissimo vedere qualunque post, video o foto presente sui social che abbia un link pubblico.


Va detto che i legislatori australiani erano consapevoli del fatto che questo divieto sarebbe stato eludibile da qualunque adolescente sufficientemente motivato. Ma quello che conta, secondo le dichiarazioni della ministra per le comunicazioni Anika Wells, è che la legge permette ai genitori di dire ai figli che non sono loro i cattivi che vietano arbitrariamente l’uso dei social: è lo Stato a vietarlo. Questa legge è anche un messaggio chiaro del fatto che i social network sono considerati ufficialmente un ambiente tossico, e questo è un aiuto non tecnico ma sociale tutt‘altro che trascurabile. Un parafulmine per le ire dei minori ai quali verrà tolto tra pochi giorni un canale di comunicazione dal quale dipendono per i propri rapporti sociali con i coetanei.

Danimarca, Grecia, Romania, Francia, Nuova Zelanda, Malesia e la Commissione Europea hanno manifestato l’intenzione di introdurre un’età minima di accesso ai social network. Anche in Italia, Germania, Paesi Bassi, Regno Unito e Spagna ci sono proposte di legge in questo senso. La consapevolezza che non si può restare senza fare nulla di fronte a dati sempre più allarmanti sull’aumento del disagio giovanile, del bullismo, dei contenuti d’odio, dei predatori online e delle ansie direttamente legate all’uso dei social network è ormai ampiamente diffusa. Il problema è cosa fare, e come farlo.

L’Unicef, per esempio, sostiene che i cambiamenti proposti dalla legge australiana “non risolveranno i problemi che i giovani devono affrontare online. I social media”, dice, “hanno molti aspetti positivi, come l’educazione e il mantenimento dei contatti con gli amici… è più importante rendere più sicure le piattaforme social e ascoltare i giovani per essere sicuri che le modifiche siano davvero utili.” Anche perché non è che appena si compiono sedici anni si diventa di colpo automaticamente capaci di gestire le trappole dei social network.

Una delle proposte tecnicamente più interessanti è quella di rendere opzionali gli algoritmi che propongono contenuti. Oggi praticamente tutti i social network registrano e schedano accuratamente i gusti e le abitudini di ogni loro utente e gli suggeriscono persone o contenuti che potrebbero interessargli. Ma questi algoritmi sono fatti in modo da farci continuare a scorrere e guardare i contenuti dei social, dando la priorità a qualunque cosa che produca forti risposte emotive, come l’indignazione, la rabbia o la misoginia. Togliere l’algoritmo ai social, o renderlo facoltativo, permetterebbe agli utenti di scegliere cosa vogliono vedere invece di trovarsi con un fiume continuo di contenuti preselezionati e predigeriti. Che è quello che già avviene, per esempio, sul social network non commerciale Mastodon.

Gli esperti confermano che gli algoritmi sono uno dei fattori chiave nella tossicità dei social network. Per esempio, non sono in grado di capire se un utente si è soffermato a guardare un video perché gli piace o perché è inorridito, e quindi gli propongono ciecamente altri contenuti dello stesso tipo. Inoltre alimentano stereotipi pericolosi: uno studio del 2024 ha creato degli account di prova su TikTok e su YouTube, e tutti quelli identificati come maschili sono stati bombardati in breve tempo di “contenuti maschilisti, antifemministi ed estremisti di altro tipo”. Ma gli algoritmi sono anche uno dei principali fattori di crescita e di fatturato dei social network, che quindi sono disposti a fare qualunque cosa e usare qualunque trucco pur di continuare a massimizzare i profitti e creare dipendenza nei loro utenti.

Quest’accusa è confermata da un esperto assoluto del settore, Aza Raskin, che ha una caratteristica molto particolare: è stato lui a inventare, nel 2006, il cosiddetto scorrimento infinito (o infinite scrolling): quella funzione delle app e dei siti per cui non si arriva mai in fondo a una pagina, ma vengono continuamente caricati nuovi contenuti. Questa funzione toglie all’utente il bisogno di cliccare per passare a una pagina successiva. Gli toglie la pausa e quindi rende molto più facile continuare a guardare video e post senza mai fermarsi e soprattutto senza dover mai pensare.

In un’intervista alla BBC del 2018, Raskin ha spiegato che ogni dettaglio di un’app social viene studiato per massimizzare la creazione di una dipendenza. Per esempio, si analizza l’esatta sfumatura di colore dell’indicatore delle notifiche, che è sempre rosso perché questo colore stimola il cervello con sensazioni di urgenza più di ogni altro, ma alcuni toni di rosso funzionano meglio di altri. Raskin descrive questa strategia dei social network con un termine particolarmente efficace.

[CLIP da “Smartphones: The Dark Side” (BBC, 2018): “It’s as if they’re taking behavioral cocaine and just sprinkling it all over your interface”]

Quello che fanno i tecnici dei social network, spiega l’esperto, è spargere su tutta l’interfaccia della loro app cocaina comportamentale.


Anche altri esperti confermano che i gestori dei social network creano consapevolmente una dipendenza nei loro utenti. Lea Pearlman, coinventrice del pulsante “Mi piace” di Facebook, conferma che persino lei era diventata dipendente dalla gratificazione offerta da quel “Mi piace”. Sandy Parakilas, tecnico di Facebook fino al 2012, ha spiegato che nell’azienda c’era una chiara consapevolezza del fatto che il prodotto creava assuefazione e dipendenza, con un “modello commerciale progettato per coinvolgerti e fondamentalmente succhiarti via dalla vita tutto il tempo possibile e poi vendere quell’attenzione agli inserzionisti.” L’ex presidente di Facebook Sean Parker ha ammesso che l’azienda stava “sfruttando una vulnerabilità della psicologia umana”, ne era consapevole ma lo faceva lo stesso.

Forse, più di ogni divieto, può essere efficace far sapere ai giovani e anche agli adulti quale sia la vera natura dei social network commerciali. Spazi concepiti per sfruttare l’utente, non per facilitargli la comunicazione. Spazi nei quali i truffatori sono tollerati e a volte persino protetti, perché generano miliardi di incassi, per esempio a Meta con le loro inserzioni fatte per promuovere i loro raggiri, come ho raccontato in una puntata recente di questo podcast. Non sono parchi di divertimento: sono laboratori, nei quali siamo trattati come topolini e siamo altrettanto sacrificabili.

Imporre per legge l’estirpazione dai social network delle funzioni che creano questa dipendenza, come lo scorrimento infinito e gli algoritmi, sembra insomma essere una soluzione tecnicamente molto più efficace, praticabile e verificabile di un semplice limite di età. E in ogni caso quel limite di età può essere applicato senza dare alle piattaforme social tanti dati personali, usando per esempio un’identità digitale garantita dallo Stato, come quella svizzera recentemente adottata o quella in fase di sviluppo nell’Unione Europea, che consente all’utente di certificare a un social network la propria età senza inviargli nessuna informazione personali, nessuna scansione di documenti e nessuna foto del proprio volto.

Nel bene e nel male, l’Australia sta facendo certamente da apripista, e questo significa che gli altri Paesi possono imparare dalle sue esperienze pionieristiche cosa funziona e cosa non funziona. E magari, si spera, non ripetere gli stessi errori.

Podcast RSI – WhatsApp, miliardi di nomi e numeri saccheggiabili per anni

Questo è il testo della puntata dell’1 dicembre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio di notifica WhatsApp]

Una falla fondamentale nel funzionamento di WhatsApp ha reso possibile compilare un elenco di tre miliardi e mezzo di numeri di telefono di utenti e associarli a circa un miliardo di nomi, foto e informazioni di profilo di quegli utenti. È la più grande fuga di dati della storia: l’elenco telefonico di mezza umanità, senza filtri. Una manna per ficcanaso, stalker, truffatori e anche governi repressivi, visto che in alcuni paesi avere WhatsApp sul telefono è illegale e può portare ad arresti e persecuzioni.

Questa è la storia di questa fuga di dati e di come i suoi autori, dopo aver raccolto questo bottino immenso, lo hanno semplicemente cancellato. Ma è anche la storia di cosa possiamo fare noi, come utenti, di fronte all’indifferenza di Meta per questa falla, che in parte è ancora aperta.

[CLIP: audio di notifica WhatsApp]

Benvenuti alla puntata del primo dicembre 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il successo planetario di WhatsApp deriva in gran parte dalla sua facilità di utilizzo. Quando la installiamo, normalmente le diamo il permesso di leggersi tutti i numeri della nostra rubrica telefonica. L’app cerca ciascuno di questi numeri nell’archivio centrale degli utenti di WhatsApp e, se li trova, recupera le informazioni di profilo corrispondenti, che spesso includono il nome della persona e una sua foto. E così, in una manciata di secondi, l’app è pronta per l’uso, con tutti i contatti che ci servono, chiaramente etichettati.

È tutto molto bello, ma se guardiamo questa facilità con l’occhio di chi si occupa di sicurezza informatica ci rendiamo conto che permette a un malintenzionato di compilare un elenco di tutti gli utenti di WhatsApp del mondo, insieme alle relative informazioni di profilo, semplicemente mettendo in rubrica uno dopo l’altro tutti i numeri di telefono possibili del pianeta.

Descritta così sembra un’idea totalmente assurda, ma in realtà si tratta di una tecnica classica di estrazione di dati: la cosiddetta enumeration. Per fare la ricognizione di un bersaglio informatico si tentano tutti gli indirizzi possibili, o tutti gli accessi possibili, alla ricerca di punti deboli o di informazioni interessanti. Una enumeration è l’equivalente informatico di un ladro che tenta di aprire sistematicamente tutte le porte e le finestre di una casa per vedere quali non sono chiuse a chiave o bloccate.

Anche a me, molti decenni fa, è capitato di fare enumeration sui numeri di telefono: non per rubare, ma per semplice curiosità di giovane hacker. Erano i tempi in cui per collegarsi a Internet o a un servizio informatico pubblico si usava ancora il modem, sulla rete telefonica fissa, e molti di questi accessi e servizi non erano pubblicamente catalogati. E così programmavo il computer e il modem per tentare uno dopo l’altro tutti i numeri di telefono possibili, concentrandomi su quelli a chiamata gratuita per non svenarmi. Se rispondeva una voce, il mio modem riagganciava; se rispondeva un altro modem, partiva un tentativo di connessione. In questo caso salvavo le informazioni che identificavano il servizio, e poi passavo al numero successivo [in sostanza facevo wardialing].

Fu un piacere scoprire quante università, banche, aziende e istituzioni stavano adottando le comunicazioni digitali. Nella comunità hacker di quell’epoca ci si scambiavano i risultati di queste scansioni per costruire collettivamente una mappa di questo universo informatico così promettente e futuribile. Ma una sera, mentre ascoltavo i tentativi del mio computer, sentii rispondere una voce maschile con chiaro accento americano e tono da centralinista. Disse due parole: “FBI Headquarters…”.

Il mio modem riagganciò con indifferenza e passò al numero successivo come se niente fosse, ma io rimasi colpito da quella risposta. Forse avevo trovato uno dei numeri nazionali usati dagli agenti dell’FBI per chiamare gratuitamente la sede centrale negli Stati Uniti da qualunque telefono, tipicamente da una cabina; a quei tempi non c’erano i cellulari e men che meno c’era il roaming. O forse avevo semplicemente trovato un buontempone che era stufo delle chiamate moleste e dei ragazzini con il modem e aveva escogitato questo deterrente molto convincente. Sia come sia, passai qualche sera con l’ansia di trovarmi i Men in Black alla porta. Ma non accadde nulla.

[CLIP: audio di notifica WhatsApp]

Tornando a WhatsApp, fare la scansione di tutti i numeri di telefono del mondo per vedere quali hanno un account WhatsApp è una tecnica di enumeration fattibilissima e realistica. Ovviamente non si immettono a mano tutti i numeri in un telefonino, ma si usa un software apposito, tipicamente uno dei tanti client open source che emulano l’app di WhatsApp. Con questa tecnica è possibile interrogare ben settemila numeri telefonici al secondo per ogni computer assegnato a questo compito. Basta insomma un po’ di pazienza e di automazione e l’elenco di tutti gli utenti WhatsApp del pianeta si può davvero creare.

Se vi state chiedendo come mai cito questa cifra così precisa, chiarisco subito, a scanso di equivoci, che non è farina del mio sacco: è quella che hanno documentato le persone che hanno creato davvero questo elenco mondiale.


Un gruppo di ricercatori universitari e informatici austriaci ha infatti pubblicato di recente un articolo tecnico che spiega in dettaglio le tecniche e i risultati di una scansione di massa effettuata da loro su tutti i numeri telefonici cellulari potenziali del mondo, che sono circa 63 miliardi, alla ricerca di quelli associati a un account WhatsApp.

Questi ricercatori sono riusciti in breve tempo a compilare un censimento di circa tre miliardi e mezzo di numeri telefonici di utenti WhatsApp, al ritmo di circa cento milioni di tentativi ogni ora. Per il 57% di questi numeri era accessibile la foto del profilo e per un altro 29% era accessibile il testo del profilo.

Il primo risultato interessante di questo censimento è che WhatsApp non ha bloccato questa scansione di massa, nonostante l’elevatissimo e anomalo numero di consultazioni dei suoi archivi provenisse da un unico indirizzo IP e da un solo account aperto dai ricercatori. Questo significa che qualunque malintenzionato avrebbe potuto fare la stessa cosa. Anzi, i ricercatori documentano che WhatsApp era già stata avvisata anni fa del problema comportato da questa situazione ma in sostanza non aveva fatto nulla per risolverlo. Normalmente un attacco basato su enumeration si blocca o si scoraggia mettendo un tetto al numero di richieste al secondo che possono essere fatte da un singolo dispositivo (è il cosiddetto rate limiting), ma Meta, che possiede WhatsApp, ha introdotto questo tetto solo dopo che i ricercatori l’hanno avvisata di quello che avevano fatto.

Per anni, insomma, chiunque può aver silenziosamente compilato un censimento analogo, che i ricercatori definiscono “la più vasta esposizione di numeri di telefono e di dati utente associati mai documentata” e sarebbe, secondo loro, “la più grande fuga di dati della storia, se non fosse stata realizzata nell’ambito di una ricerca svolta responsabilmente”. I ricercatori austriaci, infatti, hanno cancellato i dati raccolti, dopo averli però analizzati estesamente.

Il secondo risultato interessante è appunto legato a questa analisi. Molte persone si chiedono quale sia il problema e cosa mai possano farsene i malintenzionati di dati che tutto sommato sono pubblici, come il numero di telefono e le informazioni del profilo. Ma è l’aggregazione di questi dati che fa la differenza. Truffatori e spammer ci andrebbero a nozze, usandoli per campagne mirate, per esempio, e i ficcanaso potrebbero trovare facilmente i numeri di telefono di celebrità o persone vulnerabili. E Meta, ovviamente, ha accesso a questi dati molto vendibili a scopo pubblicitario e di marketing, perché la crittografia end-to-end che WhatsApp usa protegge le conversazioni, ma non i dati di contorno.

Tuttavia i ricercatori hanno notato una cosa peggiore. Ci sono milioni di numeri di telefono iscritti a WhatsApp in Paesi nei quali l’app è ufficialmente bandita: per esempio 2,3 milioni in Cina e 1,6 milioni in Myanmar. Per anni i governi di questi paesi avrebbero potuto sfruttare questa falla di WhatsApp per censire e punire quegli utenti, e Meta lo sapeva ma non ha fatto nulla.

C’è infine un altro aspetto sorprendente scoperto dai ricercatori. La loro scansione ha consentito anche di accedere alle chiavi crittografiche di questi tre miliardi e mezzo di account. Queste chiavi sono un elemento fondamentale della protezione della riservatezza dei messaggi. Averle scaricate e censite non consente di intercettare i messaggi, ma i ricercatori hanno scoperto che un numero non trascurabile di account WhatsApp ha le stesse chiavi. Questo vuol dire che quegli account sarebbero in grado di decifrare i messaggi degli altri utenti che hanno la medesima loro chiave. Questo fenomeno, però, non sembra essere dovuto a un errore tecnico da parte di WhatsApp ma, secondo i ricercatori, è causato dall’uso di versioni alterate dell’app da parte di truffatori professionisti.


Riassumendo: nonostante le promesse di avere a cuore la nostra privacy e la protezione apparente data dalla crittografia end-to-end, Meta ha accesso a una massa enorme di dati statistici sugli utenti di WhatsApp e ha fatto molto poco in questi anni per arginare il problema del censimento di massa degli utenti da parte di terzi ostili e di governi poco democratici. Quel poco che ha fatto è stata una reazione alle segnalazioni pubbliche dei vari ricercatori.

Il nucleo del problema è l’uso del numero di telefono come chiave per trovare le persone. WhatsApp sta lavorando all’introduzione dei nomi utente, come avviene in altre app di messaggistica, e questo sarebbe un buon passo nella direzione giusta.

Nel frattempo, noi utenti possiamo fare qualcosina per renderci meno vulnerabili e appetibili a ficcanaso, truffatori, molestatori e spammer. Lasciando da parte gesti drastici come disinstallare WhatsApp e passare ad applicazioni analoghe, come Signal, cosa che per moltissimi è impraticabile, possiamo perlomeno scegliere di impostare WhatsApp in modo che le nostre informazioni di profilo siano accessibili solo ai nostri contatti o addirittura a nessuno.

Basta andare nella sezione Privacy dell’app e impostare a Nessuno o I miei contatti opzioni come Chi può vedere l’ultimo accesso, Chi può vedere quando sono online, Chi può vedere la mia immagine del profilo e Chi può visualizzare la mia sezione info.

È meglio dare anche uno sguardo alle impostazioni di condivisione della posizione in tempo reale nelle chat, che sono sempre nella sezione Privacy dell’app.

Già che ci siamo, conviene cogliere l’occasione anche per limitare chi ci può aggiungere ai gruppi, andando in Privacy – Gruppi e scegliendo I miei contatti invece di Tutti. Questo impedisce agli spammer di aggiungerci ai loro gruppi altamente indesiderati.

Può sembrare paradossale che un’app che prometteva di rendere più semplici le comunicazioni ci costringa a complicarci la vita per proteggere proprio quelle comunicazioni, ma non bisogna dimenticare che il motivo reale per il quale esistono le app commerciali di messaggistica non è il bene dell’utente, ma quello dell’azionista dell’azienda che produce l’app. E meno male che ci sono i ricercatori, che ficcano il naso nel funzionamento dietro le quinte di queste app per tutelarci dagli altri ficcanaso della Rete.

Podcast RSI – Come riconoscere un’immagine generata da IA: metodi e strumenti

Questo è il testo della puntata del 24 novembre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: citazione di Jeremy Carrasco da questo video: “You will be fooled by an AI photo this week and you probably already have been and you didn’t know it”]

Questa è la voce di Jeremy Carrasco, un professionista audiovisivo che insegna, sui suoi popolari canali social [YouTube; TikTok; Instagram; sito Showtools.ai], le tecniche per riconoscere immagini e video che sembrano veri ma sono in realtà generati tramite app di intelligenza artificiale. Sta dicendo che probabilmente siete già stati ingannati da un’immagine sintetica di recente e che con l’arrivo del nuovo software generativo di Google, chiamato bizzarramente Nano Banana Pro, queste immagini sono diventate praticamente indistinguibili a occhio nudo da quelle vere, con tutti i problemi che questo comporta.

Ma ci sono ancora dei metodi che ci possono aiutare a evitare questa continua demolizione della barriera che fino a poco tempo fa separava quasi sempre il reale dal falso. Ve li presento in questa puntata, datata 24 novembre 2025, del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io, come consueto, sono Paolo Attivissimo.

[SIGLA di apertura]


Quando vado nelle scuole per parlare con gli studenti e i docenti di temi legati all’informatica, fa sempre capolino la questione delle immagini generate dall’intelligenza artificiale e di come riconoscerle. Molte persone, giovani e adulte, sono convinte di essere perfettamente in grado di distinguere le foto reali dalle immagini sintetiche. Ma quando mostro loro una serie appositamente scelta di immagini create con i più recenti software di sintesi grafica, mescolate insieme a fotografie reali, non riescono a separare il contenuto sintetico da quello fotografico.

È ormai passato il tempo in cui le immagini generate si riconoscevano grazie a elementi abbastanza vistosi come il numero delle dita delle mani o la forma stessa delle mani. I vecchi software fallivano molto spesso nel creare immagini realistiche di queste parti anatomiche complesse e articolate. Ma non è più così, e quindi bisogna evitare l’errore di dichiarare che un’immagine è sicuramente reale solo perché le persone raffigurate hanno mani realistiche con cinque dita e non quattro o sei.

Un altro indizio utile è la posizione dei nei e delle lentiggini sul viso o sul corpo delle persone raffigurate. Se cambia da un’immagine all’altra, almeno una delle immagini in questione deve essere sintetica. Anche la forma dei denti e delle orecchie è un buon indicatore: se non è coerente, è il caso di sospettare che si tratti di immagini generate.

Ma attenzione: non è vero il contrario. Se vedete che nei, lentiggini, orecchie e denti sono coerenti in una serie di immagini, non vuol dire affatto che siano per forza vere. Possono essere semplicemente fotogrammi tratti da un video sintetico. Questa è una tecnica molto usata proprio per generare gruppi di immagini con dettagli persistenti.

Molte persone credono di essere capaci di riconoscere a occhio le immagini sintetiche guardando la pelle dei soggetti raffigurati, che in effetti è spesso troppo uniforme, lucida e plasticosa oltre che priva dei dettagli di una pelle reale. Ma esistono app che generano immagini e video sintetici con soggetti che hanno una pelle perfettamente realistica, con i pori, la peluria e le piccole variazioni di colore tipiche di una pelle umana effettiva. E in questo caso non si può neanche sentenziare che un’immagine è sicuramente sintetica se il soggetto raffigurato ha la pelle uniforme e priva di dettagli, perché da decenni il mondo della fotografia commerciale usa programmi di fotoritocco per eliminare sistematicamente rughe, nei e qualunque altra caratteristica considerata “imperfezione”. Specialmente nel settore delle immagini di moda, le carnagioni impossibilmente perfette grazie a Photoshop sono ovunque da tempo.

Ci sono però ancora oggi alcuni indizi visivi che possono rivelare con ragionevole certezza la natura sintetica di un’immagine o di un video. Jeremy Carrasco suggerisce di ingrandire i video e di guardare l’erba, le piante, il pelo animale o i capelli eventualmente inquadrati: nei video sintetici risulteranno sgranati e i loro dettagli sembreranno ribollire e rimescolarsi in modo molto caratteristico.

Un’altra tecnica abbastanza efficace è guardare le eventuali scritte presenti nell’immagine. Molti generatori di queste immagini sintetiche, infatti, sbagliano clamorosamente a generare caratteri e parole. Ma Nano Banana Pro, per esempio, genera testi perfetti, per cui non si può dichiarare che una foto è reale solo perché le sue scritte sono perfettamente realistiche.

Hany Farid, docente universitario alla University of California ed esperto di informatica forense oltre che autore di libri sulla falsificazione delle immagini e sulle tecniche per riconoscerle, suggerisce inoltre di controllare la coerenza delle ombre e delle cosiddette linee di fuga. Nelle immagini reali, le linee parallele degli oggetti raffigurati, per esempio i binari di un treno o gli spigoli di un oggetto o di una stanza, sembrano convergere tutte in un punto. Nelle immagini sintetiche, invece, queste linee non lo fanno. Lo stesso vale per le ombre: se si tracciano delle righe che uniscono un punto di un’ombra con la zona del soggetto che ha creato quell’ombra, quelle righe devono convergere tutte in uno stesso punto, che deve essere specificamente il punto dal quale proviene la luce che illumina la scena. Se non lo è, la foto è perlomeno manipolata.

How to Spot Fake AI Photos

Ma ci sono anche degli strumenti software che ci possono aiutare in quest’analisi.


L’esperto Jeremy Carrasco consiglia di usare l’intelligenza artificiale come analista automatizzato. Ma attenzione: dare un’immagine in pasto a ChatGPT e chiedere se è reale o meno non è assolutamente sufficiente. Invece Gemini, una delle intelligenze artificiali di Google, può controllare se un’immagine contiene un watermark, una sorta di “filigrana” invisibile ai nostri occhi, che indica con certezza che l’immagine è sintetica. Questa filigrana si chiama tecnicamente SynthID ed è presente in quasi tutte le immagini generate dai prodotti di Google, compreso l’iperrealistico Nano Banana Pro.

Per rivelarla occorre prima di tutto scaricare la foto sospetta o farne uno screenshot della massima dimensione possibile. Poi bisogna andare a Gemini.google.com, fare login con un account Google, caricare l’immagine nella chat di Gemini (o Gem) e si immette la richiesta o prompt “Questa immagine è stata generata usando l’IA di Google?”. Si sceglie la modalità rapida e si preme Invio.

Quando arriva la risposta, bisogna espanderla per verificare che la ricerca di SynthID abbia avuto successo: ma attenzione, perché questo vuol dire solo che il rivelatore sta funzionando correttamente. Quello che conta in realtà è il testo della risposta di Gemini. Se dice che l’indicatore SynthID è stato trovato, l’immagine è sicuramente artificiale. Ma se dice che non l’ha trovato, non vuol dire che l’immagine sia autentica: potrebbe essere stata generata da un altro software di intelligenza artificiale che non inserisce questo watermark oppure potrebbe essere stata semplicemente ritoccata con Photoshop.

Il professor Farid consiglia un’altra tecnica, più generale: guardare il cosiddetto “rumore residuo” dell’immagine, che è un avanzo inevitabile del processo di generazione di un’immagine tramite intelligenza artificiale. Anche le immagini reali, scattate per esempio con una fotocamera o con un telefono, contengono questo rumore, ma ha delle caratteristiche molto differenti. Questo rumore residuo normalmente non è visibile a occhio nudo, ma può diventarlo se si usano app apposite. Se il rumore residuo di un’immagine assume l’aspetto di una stella con una griglia regolare di puntini usando queste app, l’immagine è quasi sicuramente sintetica o è stata perlomeno manipolata con app che usano l’intelligenza artificiale.


Dunque esistono ancora dei modi per distinguere un’immagine generata da una reale. Per il momento, la distinzione fra reale e sintetico è ancora salva. Ma si tratta di modi tutti complicati e macchinosi, che richiedono un impegno mentale e manuale che non possiamo applicare a ognuna delle migliaia di immagini che vediamo ogni giorno. Ci vorrebbe qualcosa di simile a un antivirus, un’app che controlla automaticamente ciascuna immagine visualizzata e la etichetta come sintetica oppure no, o almeno ci dà dei gradi di probabilità.

È un tipo di verifica che i social network potrebbero fare, viste le loro risorse tecnologiche immense, ma sembra che non ci sia alcun desiderio di farlo da parte di queste grandi organizzazioni commerciali. Instagram, TikTok e YouTube, per esempio, chiedono di etichettare volontariamente le immagini generate e sono in grado di etichettare automaticamente le immagini generate dai loro software e quelle prodotte dai software altrui se includono appositi indicatori, ma si tratta di foglie di fico che non risolvono nulla di concreto. E poi c’è OpenAI, che ha addirittura creato un intero social, Sora, basato sulla creazione e sullo scambio di video generati dall’intelligenza artificiale, e pensa che basti mettere un bollino in semitrasparenza per garantire che nessuno verrà ingannato. In realtà questo bollino si può tranquillamente rimuovere con software appositi.

Ci sono molti siti che dichiarano di poter distinguere le immagini sintetiche da quelle reali se gliele mandate, ma hanno un difetto fondamentale: ogni volta che viene rilasciata una nuova versione di un generatore di immagini, questi siti ci mettono parecchio tempo a “imparare” a riconoscere le immagini generate con questo nuovo software. Di conseguenza, i loro verdetti non sono attendibili: possono dichiarare solennemente che una foto è sintetica quando non lo è o che è reale quando invece è generata da un software molto recente.

[Ho fatto una prova con il popolare rilevatore di Undetectable.ai, e non è stato difficile ingannarlo: un deepfake con sostituzione del volto è stato dichiarato “reale al 98%”. Questo è il verdetto della versione gratuita, quella che presumibilmente viene usata dalla maggior parte degli utenti; non so se le cose migliorano usando la versione a pagamento.]

A noi utenti non resta che appoggiarsi solo a fonti affidabili e dubitare di tutto il resto, specialmente quando l’immagine o il video proviene da chissà chi e ha un forte impatto emotivo, che distrae e impedisce di notare gli errori tipici delle immagini sintetiche. Come consiglia il professor Farid, “prendiamo fiato prima di condividere”.

[CLIP: citazione di Farid tratta da questo video: “Take a breath before you share information…”]

Fonti aggiuntive

3 ways to spot fake photos at work, Aiadopters.club

Photo forensics – Hany Farid, Fotomuseum.ch

Strumenti di analisi presso 29a.ch

How to Detect Deepfakes: The Science of Recognizing AI Generated Content (video)

Podcast RSI – Meta incassa 7 miliardi di dollari l’anno da spot-truffa, e lo sa

Questo è il testo della puntata del 10 novembre 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


Se vi è capitato di notare una pubblicità sfacciatamente truffaldina su Facebook o Instagram e avete provato a segnalarla ma non è successo nulla e lo spot è rimasto al suo posto, c’è una buona ragione. Anzi, ci sono sette miliardi di buone ragioni. Meta, la società che gestisce questi due social network oltre a WhatsApp, incassa infatti sette miliardi di dollari ogni anno dalle pubblicità fraudolente. E grazie a un’indagine appena pubblicata da Reuters, sappiamo che i dirigenti di Meta sono perfettamente consapevoli di questa situazione e hanno deciso di non fare nulla, perché l’ammontare di qualunque sanzione delle autorità sarebbe inferiore a quello che incassa.

Non solo: quando Meta si accorge che un inserzionista sta truffando, spesso non lo blocca, ma si limita a farlo pagare di più per continuare a pubblicare i suoi spot che raggirano gli utenti. In altre parole, Meta guadagna di più da una pubblicità truffaldina che da uno spot onesto. Non è una teoria: lo dicono i documenti interni di Meta stessa.

Benvenuti alla puntata del 10 novembre 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Ogni giorno, Meta mostra agli utenti di Facebook, Instagram e WhatsApp circa 15 miliardi di pubblicità ad alto rischio di truffa. Da queste pubblicità incassa 7 miliardi di dollari l’anno. Alla fine del 2024, l’azienda prevedeva che il 10% del suo fatturato globale, circa 16 miliardi di dollari, sarebbe derivato dal fatto di mostrare consapevolmente ai propri utenti delle pubblicità che promuovono truffe o prodotti illegali. Sono alcuni dei dati che emergono da un’inchiesta pubblicata pochi giorni fa da Reuters e basata su documenti interni di Meta.

I comportamenti intenzionali di Meta rivelati dall’inchiesta lasciano a bocca aperta per il loro cinismo assoluto. Gran parte delle truffe sui suoi social network proviene da operatori che vengono rilevati eccome dai servizi di monitoraggio antifrode interni, ma Meta blocca questi inserzionisti solo se questi sistemi automatici sono sicuri almeno al 95% che sia in corso una truffa. Se la percentuale è inferiore, Meta semplicemente fa pagare all’inserzionista un importo maggiore per ciascuno spot, ma non lo blocca.

C’è di più: la documentazione interna dell’azienda di Mark Zuckerberg spiega che un utente che clicca su una pubblicità fraudolenta verrà bombardato da altre pubblicità truffa, grazie agli automatismi, i famosi algoritmi social, che cercano di presentare agli utenti delle pubblicità basate sui loro interessi.

Altre informazioni interne dimostrano che Meta ha ordinato ai suoi team antifrode di non intervenire contro gli inserzionisti sospettati di frode se bloccarli rischia di far perdere a Meta più dello 0,15% del fatturato globale. A ottobre 2024, i dirigenti di Meta hanno presentato a Zuckerberg in persona un piano antifrode, che invece di agire drasticamente avrebbe concentrato i propri sforzi nei Paesi nei quali si temeva un intervento a breve del legislatore. Hanno poi concordato che avrebbero tentato di ridurre gli incassi legati a truffe, gioco d’azzardo illegale e merci proibite dal 10,1% circa del 2024 al 7,3% entro la fine di quest’anno. Hanno i mezzi per bloccare le truffe, ma li applicano con il contagocce per non causare cali troppo repentini nel fatturato aziendale.

È difficile leggere i dati portati alla luce dall’indagine di Reuters senza evocare la parola “complicità”. Qui non si tratta più di un semplice “se non paghi per qualcosa, il prodotto in vendita sei tu”. Non è più una sorta di compromesso di convenienza, nel quale gli utenti accettano di essere sorvegliati a scopo pubblicitario in cambio di un servizio che permette loro di restare in contatto con parenti, amici e clienti. Meta sta volutamente, consapevolmente dando i propri utenti – cioè noi – in pasto ai truffatori perché guadagna dalle loro truffe.

Questa è la reale natura dei social network che quattro miliardi di persone al mondo continuano a usare. Un territorio di caccia per criminali, che ingannano gli adulti con finti investimenti facili e seducono i minori per ricattarli minacciando di pubblicare le loro foto intime, e la passano liscia perché le loro inserzioni su Facebook e Instagram contribuiscono al fatturato.

È per questo che segnalare una truffa sui social network di Meta è molto spesso una perdita di tempo. Anche a me è capitato di segnalare account che erano sfacciatamente in violazione delle regole di Facebook o di Instagram, perché presentavano immagini di minori in atteggiamenti illegali o fingevano di essere account di celebrità che promuovevano investimenti e prodotti, e mi è capitato di sentirmi rispondere spesso che andava tutto bene così. Addirittura segnalare in massa spesso è inutile. I documenti interni di Meta rivelano che l’azienda lo sa e non fa praticamente nulla.


Uno di questi documenti, datato 2023, mette in luce il livello stratosferico di indifferenza di Meta verso i suoi utenti truffati o esposti a truffe. In quel periodo gli utenti di Facebook e Instagram stavano inviando circa centomila segnalazioni valide di tentativi di truffa ogni settimana, ma Meta le ignorava o le respingeva nel 96% dei casi. Però possiamo consolarci, perché i responsabili della sicurezza si erano impegnati, in questi documenti, a ridurre questa percentuale al 75%. Per loro, lasciar correre tre truffe su quattro sarebbe un bel risultato.

Lo so che niente di tutto questo vi farà chiudere i vostri account Instagram, Facebook o WhatsApp. Moltissimi utenti hanno investito anni nel creare una rete di amicizie e di contatti su questi social network e quindi sono comprensibilmente molto riluttanti a smettere di usarli anche di fronte a rivelazioni come queste. Il loro atteggiamento spesso è del tipo “sì, lo so che mi profilano, ma tanto non ho niente da nascondere, facciano pure; io non voglio perdere i contatti con i parenti e gli amici, e se non fanno abbastanza contro le frodi starò attento a non cliccare sulle pubblicità.”

Ma stare attenti a non abboccare agli spot non basta. Questa intenzionale, calcolata carenza di vigilanza di Meta sui propri social favorisce infatti un ecosistema di truffatori impuniti e ben attrezzati ,che rubano gli account degli utenti e ne prendono il controllo per diffondere i loro raggiri usando le identità delle vittime. In questo modo gli amici di quelle vittime crederanno che il consiglio di investimento in criptovalute arrivi da una persona di fiducia, e abboccheranno più facilmente.

L’indagine di Reuters cita un esempio eloquente fra tanti. Una donna ha scoperto di non poter più accedere al proprio account Facebook e si è accorta che qualcuno lo stava usando per mostrare una falsa tessera da dipendente sulla quale c’era la sua faccia. Il testo del post annunciava che lei (la vittima) era ora “certificata per le criptovalute”. La donna ha segnalato subito il problema a Meta, ripetutamente, ma non è successo nulla. Il suo account, con il suo nome e la sua faccia, continuava ad annunciare che lei era diventata ricca grazie alle cripto e voleva dare ai suoi amici la stessa opportunità. Chiedere alla polizia di intervenire è stato inutile: gli agenti le hanno detto che normalmente Meta non risponde alle segnalazioni di account rubati neanche quando arrivano dalle forze dell’ordine.

E così la donna ha cercato di avvisare tutti i propri contatti, chiedendo di non interagire con il suo account e di segnalarne il furto a Meta. Ma anche questo non è servito a nulla. Nonostante un centinaio di segnalazioni, Meta non ha fatto niente per parecchio tempo, e così i truffatori sono riusciti a raggirare cinque suoi colleghi che si sono fidati dei consigli che a loro sembravano provenire da lei e hanno perso cifre ingenti.

I documenti interni di Meta rivelano un altro aspetto poco conosciuto del mondo delle frodi online: i truffatori sono ricchi. Per trovare le proprie vittime, investono in campagne di spot sui social per decine o centinaia di migliaia di dollari. Uno dei documenti cita il caso di un truffatore che ha pagato a Meta ben 250 mila dollari per fare inserzioni nelle quali si spacciava per il primo ministro canadese e propinava, anche qui, investimenti in criptovalute. Avete capito bene: un criminale ha pagato a Meta quella cifra. Non c’è da sorprendersi se Meta ha chiuso un occhio e anzi nei suoi documenti interni ha sottolineato che le sue regole attuali non segnalerebbero affatto questo tipo di account.

A volte gli occhi che vengono chiusi sono ben più di uno. Gli stessi documenti interni dell’azienda rivelano che alcuni grandi inserzionisti truffaldini potevano accumulare oltre cinquecento violazioni senza essere puniti. E alcune campagne fraudolente sono immense: quattro di esse, rimosse da Meta qualche mese fa, fruttavano da sole all’azienda di Zuckerberg incassi per 67 milioni di dollari al mese.

E la soluzione di Meta a questo tipo di problema è stata aumentare le tariffe per gli inserzionisti sospettati di essere fraudolenti. Gli stessi documenti sottolineano che Meta vuole ridurre questo flusso di incassi legati alle frodi, ma farlo troppo in fretta potrebbe avere appunto un effetto deleterio sulle sue proiezioni di fatturato e potrebbe spaventare gli azionisti. Tanto le sanzioni delle autorità costerebbero meno dei tre miliardi e mezzo di dollari che Meta guadagna ogni sei mesi dalle pubblicità sfacciatamente ingannevoli.


Meta ha risposto all’inchiesta di Reuters dicendo che i documenti interni “mostrano una visione selettiva che distorce l’approccio di Meta alle frodi e alle truffe” e che la stima che il 10% del fatturato derivi da frodi è approssimata per eccesso, ma non ha fornito un dato più esatto. L’azienda ha aggiunto che negli ultimi diciotto mesi le segnalazioni di truffe da parte degli utenti sono calate del 58% e che ha rimosso oltre 134 milioni di contenuti fraudolenti. Ma non ha indicato quanti non ne ha rimossi. E rimane sempre il solito problema che in questi social network la volpe è la guardia del pollaio. E ora sappiamo che prende anche soldi per lasciare che altri spennino i suoi polli. Cioè noi.

È comprensibile che di fronte a notizie di questo genere si provi impotenza e rassegnazione. I social network sono una parte troppo ben radicata delle nostre attività personali e professionali. È difficile, quasi impossibile farne a meno, e quindi si sopportano angherie come quelle messe in luce dalla meticolosa indagine di Reuters.

Ma in realtà la scelta fra accettare una gestione cinica e scellerata come questa e rinunciare ai social network è una falsa alternativa. Ci sono social network nei quali la volpe non è la guardia del pollaio, non possiede il pollaio, e non fa entrare nel pollaio le faine per guadagnarci. Sono i social network come Mastodon, quelli del cosiddetto fediverso, quelli creati dagli utenti per gli utenti, senza un CEO o un proprietario che può fare il bello e il cattivo tempo e senza un algoritmo che sceglie per noi cosa farci vedere e cosa no.

Nulla vieta di installare sul telefono, tablet o computer un’app social gratuita come Mastodon accanto a Facebook o Instagram e poi proporre gradualmente ai propri contatti di passare a una piattaforma meno oppressiva. Nessuna grande caotica migrazione improvvisa, ma una transizione graduale. È quello che faccio io, e funziona. Se rivelazioni come queste di Reuters vi ispirano almeno a provare a cambiare le cose invece di attendere invano che cambino da sole, fateci un pensierino. Trovate tutto presso Joinmastodon.org.