Vai al contenuto

Podcast RSI – Attacco su misura per chi crea software con l’IA: “slopsquatting”

Questo è il testo della puntata del 14 aprile 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.

La prossima puntata verrà pubblicata il 28 aprile (lunedì 21 non ci sarà un nuovo podcast).


Va di moda, nel mondo informatico, appoggiarsi alle intelligenze artificiali per creare programmi risparmiando tempo, denaro e risorse umane e mentali. Ma questo nuovo metodo di lavoro porta con sé nuove vulnerabilità, che spalancano le porte ai criminali informatici più sofisticati in maniere inaspettate e poco intuitive ma devastanti.

Per infettare uno smartphone, un tablet o un computer non serve più convincere la vittima a installare un’app di provenienza non controllata, perché il virus può essere già presente nell’app originale. Ce lo ha messo, senza rendersene conto, l’autore dell’app; o meglio, ce lo ha messo l’intelligenza artificiale usata da quell’autore.

Questa è la storia di una di queste nuove vulnerabilità consentite dall’intelligenza artificiale: il cosiddetto slopsquatting, da conoscere anche se non si è sviluppatori o programmatori, per evitare che l’entusiasmo per la IA permetta ai malviventi online di insinuarsi nei processi aziendali eludendo le difese tradizionali.

Benvenuti alla puntata del 14 aprile 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


La sicurezza informatica è una gara fra guardie e ladri, dove quasi sempre i ladri agiscono e le guardie reagiscono. I criminali inventano una tecnica di attacco e gli esperti di sicurezza la studiano per trovare il modo di neutralizzarla. Ma non è sempre così. In questa puntata vi racconto un caso in cui le guardie giocano d’anticipo, in maniera creativa e originale, immaginando un tipo di attacco nuovo e fornendo gli strumenti per bloccarlo ancora prima che i criminali riescano a metterlo in atto.

Chi crea programmi si affida oggi sempre più spesso all’intelligenza artificiale come assistente per la scrittura delle parti più tediose e ripetitive. C’è anche chi si affida totalmente alle IA e genera programmi senza saper programmare, nel cosiddetto vibe coding di cui ho parlato nella puntata del 31 marzo scorso. Copilot, ChatGPT e Cursor sono solo alcuni esempi di questi assistenti.

Ma anche senza arrivare a delegare tutto alle intelligenze artificiali, questo comportamento crea una nuova opportunità di attacco informatico con una tecnica originale e inaspettata, difficile da immaginare per una persona non addetta ai lavori. Questa tecnica si chiama slopsquatting: un nome coniato dall’esperto di sicurezza Seth Larson.

Il termine unisce due parole inglesi già molto usate in informatica: la prima è slop, che significa “sbobba, brodaglia” e viene usata in senso dispregiativo per indicare il prodotto mediocre, scadente e pieno di errori di molte intelligenze artificiali in vari settori. Una foto sintetica in cui il soggetto ha sei dita, per esempio, o ha una pelle che sembra fatta di plastica, è un tipico caso di slop. La maggior parte della gente non si accorgerà dell’errore o della scarsa qualità e accetterà la sbobba; anzi, a furia di mangiare solo quella si abituerà e la considererà normale.

Nella programmazione assistita dall’intelligenza artificiale, lo slop è un pezzo di codice generato che funziona, sì, ma è inefficiente o vulnerabile oppure non è in grado di gestire alcune situazioni particolari.

La seconda parola che definisce questa nuova forma di attacco è squatting: non c’entra la ginnastica, perché in informatica lo squatting è la pratica consolidata da tempo di occupare una risorsa, per esempio un nome di un sito, al solo scopo di infastidire, truffare o estorcere denaro. Chi compra nomi di dominio o di profili social che corrispondono a nomi di aziende o di celebrità per impedire che lo facciano i legittimi titolari di quei nomi, o allo scopo di chiedere soldi per cederglieli senza attendere le vie legali, fa squatting. I criminali che registrano nomi di siti simili a quelli ufficiali, contando sul fatto che molta gente sbaglia a digitare e sbaglia in modo prevedibile, finendo sui siti dei criminali e immettendovi le proprie password perché crede di essere nel sito ufficiale, fa typosquatting, perché l’errore di battitura in inglese è chiamato typo.

Lo slopsquatting, questa nuova tecnica di attacco al centro di questa storia, è un misto di questi due concetti. In pratica, il criminale crea e pubblica online una risorsa di programmazione malevola, un cosiddetto package o pacchetto, che ha un nome molto simile a quello di una risorsa attendibile e poi aspetta che l’intelligenza artificiale che crea codice di programmazione sbagli e usi per errore quella risorsa malevola al posto di quella genuina.

Chi crea software, infatti, raramente scrive tutto il codice da zero: di solito attinge a funzioni preconfezionate da altri e ampiamente collaudate, che appunto prendono il nome di pacchetti e sono pubblicate online in siti appositi. Ma se l’intelligenza artificiale sbaglia e attinge invece a un pacchetto pubblicato dai criminali con un nome ingannevole, senza che nessuno se ne accorga, il codice ostile dei malviventi verrà integrato direttamente nell’app ufficiale.

Schema dell’attacco, tratto da We Have a Package for You!, Arxiv.org.

In altre parole, il cavallo di Troia informatico, ossia l’app malevola, non arriva dall’esterno, cosa che genera ovvie e facili diffidenze, ma viene costruito direttamente dal creatore originale dell’app senza che se ne renda conto. E a nessuno viene in mente di pensare che l’app ufficiale possa essere infetta e possa essa stessa aprire le porte ai ladri: è quindi un canale di attacco subdolo e letale.


Ma come fa un’intelligenza artificiale a commettere un errore del genere? È semplice: le intelligenze artificiali attuali soffrono di quelle che vengono chiamate in gergo allucinazioni. Per loro natura, a volte, producono risultati sbagliati ma a prima vista simili a quelli corretti. Nel caso delle immagini generate, un’allucinazione può essere una mano con sei dita; nel caso del testo generato da una IA, un’allucinazione può essere una parola che ha un aspetto plausibile ma in realtà non esiste nel vocabolario; e nel caso del codice di programmazione, un’allucinazione può essere una riga di codice che richiama un pacchetto di codice usando un nome sbagliato ma simile a quello giusto.

A prima vista sembra logico pensare che i criminali che volessero approfittare di questo errore dovrebbero essere incredibilmente fortunati, perché dovrebbero aver creato e pubblicato un pacchetto che ha esattamente quello specifico nome sbagliato generato dall’allucinazione dell’intelligenza artificiale. Ma un articolo tecnico pubblicato un mese fa, a marzo 2025 [We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs, disponibile su Arxiv.org], da un gruppo di ricercatori di tre università statunitensi rivela che gli sbagli delle IA tendono a seguire degli schemi sistematici e ripetibili e quindi non è difficile prevedere quali nomi verranno generati dalle loro allucinazioni.

Secondo questi ricercatori, “questa ripetibilità […] rende più facile identificare i bersagli sfruttabili per lo slopsquatting osservando soltanto un numero modesto di generazioni. […] Gli aggressori non hanno bisogno di […] scovare per forza bruta i nomi potenziali: possono semplicemente osservare il comportamento [delle IA], identificare i nomi comunemente generati dalle loro allucinazioni, e registrarseli.”

Un altro problema documentato dai ricercatori è che i nomi generati per errore sono “semanticamente convincenti”: il 38% ha, in altre parole, nomi somiglianti a quelli di pacchetti autentici. E comunque in generale hanno un aspetto credibile. Questo rende difficile che gli sviluppatori possano accorgersi a occhio di un errore.

C’è poi un terzo aspetto di questo problema di sicurezza: se uno specifico errore in un nome di pacchetto generato si diffonde e diventa popolare, perché per esempio viene consigliato spesso dalle intelligenze artificiali e nei tutorial pubblicati senza verifiche, e a quel punto un aggressore registra quel nome, le intelligenze artificiali finiranno per suggerire inconsapevolmente di attingere proprio al pacchetto malevolo, e per i criminali diventerà molto facile sfruttare massicciamente questa tecnica.

Se poi chi crea il software non sa programmare ma si affida totalmente alla IA, tenderà a fidarsi ciecamente di quello che l’intelligenza artificiale gli suggerisce. Come spiegano i ricercatori, “Se la IA include un pacchetto il cui nome è generato da un’allucinazione e sembra plausibile, il percorso di minima resistenza spesso è installarlo e non pensarci più”. E se nessuno controlla e nessuno ci pensa più, se nessuno si chiede A cosa serve esattamente questo pacchetto richiamato qui?”, o se la domanda viene posta ma la risposta è “Boh, non lo so, ma il programma funziona, lascialo così”, il software ostile creato dai criminali diventerà parte integrante del software usato in azienda.

Di fronte a un attacco del genere, le difese tradizionali dell’informatica vacillano facilmente. È l’equivalente, nel mondo digitale, di sconfiggere un esercito non con un attacco frontale ma intrufolandosi tra i suoi fornitori e dando ai soldati munizioni sottilmente difettose.

Per fortuna gli addetti ai lavori in questo caso hanno anche qualche idea su come proteggersi da questa nuova tecnica.


I ricercatori che hanno documentato questo comportamento pericoloso dei generatori di codice hanno inoltre scoperto che ci sono alcune intelligenze artificiali, in particolare GPT-4 Turbo e DeepSeek, che sono in grado di riconoscere i nomi dei pacchetti sbagliati che essi stessi hanno generato, e lo fanno con un’accuratezza superiore al 75%. Conviene quindi prima di tutto far rivedere alle intelligenze artificiali il codice che hanno prodotto, e già questo è un passo avanti fattibile subito.

Inoltre le aziende del settore della sicurezza informatica hanno già preparato degli strumenti appositi, che si installano nell’ambiente di sviluppo e nel browser e sono in grado di rilevare i pacchetti ostili ancora prima che vengano integrati nel programma che si sta sviluppando. Una volta tanto, le guardie sono in anticipo sui ladri, che finora non sembrano aver sfruttato questa tecnica.

Come capita spesso, insomma, le soluzioni ci sono, ma se chi ne ha bisogno non sa nemmeno che esiste il problema, difficilmente cercherà di risolverlo, per cui il primo passo è informare della sua esistenza. E come capita altrettanto spesso, lavorare al risparmio, eliminando gli sviluppatori umani competenti e qualificati per affidarsi alle intelligenze artificiali perché costano meno e fanno fare bella figura nel bilancio annuale dell’azienda, introduce nuovi punti fragili che devono essere protetti e sono difficilmente immaginabili da chi prende queste decisioni strategiche, perché di solito non è un informatico.

Il problema centrale dello slopsquatting non è convincere gli informatici: è convincere i decisori aziendali. Ma questa è una sfida umana, non tecnica, e quindi il Disinformatico si deve fermare qui. Speriamo in bene.

Fonti

Risky Bulletin: AI slopsquatting… it’s coming!, Risky.biz, 2025

The Rise of Slopsquatting: How AI Hallucinations Are Fueling a New Class of Supply Chain Attacks, Socket.dev, 2025

Podcast RSI – Smart TV che fanno la spia mandando screenshot di quello che guardiamo

Questo è il testo della puntata del 7 aprile 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP letta da voce sintetica: “Con l’invenzione e lo sviluppo della televisione, e il progresso tecnico che rese possibile di ricevere e trasmettere simultaneamente sullo stesso apparecchio, il concetto di vita privata si poteva considerare del tutto scomparso. Ogni cittadino, o meglio ogni cittadino che fosse abbastanza importante e che valesse la pena di sorvegliare, poteva essere tenuto comodamente sotto gli occhi della polizia e a portata della propaganda ufficiale”]

George Orwell, l’autore del celeberrimo libro distopico 1984 dal quale sono tratte queste parole, era un ottimista. Pensava che la sorveglianza tramite la tecnologia sarebbe stata applicata solo a chi fosse abbastanza importante. Oggi, invece, la sorveglianza tecnologica si applica a tutti, in massa, e per di più siamo noi utenti a pagare per i dispositivi che la consentono.

Uno di questi dispositivi è il televisore, o meglio la “Smart TV”, come va di moda chiamarla adesso. Sì, perché buona parte dei televisori moderni in commercio è dotata di un sistema che raccoglie informazioni su quello che guardiamo sullo schermo e le trasmette a un archivio centralizzato. Non a scopo di sorveglianza totalitaria, ma per mandarci pubblicità sempre più mirate, basate sulle nostre abitudini e i nostri gusti. In sostanza, molti televisori fanno continui screenshot di quello che state guardando, non importa se sia una serie di Netflix, un videogioco o un vostro video personale, e li usano per riconoscere cosa state guardando e per suggerire ai pubblicitari quali prodotti o servizi mostrarvi.

Probabilmente non ne avete mai sentito parlare, perché non è una caratteristica tecnica che i fabbricanti sbandierano fieramente, ma esiste, e funziona talmente bene che almeno un’azienda costruttrice ha guadagnato più da questa sorveglianza di massa che dalla vendita dei propri televisori.

Questa è la storia di questo sistema di sorveglianza integrato, di come funziona e soprattutto di come controllare se è presente nella vostra Smart TV e di come disattivarlo.

Benvenuti alla puntata del 7 aprile 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Se avete una Smart TV, uno di quei televisori ultrapiatti che si collegano a Internet, probabilmente ogni volta che lo usate per guardare qualcosa siete in compagna di un ospite non invitato.

Questo ospite si chiama ACR, che sta per Automated Content Recognition o “riconoscimento automatico dei contenuti”. È un software, integrato nel televisore, che raccoglie dati su tutto quello che guardate e li manda a un archivio centrale per identificare cosa state guardando e mandarvi pubblicità personalizzate. La sua esistenza non è un segreto in senso stretto, ma i fabbricanti di televisori non si sforzano molto per farla conoscere al consumatore medio.

Questo ACR effettua continuamente delle catture dello schermo, degli screenshot, di quello che state vedendo; lo fa con qualunque cosa venga mostrata sullo schermo, quindi non solo programmi di canali televisivi ma anche Blu-Ray, sessioni di videogioco, video personali e schermate di lavoro per chi, come me, usa una Smart TV come monitor gigante per il proprio computer. Ne fa veramente tante, di queste catture: fino a 7200 ogni ora, ossia circa due al secondo.

Queste catture vengono elaborate per crearne una sintesi, una sorta di impronta digitale [fingerprint in inglese] che viene confrontata con un enorme archivio di contenuti video di vario genere, compresi gli spot pubblicitari. Quando viene trovata una corrispondenza, il sistema deduce che state guardando quel contenuto e avvisa i gestori del servizio, che possono vendere quest’informazione a scopo pubblicitario o per proporre contenuti a tema. Queste vendite rappresentavano, nel 2022, un mercato che valeva quasi venti miliardi di dollari ed è in continua crescita.

I fabbricanti che partecipano al sistema ACR sono fra i più blasonati: nomi come Roku, Samsung, LG, Sony, Hisense e tanti altri. Non è un sistema particolarmente nuovo, perché esiste almeno dal 2011. E funziona molto bene, almeno dal punto di vista di chi lo vende: a novembre 2021, uno di questi fabbricanti di Smart TV, Vizio, uno dei più importanti negli Stati Uniti, ha guadagnato dalla vendita dei dati dei propri clienti più del doppio di quello che ha ottenuto dalla vendita degli apparecchi televisivi [The Verge; Vizio].

Schema generale del funzionamento dell’ACR (da Watching TV with the Second-Party: A First Look at Automatic Content Recognition Tracking in Smart TVs, Arxiv.org, 2024).

Probabilmente a questo punto vi state chiedendo se catturare di nascosto quello che c’è sullo schermo della TV che sta in casa vostra sia legale. La risposta, come sempre in questi casi, è un grosso “dipende”. Le normative statunitensi sono molto permissive, mentre quelle europee sono orientate alla tutela del consumatore.

Eppure anche negli Stati Uniti, quella stessa Vizio che ha guadagnato così tanto dall’uso dell’ACR era stata sanzionata dalla Commissione federale per il commercio [FTC] nel 2017 perché con questo sistema raccoglieva i dati di ascolto di undici milioni di televisori senza il consenso dei consumatori e senza che quei consumatori ne fossero a conoscenza. Secondo la Commissione, Vizio aveva reso facile associare a questi dati televisivi numerose informazioni personali come “sesso, età, reddito, stato civile, dimensioni del nucleo famigliare, livello di istruzione, proprietà e valore dell’abitazione” e ha anche “venduto queste informazioni a terzi, che le hanno usate a vari scopi, compresa la pubblicità mirata”.

La sanzione, di circa 2 milioni di dollari, è stata in sostanza trascurabile: un costo operativo più che una punizione efficace [FTC; FTC]. Un tribunale federale statunitense ha poi approvato un risarcimento di 17 milioni di dollari in seguito a una class action avviata per le stesse ragioni contro la stessa azienda [Class Law Group; Hunton.com]. Questo caso dimostra la disinvoltura con la quale le aziende trattano i dati e i diritti dei consumatori.


C’è anche un altro tipo di disinvoltura aziendale legato a questo riconoscimento automatico dei contenuti: l’idea che bombardare l’utente di pubblicità sia non tanto un male necessario, ma addirittura un beneficio per il consumatore. Come dice una presentazione di Samsung dedicata al mercato canadese, “la tecnologia ACR offre numerosi benefici sia per gli spettatori, sia per gli inserzionisti. Per gli spettatori, l’ACR crea un’esperienza televisiva veramente personalizzata.”

La pagina della presentazione di Samsung che parla di “esperienza televisiva veramente personalizzata” grazie all’ACR.
Il flusso di dati dell’ACR di Samsung che conferma la cattura di due immagini al secondo da parte del televisore.

Samsung spiega che i consumatori sono “sovraccaricati dalla quantità di scelte disponibili e faticano a scoprire contenuti nuovi e pertinenti”. Oltre l’80% degli interpellati in uno studio svolto nel 2022 dall’azienda, sempre in Canada, ha dichiarato che sarebbe interessato a ricevere suggerimenti intelligenti sui contenuti per aiutarlo a trovare serie TV di suo gradimento. Ma desiderare di “ricevere suggerimenti su cosa guardare” non è la stessa cosa che voler essere spiati in tutto quello che si guarda alla TV pur di ricevere quei suggerimenti.

Alle aziende, insomma, sembra che non passi nemmeno per l’anticamera del cervello l’ipotesi che chi ha comprato un televisore, pagandolo con i propri soldi, non voglia essere bombardato da pubblicità che non ha richiesto e voglia invece usare il televisore come vuole lui o lei e non come glielo impone di nascosto un fabbricante. Per questi produttori di televisori è a quanto pare inconcepibile che qualcuno voglia vivere senza spot pubblicitari e che non desideri una “esperienza televisiva personalizzata”, ma voglia semplicemente guardare la TV in santa pace.

La Smart TV non è la versione piatta del televisore classico, non è un dispositivo passivo che mostra a chi lo ha comprato quello che gli interessa: è diventato un fragoroso, ossessivo, insistente chioschetto pubblicitario al servizio dei fabbricanti, degli inserzionisti e dei data broker che guadagnano miliardi vendendo i fatti nostri.

E in questa presentazione di Samsung c’è annidato anche un altro dato interessante: il servizio ACR di questa azienda ha anche una funzione cross-device. In altre parole, è capace di coinvolgere in questa sorveglianza commerciale anche gli altri dispositivi connessi, come i telefonini e i tablet. Piattaforme commerciali come Samba TV usano i dati dell’ACR per mostrare sui telefonini di casa le stesse pubblicità che passano sulla Smart TV [The Viewpoint]. Quei telefonini vengono associati alla casa perché si collegano al Wi-Fi domestico, come fa anche il televisore, e quindi hanno lo stesso indirizzo IP.

La pagina della presentazione di Samsung che parla di funzioni cross-device.

Molti utenti pensano che il telefonino li ascolti, perché vedono comparire sul suo schermo le pubblicità di cose di cui hanno parlato, ma in realtà è probabile che ad ascoltarli o a dedurre i loro interessi sia quell’altro schermo che hanno in casa.

Vediamo allora come scoprire se una Smart TV fa la spia e come disattivare questa funzione.


Per tagliare la testa al toro ed evitare completamente la sorveglianza commerciale dell’ACR nei televisori smart ci sono due soluzioni. La prima è… non acquistare una Smart TV.

Al posto del televisore, infatti, si può acquistare un monitor per computer. Questi dispositivi, almeno per ora, non hanno funzioni di sorveglianza e si possono collegare al set top box per lo streaming, al computer o al lettore Blu-Ray. Il difetto di questa soluzione è che chi desidera uno schermo molto grande non troverà monitor per computer delle dimensioni desiderate. In alternativa, si può scegliere un videoproiettore, che consente di avere immagini molto grandi ed è anch’esso, per ora, privo di funzioni di riconoscimento dei contenuti proiettati.

La seconda soluzione è acquistare una Smart TV, ma non collegarla a Internet, né tramite cavo Ethernet né tramite Wi-Fi. In questo modo, se anche dovesse acquisire degli screenshot di quello che si sta guardando, non potrà trasmettere alcuna informazione al suo fabbricante. È quello che ho fatto io: il televisore del Maniero Digitale è una Smart TV OLED collegata a un computer, a un set top box o a un riproduttore di Blu-Ray esclusivamente tramite cavo HDMI, lungo il quale non transitano informazioni pubblicitarie.

Se invece avete già una Smart TV e volete sapere se sorveglia quello che guardate, su Internet ci sono numerose istruzioni dettagliate, per ogni specifica marca, che spiegano in quale menu, sottomenu e sotto-sottomenu andare per cercare le funzioni-spia; le trovate linkate su Attivissimo.me [articolo su ZDNet; articolo su The Markup].

A dimostrazione del fatto che le aziende non ci tengono affatto a informare il consumatore che viene sorvegliato, queste funzioni non vengono indicate con un nome esplicativo o almeno con la sigla standard ACR, ma sono presenti con nomi decisamente eufemistici e ingannevoli. Per Samsung, per esempio, il nome da cercare è Viewing Information Services, ossia “servizi per le informazioni di fruizione”; per Sony è Samba Services Manager.

Considerata la tendenza crescente a guardare film e serie TV mentre si usa lo smartphone o si fa altro, tanto che i copioni di molte nuove produzioni vengono scritti facendo dire ai personaggi ogni tanto un riassunto della situazione per i più distratti, si può dire che viviamo in un mondo nel quale i nostri televisori guardano noi più attentamente di quanto noi guardiamo loro, e sanno di noi molto più di quello che sappiamo noi di loro. Non dovremmo preoccuparci che possano diventare senzienti con l’intelligenza artificiale, ma che siano già diventati insopportabilmente pettegoli.

Fonti

How to disable ACR on your TV (and why doing it makes such a big difference for privacy), ZDnet, 2025

How to disable ACR on your TV (and stop companies from spying on you), ZDnet, 2025

Your Smart TV Knows What You’re Watching, The Markup, 2023

Cassandra Crossing/ ACR, la Smart-TV vi spia davvero, Medium.com, 2025

Smart TV, così i produttori tracciano le nostre abitudini, Agendadigitale.eu, 2024

Automatic Content Recognition Market Size, Share & Trends Analysis Report By Component (Software), By Content (Audio, Video, Image), By Platform, By Technology, By Industry Vertical, By End Use, By Resolution, By Distribution Channel, And Segment Forecasts, 2025 – 2030, Grand View Research

Automatic content recognition, Wikipedia

ACR (Automatic Content Recognition), Acrcloud.com (archiviato su Archive.org), 2017

Automated Content Recognition: Discussion Paper – Phase 1 ‘Existing technologies and their impact on IP’, European Union Intellectual Property Office, 2020

Automated Content Recognition: Discussion Paper – Phase 2 ‘IP enforcement and management use cases’, European Union Intellectual Property Office, 2022

Watching TV with the Second-Party: A First Look at Automatic Content Recognition Tracking in Smart TVs, Arxiv.org, 2024

Vizio’s profit on ads, subscriptions, and data is double the money it makes selling TVs, The Verge, 2021

Vizio Smart TVs Are Watching You Back Even Harder Than Most, Consumerist, 2015 (archiviato su Archive.org)

Podcast RSI – “Vibe coding”: creare programmi senza saper programmare

Questo è il testo della puntata del 31 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[AUDIO: picchiettio su una tastiera]

Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell’informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno. Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un’arte praticata da pochi e ammirata a rispettosa distanza dai più.

Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.

Sono due parole che sono state abbinate per la prima volta solo due mesi fa e stanno già trasformando profondamente il modo in cui si crea il software. Non lo si scrive più tediosamente riga per riga, istruzione per istruzione, ma lo si descrive, in linguaggio naturale, semplicemente parlando. Le macchine fanno il resto. O almeno così sembra.

Questa è la storia, breve ma intensa, del vibe coding, di cosa significa esattamente, di chi ha coniato questo termine, e del perché tutti i grandi nomi dell’informatica stanno correndo per reinventarsi, per l’ennesima volta, inseguendo questo mantra.

Benvenuti alla puntata del 31 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia inizia esattamente il 3 febbraio scorso, quando in Europa è passata da poco la mezzanotte. Andrej Karpathy, ex direttore per l’intelligenza artificiale di Tesla, cofondatore di OpenAI (quella di ChatGPT, per intenderci) e una delle menti più influenti nel settore, pubblica su X un post nel quale descrive un nuovo modo di scrivere codice di programmazione usando toni quasi poetici, perlomeno per un informatico: lui si “abbandona alle vibrazioni” e “dimentica persino che esiste il codice”. Karpathy crea programmi parlando ad alta voce, “praticamente senza mai toccare la tastiera”, dice, lasciando che il riconoscimento vocale e l’intelligenza artificiale traducano le sue istruzioni verbali in righe di codice di programmazione.

Screenshot del post di Karpathy.

Karpathy descrive il concetto generale, il cosiddetto vibe, la “vibrazione” appunto, di quello che vuole ottenere,e lascia che sia il computer a fare il lavoro di manovalanza: quello di trasformare quel concetto in software, ossia di fare il coding, la scrittura del codice secondo le regole del linguaggio di programmazione desiderato.

Senza volerlo, Andrej Karpathy ha coniato un termine, vibe coding, che di colpo ha dato un nome facile e accattivante a una tendenza già in atto nel mondo della programmazione da quando è diventato evidente che le intelligenze artificiali sono in grado di generare codice di programmazione con la stessa facilità con la quale generano testi, suoni e immagini.

E così milioni di tastiere crepitanti sono cadute, quasi all’unisono nel silenzio, abbracciando il vibe coding. Le aziende cercano disperatamente i vibe coder, ossia le persone capaci di generare in poche ore fiumi di codice che prima avrebbero richiesto giorni o settimane. I programmatori tradizionali si sentono improvvisamente come un calamaio di fronte a una biro.

Questo modo di scrivere software, di creare gli elementi fondamentali che determinano il funzionamento di tutti i dispositivi elettronici che usiamo, dai televisori alle automobili, dalle macchine per radiografie ai sistemi di gestione della contabilità, della sanità e del fisco, è un cambiamento enorme.

La maniera tradizionale di sviluppare codice richiede la conoscenza dettagliata dei linguaggi di programmazione e della loro pignola, implacabile sintassi. Una lettera fuori posto, una parentesi di troppo o una di meno, un parametro indicato nell’ordine sbagliato, e non funziona più niente. Ma l’intelligenza artificiale sta cambiando questo approccio, introducendo degli assistenti alla creazione di codice che sono in grado di interpretare la descrizione di un problema, espressa in parole comuni (anche in italiano), e generare del codice che funziona.

Non c’è più bisogno di studiare e ricordare tutti i vari linguaggi informatici: basta esprimersi in modo naturale in una sola lingua, quella che si usa tutti i giorni. Programmare non è più un’arte oscura riservata a una élite, ma arriva alla portata di tutti.

Le persone che hanno idee creative ma non hanno esperienza di programmazione possono ora creare dei prototipi descrivendo a un’intelligenza artificiale cosa hanno in mente. Come dice sempre Andrej Karpathy nel suo ormai storico post, “non sto scrivendo codice – semplicemente vedo cose, dico cose, eseguo cose, e copio e incollo cose, e grosso modo funziona”.

Chi ha esperienza di sviluppo e programmazione, invece, può usare questi strumenti per automatizzare le parti ripetitive della creazione di un programma e diventare più veloce. Le porzioni standard di un software, cose come per esempio una finestra di immissione di dati o di conferma di un codice di accesso, vengono generate dall’intelligenza artificiale, mentre lo sviluppatore si concentra sulla progettazione generale ad alto livello, riducendo drasticamente i tempi di lavoro.

Ma in pratica come funziona tutto questo?


Il vibe coding è un duetto: le persone forniscono istruzioni, descrizioni e obiettivi usando il proprio linguaggio naturale, e gli strumenti di intelligenza artificiale, che sono stati addestrati alimentandoli con enormi quantità di codice e di informazioni di programmazione, traducono tutto questo in una prima bozza di codice.

Le istruzioni fornite sono estremamente semplici e intuitive: cose come “crea un sito che gestisca le prenotazioni, dove i clienti possono vedere quando io sono disponibile e pianificare gli appuntamenti. Il sito deve mandare e-mail di conferma e di promemoria”. Tutto qui. A tutto il resto provvede l’intelligenza artificiale.

È un modo di lavorare iterativo e interattivo, che avanza per affinamenti progressivi: la persona prova la prima bozza e poi chiede alla IA di modificare il codice, descrivendo sempre in linguaggio naturale cosa deve cambiare: per esempio come deve comportarsi il programma se l’utente immette un valore non ammesso e cosa va visualizzato sullo schermo. La persona prova questa seconda bozza e la affina ancora descrivendo le modifiche da fare, e la IA le fa. Il ciclo continua così fino a che il software funziona e il creatore è soddisfatto del risultato. Dato che l’intelligenza artificiale scrive il codice molto più velocemente di qualunque essere umano, è facile effettuare varie passate di affinamento in pochissimo tempo.

L’intelligenza artificiale è anche in grado di correggere eventuali difetti nel codice che ha generato. Quando un software non funziona correttamente, produce un messaggio di errore. Nel vibe coding, il creatore di programmi (che è difficile definire programmatore a questo punto) non analizza l’errore come farebbe tradizionalmente: copia e incolla il messaggio di errore nella chat che sta facendo con l’intelligenza artificiale e lascia che sia questa IA a leggerlo e a trovare e applicare la soluzione opportuna. Anche perché nel vibe coding la persona che sta creando il programma spesso non conosce il linguaggio di programmazione usato e quindi non è in grado di capirne gli errori e correggerli.

Le intelligenze artificiali da adoperare per fare queste cose possono essere specialistiche, come GitHub Copilot, Windsurf AI, Replit e Cursor, oppure intelligenze artificiali generaliste come ChatGPT e Claude, per esempio, che sono in grado di generare anche codice di programmazione.

Ovviamente alle aziende tutto questo fa molta gola, perché promette di ridurre tempi e costi. Con il vibe coding, argomentano, non servono squadre di costosi e supercompetenti programmatori, ma è sufficiente pagare una sola persona con qualifiche più modeste e con pretese economiche altrettanto modeste.

Dario Amodei, fondatore e CEO di Anthropic, l’azienda che ha sviluppato Claude, dice che “non siamo lontani – ci arriveremo fra tre o sei mesi – da un mondo nel quale l’intelligenza artificiale scrive il 90% del codice. Fra dodici mesi potremmo trovarci in un mondo nel quale la IA scrive praticamente tutto il codice.”

[CLIP di Amodei, tratta da Reddit]

I sostenitori di questo nuovo modo di programmare citano come esempio di successo del vibe coding il fatto che il giornalista del New York Times Kevin Roose, che non è un esperto di programmazione, è riuscito a creare numerose applicazioni usando questa tecnica e lo ha raccontato in un seguitissimo articolo.

Un altro esempio molto popolare è il sito fly.pieter.com, che contiene un gioco online (un simulatore di volo molto schematico) che stando al suo creatore, Pieter Levels, guadagna oltre 50.000 dollari al mese vendendo spazi pubblicitari all’interno del mondo virtuale nel quale si svolge l’azione. L’intero gioco è stato realizzato da Levels, da solo e usando l’intelligenza artificiale come assistente, in mezz’ora. Un risultato inimmaginabile con i metodi tradizionali.

Su Internet fioriscono siti che tentano di imitare il successo di Pieter Levels creando in poco tempo videogiochi giocabili anche se poco raffinati, nella speranza di guadagnare qualche soldo. Ma Levels è stato il primo e ha un seguito molto grande sui social network che può proporre ai suoi inserzionisti, mentre chi arriva dopo e lo imita non ha nulla di tutto questo, per cui ha ben poche probabilità di monetizzare la sua pur modesta fatica.

In ogni caso il vibe coding sembra funzionare. Ma prima di buttar via i manuali di programmazione e pensare che basti saper parlare per poter creare programmi, ci sono alcune cose da sapere. Come al solito, quello che sembra troppo bello per essere vero finisce prima o poi per dimostrare di non essere vero.


Il primo problema di questa nuova mania della Silicon Valley è la sua filosofia di base: il creatore del codice non solo non ha bisogno di capirlo, ma anzi capirlo è proprio contrario all’essenza del vibe coding: in realtà non deve essere un creatore ma un utente del codice, e deve accettare quel codice generato dalla IA senza capirlo appieno, altrimenti sta facendo solo programmazione assistita. E questo requisito di non comprendere il codice significa che se il programma non funziona e l’intelligenza artificiale non riesce a sistemarlo, l’aspirante creatore è incapace di intervenire.

Il secondo problema deriva dal primo: anche se il programma creato con il vibe coding sembra funzionare nella maggior parte dei casi, può contenere errori o difetti nei suoi princìpi di funzionamento che emergono solo in casi specifici. Può contenere falle di sicurezza, e modificarlo per manutenzione o aggiornamento è rischioso. Senza una costosa analisi esperta di come funziona, è impossibile sapere come intervenire, e far fare l’intervento all’intelligenza artificiale significa rischiare di introdurre ulteriori errori e incognite, perché la IA non “capisce” in senso stretto cosa sta facendo ma si limita a generare codice statisticamente probabile nel contesto.

Questo è un approccio che può andar bene per creare da zero un prototipo di software, a scopo dimostrativo, qualcosa di semplice per uso personale. Ma gran parte del lavoro degli ingegneri informatici non è di questo genere. Di solito si tratta di interventi su software complesso e preesistente, nel quale la comprensione e la qualità del codice sono fondamentali. Per intervenire su un software di contabilità, per esempio, bisogna capirne non solo il linguaggio informatico, ma anche i princìpi contabili sui quali si basa. E questo l’intelligenza artificiale attuale non lo fa.

Per fare un paragone, il vibe coding applicato a un software già esistente è l’equivalente di un idraulico che invece di studiarsi e capire lo schema dell’impianto sul quale deve intervenire sa che nella maggior parte dei casi che ha visto nella sua carriera le cose miglioravano chiudendo a metà le valvole sui tubi di mandata dispari. Non sa perché, ma di solito funziona. Affidereste il vostro impianto idraulico di casa, o quello di un’intera azienda o di un intero paese, a qualcuno che lavorasse in questo modo?

Probabilmente no. Eppure è esattamente quello che vuole fare Elon Musk, nel suo nuovo ruolo politico, con uno dei software più complessi e ingarbugliati del pianeta: quello che gestisce la previdenza sociale delle persone residenti negli Stati Uniti. Questo software è composto da oltre 60 milioni di righe di codice scritto in COBOL, che è un linguaggio di programmazione creato settant’anni fa, e da milioni di ulteriori righe scritte in altri linguaggi ormai arcaici. L’ultimo aggiornamento importante dei suoi componenti centrali risale agli anni Ottanta del secolo scorso.

Questo è il software che gestisce, fra le altre cose, i pagamenti di previdenza sociale erogati a oltre 65 milioni di persone. Metterci mano senza un’analisi preliminare molto attenta, senza una profonda comprensione del codice che permetta di capire gli effetti a catena di qualunque modifica, significa rischiare di interrompere i pagamenti a milioni di persone che dipendono dalla propria pensione per vivere. Nel 2017 l’agenzia per la previdenza sociale statunitense, che è responsabile di tutto questo sistema, aveva stimato che un ammodernamento dei suoi componenti centrali avrebbe richiesto circa cinque anni. Elon Musk ha dichiarato che vuole farlo nel giro di pochi mesi. Ma l’unico modo per farlo in tempi così stretti è usare l’intelligenza artificiale e rinunciare alle analisi e ai collaudi che normalmente si fanno in situazioni come questa. Cosa mai potrebbe andare storto?

Morale della storia: il vibe coding è un’idea interessante, applicabile in alcuni casi quando le conseguenze di un errore di programmazione non sono gravi e si vuole creare un prototipo che “grosso modo funzioni”, per citare le parole di Andrej Karpathy, ma non può per ora sostituire la competenza di un essere umano che conosce i linguaggi di programmazione e comprende la logica che sta dietro qualunque programma. Non è ancora giunto il momento di buttare via i libri e i manuali, insomma.

Pochi giorni fa ho chiesto a uno sviluppatore che ho incontrato cosa ne pensasse di questa moda del vibe coding, e lui mi ha detto che ne è entusiasta. Non perché lo usi, ma perché sa che avrà più lavoro di prima: quello necessario per correggere i disastri combinati da chi lo usa pensando che ignoranza più IA equivalga a conoscenza, competenza e intelligenza.

Fonti aggiuntive

DOGE Plans to Rewrite Entire Social Security Codebase in Just ‘a Few Months’: Report, Gizmodo, 2025

This Game Created by AI ‘Vibe Coding’ Makes $50,000 a Month. Yours Probably Won’t, 404Media, 2025

Vibe Coding with Cursor, Dolthub.com, 2025

What is vibe coding? How creators are building software with no coding knowledge, discussione su Ycombinator, 2025

What is Vibe Coding? How Creators Can Build Software Without Writing Code, Alitu.com, 2025.

Silicon Valley’s next act: bringing ‘vibe coding’ to the world, Business Insider, 2025

How I Vibe-Coded a Micro App in 10 Minutes with ChatGPT, Medium.com, 2025

Vibe Coding, Medium.com, 2025

Podcast RSI – Con l’IA la Teoria dell’Internet Morta si sta avverando

Questo è il testo della puntata del 24 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: “Vedo la gente morta” da Il Sesto Senso (1999)]

Facebook, Instagram, WhatsApp, Messenger stanno introducendo anche in Europa gli assistenti virtuali basati sull’intelligenza artificiale. I risultati di Google oggi vengono generati anche con l’intelligenza artificiale, spesso con effetti involontariamente comici. I siti di commercio usano dei chatbot per rispondere automaticamente ai clienti. Secondo uno studio condotto da Amazon, il 57% dei contenuti visibili online è costituito principalmente da materiale generato dall’intelligenza artificiale. I siti che fabbricano notizie false usano i generatori di testi per sfornare fiumi di disinformazione per conto di governi, movimenti politici e imprenditori che monetizzano le fake news. I social network sono pieni di influencer sintetici che guadagnano postando foto e video sintetici che ricevono commenti e lodi sintetiche da utenti altrettanto sintetici, in un corto circuito di contenuti totalmente artificiali.

Quanto c’è rimasto di reale e autentico in Internet?

Secondo una tesi di complotto nota come “Teoria dell’Internet Morta”, quasi tutto quello che vediamo online sarebbe contenuto generato automaticamente, manipolato da algoritmi nell’ambito di un piano mondiale per manipolare le menti di tutta l’umanità, e le cose starebbero così già dal 2016.

Questa è la storia di una teoria di complotto che è diventata realtà, almeno in parte, al netto dei suoi aspetti più deliranti. L’aumento dei contenuti generati dall’intelligenza artificiale è tangibile e quantificabile e ha conseguenze sociali forti e inaspettate. E all’orizzonte si staglia la minaccia del cosiddetto collasso dei modelli che sembra porre un limite definitivo al miglioramento delle attuali intelligenze artificiali.

Benvenuti alla puntata del 24 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Meta ha appena annunciato che il suo assistente basato sull’intelligenza artificiale, denominato Meta AI, sarà disponibile anche in Europa, Svizzera compresa, a distanza di due anni dal suo debutto negli Stati Uniti. Sarà comunque più limitato nelle prestazioni, per tenere conto della normativa europea che in sostanza vieta di usare i contenuti postati dagli utenti del continente per addestrare le intelligenze artificiali senza il consenso esplicito di quegli utenti [TechCrunch; Meta].

Meta AI sarà disponibile in tutte le principali app di Meta, quindi WhatsApp, Instagram, Messenger e Facebook, e in sei lingue: inglese, francese, spagnolo, portoghese, tedesco e italiano. Sarà fondamentalmente un chatbot integrato nelle app: la sua icona sarà un cerchio azzurro al quale si potranno porre domande senza dover uscire dall’app stessa.

Con l’arrivo di Meta AI, centinaia di milioni di utenti europei delle app di Meta si abitueranno ad avere nei loro gruppi Whatsapp, per esempio, dei membri sintetici da evocare per trovare un ristorante o avere informazioni su qualunque argomento, senza dover più passare da Google o da ChatGPT. A patto di fidarsi delle loro risposte, perché il problema delle cosiddette allucinazioni, ossia risposte che hanno un tono molto convincente ma sono inventate di sana pianta senza alcun nesso con la realtà, è serio e non sembra destinato a sparire presto.

Lo sa bene Google, la cui intelligenza artificiale integrata nei risultati di ricerca sta regalando momenti di ilarità involontaria. Sul social network Bluesky è stata pubblicata una compilation delle idiozie, in alcuni casi pericolose, fornite agli utenti dall’intelligenza artificiale di Google.

Alla domanda “quali attori hanno vinto degli Oscar per un film di Steven Spielberg”, Google ha risposto che lo hanno vinto Tom Hanks per Philadelphia e Holly Hunter per Lezioni di piano, dichiarando con risolutezza che i due film erano stati diretti da Spielberg quando in realtà la regia era rispettivamente di Jonathan Demme e Jane Campion.

Pazienza, direte voi, non muore nessuno se una IA sbaglia ad attribuire la regia di un film. Però lo scopo al quale dovrebbero servire le intelligenze artificiali è fornire informazioni, e fornire informazioni esatte, altrimenti sono solo uno spreco di tempo e di energia elettrica e causano solo confusione e disinformazione.

La questione si fa più seria se ci si fida della IA di Google per la propria salute, perché è capace di consigliare di rimediare al bruciore di stomaco mangiando carta igienica, la cui morbidezza “può lenire un esofago irritato”, dice testualmente. La stessa IA ha consigliato alle persone di mangiare “almeno un sassolino al giorno” e ha proposto di applicare il formaggio alla pizza usando della colla [Snopes].

Restando in campo culinario, se si chiede a Google se si può usare la benzina come combustibile per cuocere degli spaghetti, risponde di no, però aggiunge che si possono preparare degli spaghetti piccanti se si prepara una salsa facendo saltare in padella “aglio, cipolla e benzina” [Mastodon; BBC]. Se si interroga la IA di Google per sapere se la trippa è kosher o no, la risposta generata da miliardi di dollari di investimenti nell’intelligenza artificiale è risultata essere “dipende dalla religione della mucca”.

Se vi state chiedendo come possa emergere una risposta così demenziale, la spiegazione è che le cosiddette intelligenze artificiali non hanno cognizione della realtà e men che meno hanno il senso dell’umorismo, ma sono semplicemente dei costosi e complicatissimi sistemi di analisi statistica dei testi, per cui se un sito satirico o parodistico [per esempio questo] scrive un’assurdità come “la trippa è kosher a seconda della religione della mucca” e quella frase è quella che in tutta Internet statisticamente corrisponde meglio alla domanda che è stata posta, quelle intelligenze artificiali rigurgiteranno quella frase come risposta, presentandola come se fosse totalmente seria [BoingBoing; LanguageLog]. Questi errori vengono corretti manualmente [back-end fix] man mano che vengono scoperti, ma è impensabile poterli correggere tutti e comunque si tratta di pezze che non risolvono l’incapacità di base delle intelligenze artificiali attuali.


Anche le interazioni sui social network sono sempre più artificiali. Qualunque post pubblicato su X che parli di criptovalute, per esempio, attira immediatamente un’orda di bot, ossia di account automatici basati sull’intelligenza artificiale, che commentano con una frase a vanvera e linkano il sito del loro proprietario, e poi arrivano altri bot che rispondono ai commenti dei primi, in un fiume interminabile di banalità e spam scritto da macchine e letto da altre macchine, tanto che sta diventando difficile fare qualunque discussione significativa.

Instagram si sta riempiendo di “immagini generate dall’intelligenza artificiale che non hanno nessun valore oltre all’essere fugaci novità e si sta riempiendo di testi generati dalla IA che nessuno desidera leggere”, come ha scritto Dani Di Placido su Forbes, notando anche l’enorme numero di descrizioni di prodotti su Amazon e nei negozi online in generale che sono manifestamente generate da intelligenze artificiali non supervisionate. È l’unica spiegazione plausibile per il fatto che così tanti prodotti hanno descrizioni costituite dalle parole “Mi dispiace ma non posso soddisfare questa richiesta perché è contraria alle regole di utilizzo di OpenAI”.

Fonte: X.
Fonte: X.

Gli esseri umani sembrano essere diventati una minoranza dispersa nel mare di contenuti generati freneticamente dalle intelligenze artificiali. Questo mare è talmente vasto che secondo uno studio pubblicato nel 2024 da un gruppo di ricercatori di Amazon, il 57% dei testi di tutto il web è stato tradotto in tre o più lingue usando sistemi di traduzione automatica. Oggi, insomma, i principali generatori di testi al mondo non siamo più noi: sono le macchine.

Il risultato di questo spodestamento è che le intelligenze artificiali stanno cominciando a influenzare il modo in cui scriviamo anche noi. Alcuni linguisti hanno notato l’improvviso boom di popolarità di certe parole nelle pubblicazioni mediche in inglese quando è arrivato ChatGPT. Per esempio, l’uso della parola delve, ossia “approfondire”, si è più che decuplicato nel giro di quindici mesi dal debutto di ChatGPT, a novembre 2022.

La ragione, secondo questi esperti, è che questa parola è molto più usata della media mondiale nell’inglese parlato in Africa, dove lavora la manodopera a basso costo che fa il controllo della qualità delle risposte generate dalle intelligenze artificiali in fase di collaudo, e quindi ChatGPT ha incamerato questa maggiore frequenza nel proprio modello linguistico. Quando i medici di tutto il mondo hanno cominciato a usare ChatGPT come assistente per scrivere i loro articoli, hanno inconsapevolmente cominciato a usare delve più del normale [The Guardian; Getfreewrite.com; JeremyNguyen]. E così le macchine, silenziosamente, modificano sotto il nostro naso una cosa così fondamentalmente umana come la lingua che parliamo.

Tutti questi esempi sembrano avvalorare la cosiddetta Teoria dell’Internet Morta [Dead Internet Theory], ossia l’idea che la stragrande maggioranza del traffico di Internet, dei post e degli utenti stessi sia costituita da sistemi automatici e intelligenze artificiali e che gli esseri umani siano una presenza marginale nella Rete. Questa teoria è nata in alcuni forum di Internet una quindicina di anni fa ed è diventata famosa nel 2021 grazie a un articolo pubblicato sul popolare sito The Atlantic e firmato da Kaitlyn Tiffany che la descriveva in dettaglio.

La Teoria dell’Internet Morta è una tesi di complotto classica, che ipotizza una colossale cospirazione dei governi del mondo e in particolare di quello statunitense per nasconderci la verità e manipolare le opinioni mostrandoci solo contenuti generati da intelligenze artificiali e affini. La sua falla logica principale è che afferma che Internet sarebbe “morta”, per così dire, soffocata dalla IA, già nel 2016 o 2017, quando ChatGPT e le altre intelligenze artificiali necessarie per questa ipotetica generazione di immense quantità di contenuti sintetici non erano ancora state sviluppate.

È vero che alcuni aspetti di questa teoria somigliano molto a quello che si sta verificando adesso, con l’attuale proliferazione di testi e immagini generate, ma è una somiglianza soltanto superficiale, e soprattutto c’è un fatto tecnico che invalida completamente l’idea del grande complotto. Questo fatto si chiama collasso dei modelli.


Molte persone sono colpite dai progressi molto rapidi dell’intelligenza artificiale in questi ultimi anni e hanno l’impressione che questi progressi siano inarrestabili e che prima o poi, a furia di investire denaro e usare computer sempre più potenti, arriveremo a un’intelligenza artificiale superiore alla nostra, o che perlomeno smetterà di consigliare di usare la colla per applicare il formaggio alla pizza. Ma le cose non stanno così.

Infatti per arrivare ai livelli di prestazione delle attuali intelligenze artificiali in campo linguistico è stato necessario addestrarle dando loro praticamente ogni testo disponibile in forma digitale in tutto il mondo: tutti i siti, tutti i libri, tutti i giornali, tutte le riviste mai scritte, qualunque cosa mai pubblicata sui social network e altro ancora. Eppure non basta. Servono ancora altri testi.

Si potrebbero prendere i testi scritti e pubblicati online dopo la data di addestramento, ma c’è un problema: molti di quei nuovi testi sono stati scritti usando intelligenze artificiali. Ci si troverebbe, insomma, ad addestrare un’intelligenza artificiale dandole testi scritti da altre intelligenze artificiali, e nel 2024 un gruppo di ricercatori delle università di Cambridge e Oxford ha pubblicato su Nature uno studio secondo il quale un’intelligenza artificiale generativa che si addestri esclusivamente su contenuti prodotti da altre intelligenze artificiali dello stesso tipo si degrada molto rapidamente invece di migliorare. Bastano pochi cicli di questo cannibalismo informatico, meno di una decina, per ottenere una IA che produce sistematicamente risposte completamente prive di senso. Questo rapido deterioramento delle intelligenze artificiali basate su grandi modelli linguistici è stato battezzato appunto collasso dei modelli (model collapse) da questi ricercatori.

Il rapido degrado delle IA addestrate usando dati generati da IA. Fonte: Forbes/Nature.

Se l’idea di base della Teoria dell’Internet Morta è valida e quindi i dati prodotti da esseri umani vengono davvero diluiti sempre di più da fiumi di contenuti generati dalle IA, e se le conclusioni di questi ricercatori sono corrette, allora l’intelligenza artificiale come la conosciamo oggi rischia di raggiungere presto una soglia impossibile da superare. Forse è già stata raggiunta e non ce ne siamo ancora accorti, e i progressi spettacolari di questi ultimi anni non potranno proseguire.

Naturalmente è anche possibile che i ricercatori in futuro scoprano nuove tecniche di intelligenza artificiale che permettano di scavalcare o aggirare questa soglia, ma per il momento gli investimenti faraonici che si stanno facendo per l’intelligenza artificiale in tutto il mondo sono fondati sul modo di funzionare della IA attuale, non di quella futuribile. Se verranno scoperte queste nuove tecniche, allora quegli investimenti saranno stati riversati in una tecnologia che a quel punto sarà diventata obsoleta; se non verranno scoperte, la soglia resterà insormontabile e ulteriori progressi non saranno possibili.

In altre parole, oltre al collasso dei modelli di intelligenza artificiale bisogna pensare al possibile collasso di un altro modello: quello economico, quello che immagina che la crescita e i profitti possano proseguire all’infinito. E se collassa quello, per molte aziende e per tantissimi investitori il bruciore di stomaco sarà garantito. Speriamo che non seguano i consigli delle intelligenze artificiali e non cerchino di curarsi ingoiando carta igienica.

Podcast RSI – Alexa perde le opzioni di privacy, ma ci sono alternative

Questo è il testo della puntata del 17 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: Suoni di Alexa, tratti da questo video su YouTube]

Dal 28 marzo prossimo gli assistenti vocali Alexa di Amazon smetteranno di rispettare le scelte di privacy dei loro utenti. Lo ha comunicato Amazon stessa pochi giorni fa, in una mail inviata ad alcuni di questi utenti, ma senza usare parole così chiare. Eppure è questo il senso tecnico della decisione unilaterale di Amazon di cambiare radicalmente il funzionamento dei suoi dispositivi dopo che gli utenti li hanno acquistati, e di cambiarlo a sfavore di quegli utenti.

Tra una decina di giorni, in sostanza, tutto quello che direte in presenza di un Alexa potrà essere registrato e inviato ad Amazon, dove potrà essere ascoltato, trascritto, registrato e dato in pasto all’intelligenza artificiale.* E questo vale anche per le versioni di Alexa che gli utenti hanno acquistato specificamente perché non facevano nulla di tutto questo.

* Per maggiore chiarezza: è così da tempo per la stragrande maggioranza dei dispositivi Alexa. Però finora c‘erano alcuni modelli di Alexa che non funzionavano in questo modo. 

Questa è la storia di come Amazon è riuscita a convincere centinaia di milioni di persone in tutto il mondo a installarsi in casa un oggetto che è a tutti gli effetti un microfono aperto e connesso a Internet e ai suoi server, in ascolto ventiquattro ore su ventiquattro, ed è anche riuscita a convincere queste persone a pagare per avere quel microfono.

Benvenuti alla puntata del 17 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Siamo nel 2014, a novembre; quasi undici anni fa. Amazon presenta al pubblico Echo, uno strano altoparlante cilindrico, connesso a Internet, che include un assistente vocale simile a Siri di Apple.

Il primo Echo (fonte: Tech.co, 2019).
Spaccato di un Amazon Echo di prima generazione (fonte: Techcrunch).

Come Siri, anche Echo risponde ai comandi vocali quando viene attivato tramite una parola specifica, che per questo prodotto di Amazon è “Alexa”: una parola scelta per il suo suono piuttosto insolito, caratterizzata dalle vocali dolci e dalla X che la fanno spiccare e la rendono più facilmente riconoscibile da parte della limitata potenza di calcolo presente a bordo di Echo. Se in casa c’è qualcuno che si chiama Alexa o Alessia e quindi c’è rischio di confusione, l’utente può scegliere in alternativa le parole Amazon, Echo, Ziggy o Computer [Business Insider; FAQ Amazon].

Al suo debutto, Echo di Amazon costa ben 199 dollari ed è disponibile solo su invito da parte dell’azienda [TechCrunch] e soltanto negli Stati Uniti. Arriva in Europa due anni più tardi, nel 2016, quando viene offerto anche in versione compatta a circa 60 euro [CNBC]. Tramite comandi vocali, permette di fare acquisti su Amazon, comandare vari dispositivi domestici interconnessi, impostare sveglie e timer e rispondere a varie domande attingendo alle informazioni di Wikipedia e di altre fonti.

Il principio di funzionamento di Echo è relativamente semplice. I suoi microfoni estremamente sensibili captano costantemente tutti i suoni e tutte le conversazioni che si svolgono nell‘ambiente nel quale Echo è collocato. I suoi processori analizzano altrettanto costantemente quello che è stato captato dai microfoni. Se secondo questa analisi è stata pronunciata la parola di attivazione (o wake word in gergo tecnico), allora i suoni raccolti vengono trasmessi via Internet ai computer di Amazon, dove vengono elaborati, trascritti e trasformati in comandi. Questi comandi vengono eseguiti, sempre sui computer di Amazon e anche su quelli delle aziende associate ad Amazon, e i loro risultati vengono inviati al dispositivo dell’utente.

L’intero procedimento è talmente veloce e invisibile che chi usa Alexa ha l’impressione che sia il dispositivo a fare tutto questo lavoro. Non ha nessuna percezione del fatto che le sue parole vengano registrate e trasmesse ad Amazon, che le conserva. Lo scopre soltanto se gli capita di accedere al suo account Amazon e di consultare una sezione dedicata appunto ad Echo e Alexa, che contiene la Cronologia voce, ossia tutto quello che è stato registrato dal suo dispositivo.

[Questo è il link alla Cronologia voce di un account (accessibile solo dando login e password): https://www.amazon.it/alexa-privacy/apd/rvh?ref_=privacy0]

Screenshot della Cronologia voce (dal mio account Amazon).

[CLIP: spezzoni delle mie registrazioni di Alexa]

Questi sono alcuni campioni di quello che ha registrato il mio Alexa, nei rari momenti in cui l’ho tenuto acceso per fare qualche esperimento. Alcuni risalgono a più di cinque anni fa, ed è chiaro da quello che è stato registrato che Alexa registra e archivia non solo i comandi impartiti ma anche spezzoni di conversazioni nei quali viene citato il suo nome o qualcosa che gli assomiglia. Cosa ancora più interessante, registra e archivia anche alcuni secondi di quello che è stato detto prima di dire la parola di attivazione.

Un esempio di audio ambientale raccolto da Alexa e inviato ad Amazon nonostante non fosse un comando rivolto ad Alexa (dalla mia Cronologia voce).

[CLIP: una nostra amica che dice “è un po’ lenta Alexa” e Paolo che dice “OK Google parla con Alexa”. Notate che in entrambi i casi “Alexa” è l’ultima parola registrata e sono state registrate anche quelle dette appena prima]

Questo dimostra che Alexa è costantemente in ascolto e altrettanto costantemente in registrazione. Quando “crede” di aver sentito la parola di attivazione, prende l’audio che ha registrato e lo invia ad Amazon. E questo vuol dire che qualunque conversazione domestica è a rischio di essere registrata e inviata. Una confidenza, un momento di intimità con un partner, una telefonata al proprio medico per discutere la propria situazione di salute, una riunione confidenziale di lavoro, una discussione politica o religiosa. Tutto può finire negli archivi di Amazon.


È chiaro che questo modo di funzionare di Alexa è un grave rischio per la privacy, e non si tratta di ipotesi paranoiche: nel 2023 Amazon ha accettato di pagare un’ammenda di 25 milioni di dollari perché era stata colta a conservare per sempre le registrazioni delle interazioni dei bambini con Alexa, violando le leggi statunitensi sulla privacy [New York Times].

Amazon ha dichiarato che conserva tutte le registrazioni indefinitamente, se l’utente non provvede a cancellarle a mano [CNET; ZDNET] o a impostare la cancellazione automatica dopo tre o diciotto mesi. Ha aggiunto anche che un campione “estremamente piccolo” delle registrazioni acquisite viene ascoltato dai suoi dipendenti. Nel caso di Amazon, “estremamente piccolo” significava, nel 2019, che ciascuno dei suoi addetti specializzati a Boston, in Costa Rica, in India e in Romania ascoltava fino a mille spezzoni di audio domestico ogni giorno, e fra l’altro questi spezzoni venivano condivisi fra gli addetti non solo per ragioni tecniche ma anche semplicemente perché erano divertenti [Bloomberg (copia su Archive.is); Ars Technica].

Il fatto che le conversazioni degli utenti di Alexa possano essere ascoltate da queste persone non viene mai indicato nelle sue rassicuranti informazioni di marketing [copia su Archive.is; altre info qui] e neppure nelle sue informative sulla privacy. E così l’impressione che ha l’utente medio è che quello che dice ad Alexa nell’intimità della propria casa sia ascoltato soltanto da freddi e indifferenti sistemi automatici, ma non è affatto così.

Screenshot parziale delle informazioni di Amazon sul funzionamento di Alexa.

A volte va anche peggio: queste registrazioni possono finire in mano a sconosciuti. Nel 2018 un utente Alexa in Germania ha provato a esaminare la propria cronologia delle conversazioni e vi ha trovato circa 1700 registrazioni di qualcun altro: un uomo che in casa propria parlava con la compagna. Quando ha segnalato la serissima violazione della privacy, inizialmente Amazon non gli ha neppure risposto e ha avvisato la vittima solo quando la notizia è uscita sulla stampa specializzata. L’azienda ha dichiarato che si è trattato di “un errore umano e un caso singolo isolato” [Washington Post; Reuters].*

* C’è poi tutta la questione degli attacchi intenzionali agli assistenti vocali: esistono vari modi per ingannare il loro riconoscimento vocale, usando per esempio suoni verbali che alle nostre orecchie sembrano privi di senso (i cosiddetti nonsense attack) oppure sembrano avere un altro significato (missense attack). Maggiori informazioni sono negli articoli Nonsense Attacks on Google Assistant and Missense Attacks on Amazon Alexa (2019), Researchers show Alexa “skill squatting” could hijack voice commands (2018), Skill Squatting Attacks on Amazon Alexa (2018) e A Survey on Amazon Alexa Attack Surfaces (2021).

Insomma, il problema di fondo è che i microfoni di questi dispositivi di Amazon, come del resto quelli equivalenti di Google e di Apple, prendono i suoni ascoltati in casa e li consegnano alle rispettive aziende per l’analisi e l’elaborazione. Se questa analisi ed elaborazione avvenissero localmente, a bordo del dispositivo, in modo da non trasmettere esternamente i suoni ambientali, il funzionamento di questi oggetti sarebbe molto più rispettoso della naturale riservatezza che ci si aspetta di avere in casa propria.

Infatti nel 2020 Amazon ha presentato i dispositivi Echo Dot di quarta generazione, che insieme agli Echo Show versione 10 e 15, dotati di schermo e telecamera, erano in grado di elaborare localmente i suoni che captavano. Una rivoluzione nel modo di funzionare di questi dispositivi che li rendeva decisamente appetibili per chiunque avesse riflettuto seriamente sulla questione. Finalmente un prodotto fatto come si deve in termini di privacy.*

* Questa funzione era disponibile esclusivamente agli utenti statunitensi con Alexa impostato sulla lingua inglese [The Technology Express]

Ma chi ha comprato questi dispositivi ora si trova con una sorpresa molto amara: il 28 marzo prossimo Amazon disabiliterà l’elaborazione locale dell’audio su tutti questi apparati, che cominceranno a funzionare esattamente come tutti gli altri di Amazon, mandando quindi ai server dell’azienda (e alle orecchie dei suoi dipendenti addetti al servizio Alexa) tutto quello che viene ascoltato dai loro sensibilissimi microfoni e interpretato come comando da mandare.

L’utente che ha pagato per avere questi prodotti si troverà quindi con un dispositivo degradato che non farà più la cosa fondamentale per la quale era stato acquistato, ossia rispettare la riservatezza dell’utente. E non ci sarà nulla che potrà fare per opporsi.*

* Negli Stati Uniti la legge DMCA (1998) rende punibile con cinque anni di carcere e una sanzione da 500.000 dollari l’alterazione del software (e in questo caso del firmware) di un dispositivo protetto dal copyright, anche se viene fatta dal proprietario del dispositivo stesso.

Quello di Amazon è un comportamento che viene spesso chiamato cinicamente “l’MBA di Darth Vader”, con riferimento al celeberrimo personaggio malvagio di Star Wars, il cui potere è così assoluto che se tenesse un corso di formazione per l’amministrazione aziendale insegnerebbe ai suoi studenti che il rispetto dei contratti e delle regole concordate è roba per gli inferiori, alle cui fastidiose obiezioni si risponde sempre in questo modo:

[CLIP: Darth Vader che dice “Ho cambiato il nostro accordo. Prega che non lo cambi ancora” (da L’Impero Colpisce Ancora, 1:34:10)]


Amazon giustifica questa menomazione intenzionale dei dispositivi comprati dai suoi clienti con la scusa onnipresente del mondo informatico: l’intelligenza artificiale. Sta infatti per arrivare Alexa+, che è in grado di offrire servizi più complessi e sofisticati grazie appunto all’intelligenza artificiale [Ars Technica]. Intelligenza che però sta nei computer di Amazon, non fisicamente dentro i dispositivi degli utenti, per cui non c’è scelta: l’audio captato deve essere per forza trasmesso ad Amazon ed elaborato sui computer dell’azienda. Alexa+, fra l’altro, avrà probabilmente un canone mensile, a differenza dell’Alexa attuale.*

* La maggior parte delle fonti prevede che questo canone sarà di 20 dollari al mese per gli utenti generici ma gratuito per gli utenti iscritti ad Amazon Prime [Aboutamazon.com].

Questa transizione all’intelligenza artificiale remota significa che gli attuali dispositivi Echo Show perderanno una delle loro funzioni più potenti: la capacità di identificare le voci delle varie persone che li usano e di offrire agende, musica e promemoria personalizzati ai vari membri di una famiglia elaborando l’audio localmente per riconoscere le varie voci, grazie a una funzione chiamata Voice ID. Amazon ha avvisato i proprietari di questi dispositivi che questa funzione non ci sarà più. Adesso la stessa cosa verrà fatta con l’intelligenza artificiale, ma mandando l’audio di casa ad Amazon.

Certo, l’azienda sottolinea nel suo avviso che l’audio è cifrato in transito e che gli utenti potranno chiedere che venga cancellato dopo l’uso, e aggiunge che ci sono “strati di protezioni di sicurezza per tenere al sicuro le informazioni dei clienti”. Ma visti i precedenti di Amazon, e visto che in generale l’intelligenza artificiale ha la discutibile abitudine di rigurgitare in modo inatteso i dati personali che ha ingerito, una certa diffidenza è comprensibile e inevitabile.*

* Anche perché fino al 2022 Amazon era lanciatissima verso l‘elaborazione on-device, che era presentata come una tecnologia con “tanti benefici: riduzione della latenza, ossia del tempo che Alexa impiega a rispondere alle richieste; riduzione del consumo di banda, importante sui dispositivi portatili; e maggiore disponibilità per le unità a bordo di auto e per altre applicazioni nelle quali la connettività verso Internet è intermittente. L’elaborazione on-device consente anche di fondere il segnale vocale con altre modalità, come la visione, per funzioni come il parlare a turno naturale di Alexa” [Amazon Science, gennaio 2022]. Se questi non sono più “benefici” e Amazon vuole accollarsi l’onere computazionale di elaborare in-cloud tutte le richieste, ci sarà probabilmente un tornaconto sotto forma di utilizzo dei dati vocali per addestramento di IA o ulteriore analisi.

Per chi preferisce non avere in casa, in ufficio o nello studio medico microfoni aperti e connessi a Internet, le soluzioni alternative ad Amazon non mancano. Una delle più interessanti è Home Assistant, un ecosistema di dispositivi e di software che fa quasi tutto quello che fa Alexa di base, compreso il collegamento con i sistemi domotici di ogni marca che rispetti gli standard tecnici, lo fa senza canone mensile ed è configurabile in modo che elabori tutto l’audio localmente, senza mandare nulla via Internet a nessuno, tenendo privacy e sostenibilità come valori centrali.*

* Due altre opzioni sulla stessa falsariga sono Mycroft AI (ora OpenVoiceOS) e Snips AI (acquisita da Sonos).

Inoltre Home Assistant è basato sul principio dell’open source, per cui tutti i componenti e tutto il software sono liberamente esaminabili e modificabili e tutti gli standard utilizzati sono liberi e documentati. Non c’è nessun Darth Vader o Jeff Bezos che possa cambiare gli accordi e far pregare che non li cambi ancora, ma c’è una fondazione, la Open Home Foundation, che coordina lo sviluppo di Home Assistant e ha fra l’altro sede in Svizzera [altre info], c’è una base legale solida e collaudata che tutela il tutto e c’è una vasta comunità di utenti che sviluppa il prodotto e insegna a usarlo, per esempio pubblicando dettagliati tutorial su YouTube.

Screenshot della pagina iniziale della Open Home Foundation.

Insomma, se vi è sempre sembrato assurdo che con la domotica per accendere le luci in soggiorno il comando dovesse fare il giro del mondo e dipendere da una rete di computer gestita da chissà chi, le soluzioni ci sono. Si tratta solo di scegliere fra ricevere la pappa pronta da chi può ritirare il suo costoso cucchiaio in ogni momento e rimboccarsi le maniche per studiare come cucinarsi le cose da soli. Di solito si fatica di più, ma si risparmia, e le cose fatte in questo modo hanno più gusto.

Fonti aggiuntive

Amazon annihilates Alexa privacy settings, turns on continuous, nonconsensual audio uploading, Cory Doctorow, 2025

Amazon’s subscription-based Alexa+ looks highly capable—and questionable, Ars Technica, 2025

Amazon Ends Local Voice Processing for Echo Devices, The Technology Express, 2025

Everything you say to your Echo will be sent to Amazon starting on March 28, Ars Technica, 2025

Amazon is getting rid of the option for Echo devices to process Alexa voice requests locally, Engadget, 2025

Amazon admits that employees review “small sample” of Alexa audio, Ars Technica, 2019

Amazon’s Echo will send all voice recordings to the cloud, starting March 28, TechCrunch, 2025

Amazon is ending the option to not send Echo voice recordings to the cloud, The Verge, 2025

Amazon plans to give Alexa an AI overhaul — and a monthly subscription price, CNBC, 2024

The Gdańsk man who brought US giant Amazon to Poland, The First News, 2020

Podcast RSI – Blender, software libero e gratuito, aiuta a vincere un Oscar. Creatività per tutti senza ostacoli di costi

Questo è il testo della puntata del 10 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: brano dall’inizio di Flow (2024)]

Un gatto vaga in un mondo nel quale gli esseri umani sembrano svaniti nel nulla ma i cani, eterni persecutori di felini, ci sono ancora, e al micio tocca trovare nuovi rifugi, insoliti compagni di viaggio e nuove strategie per cercare di sopravvivere. È l’inizio di Flow – Un mondo da salvare, l’opera che ha vinto l’Oscar come migliore film d’animazione di quest’anno dopo aver conquistato anche il Golden Globe.

Il trailer di Flow (YouTube).

Il film ha molti meriti e molte caratteristiche insolite: un regista lettone, la totale assenza di dialoghi perché la storia è raccontata dalle immagini, e il fatto di aver battuto la concorrenza di colossi dal portafogli ben fornito come Disney, Pixar e Netflix.

Ma Flow ha anche una particolarità molto informatica: è stato realizzato usando il software Blender, che è libero e gratuito eppure riesce a generare animazioni ed effetti paragonabili a quelli dei costosi software commerciali che si usano normalmente per produrre i film di animazione digitale.

Questa è la storia di Blender, di come è possibile che un software che non costa nulla competa e vinca contro applicazioni sostenute e sviluppate dalle più importanti aziende del settore e sia giunto al traguardo dell’Oscar grazie al talento di un gruppo di persone creative, ed è anche la storia di cosa significa tutto questo per chiunque sogni di trasformare le proprie idee in immagini sullo schermo ma si trova paralizzato o intrappolato da costi di licenza insostenibili. Ed è anche la storia di un inaspettato legame di questo nome,Blender,con la Svizzera.

Benvenuti alla puntata del 10 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


È il 1994. Uno studio di animazione olandese, NeoGeo, che oggi non esiste più, sviluppa un software di grafica e animazione digitale per uso interno. I suoi creatori lo chiamano Blender, frullatore, come tributo all’omonimo brano della band svizzera Yello che l’azienda usa nel suo video dimostrativo.

Il brano degli Yello che ha dato il nome al software Blender (YouTube).
Il video dimostrativo di NeoGeo (YouTube).

Il software viene poi rilasciato pubblicamente come freeware, ossia come software gratuito liberamente scaricabile e utilizzabile senza pagare nulla, e successivamente come shareware, vale a dire come software che si può scaricare gratis in prova limitata e poi si paga per averne una versione completa.

Blender però non fa grandi progressi, e langue fino al 2002, quando Tom Roosendaal, principale autore del software, crea nei Paesi Bassi la fondazione senza scopo di lucro chiamata Blender Foundation e avvia con successo una campagna di raccolta fondi per rendere Blender libero e open source: in altre parole, gratuito, liberamente ispezionabile e modificabile da chiunque, a patto che le modifiche siano a loro volta distribuite gratuitamente e altrettanto ispezionabili.

Nasce così una comunità internazionale di sviluppatori appassionati che lo fanno crescere, sotto il coordinamento dei membri della Blender Foundation, e lo fanno diventare quello che è oggi: uno strumento potentissimo di grafica digitale accessibile a chiunque a costo zero, che include modellazione, animazione, rendering, compositing ed è disponibile in versioni per Windows, MacOS e Linux presso Blender.org.

Ogni uno o due anni, inoltre, la Blender Foundation gestisce la produzione di un cortometraggio di animazione che serve per stimolare l’innovazione e dimostrare pubblicamente le potenzialità di Blender. Questi brevi video (come per esempio Big Buck Bunny, Sintel, Tears of Steel) hanno un discreto successo di critica e di pubblico e vengono indicati come esempi di modi alternativi, collettivi e aperti, di creare arte e cinema d’animazione: chiunque sia competente può partecipare alla loro realizzazione e tutte le risorse e i modelli creati vengono messi a disposizione di chiunque per essere riutilizzati. L’esatto contrario del cinema tradizionale, dove tutti i diritti sono riservatissimi e usare un costume o un oggetto di scena senza permessi e contratti appositi è assolutamente vietato.

Dai primi anni Duemila Blender non è più uno strumento per appassionati e autori indipendenti ma comincia a essere usato nella preproduzione e negli effetti visivi di film e telefilm commerciali, anche con budget molto consistenti [Spider-Man 2; Captain America: The Winter Soldier; The Man in the High Castle], e viene usato anche dalla NASA per le animazioni che illustrano le sue missioni spaziali. Ma tutto questo è poco visibile al grande pubblico ed è quasi trascurabile rispetto all’impatto mediatico di vincere, come adesso, un premio Oscar con Flow.


Ovviamente Flow non è stato creato da Blender; questo software è solo uno strumento a supporto della creatività umana, e in questo caso il creativo si chiama Gints Zilbalodis ed è un regista e animatore lettone, che ha già realizzato da solo vari cortometraggi digitali e un intero lungometraggio, intitolato Away [trailer], usando il software commerciale Maya di Autodesk, ma nel 2019 decide di abbandonare questo prodotto per passare appunto a Blender, perché questo software libero e gratuito ha delle caratteristiche superiori, che gli servono per i suoi progetti successivi.

È in quell’anno che Zilbalodis inizia lo sviluppo di quello che diventerà poi Flow. Numerose scene prevedono ambientazioni acquatiche, per cui serve un software capace di generare simulazioni realistiche di fluidi e di vari fenomeni fisici, di fare modellazione, di fare il cosiddetto rigging (cioè la creazione delle articolazioni virtuali dei personaggi), l’animazione vera e propria, l’unione di tutti gli elementi della scena e anche il rendering in tempo reale, vale a dire la visualizzazione immediata del risultato finale, senza dover attendere tempi di elaborazione (per fare un paragone, ai tempi del primo Toy Story, nel 1995, alcuni fotogrammi richiedevano trenta ore di calcoli ciascuno, e ne servono 24 per ogni secondo di un film). Blender consente di fare tutto questo all’interno di un singolo programma, e questo rende più efficiente, rapido e coerente il flusso di lavoro.

Anche così, per concepire gli 80 minuti di animazione di Flow servono in tutto cinque anni e mezzo, perché i calcoli oggi si fanno velocemente, ma la creatività e la ricerca di fondi per finanziare un progetto di film d’animazione richiedono tempo come e forse anche più di prima. La produzione vera e propria delle 22 sequenze che compongono Flow richiede in totale sei mesi alla squadra di venti animatori sparsi fra Parigi, Marsiglia e Bruxelles. Il resto del tempo viene speso in preparativi, organizzazione, scrittura, sviluppo dei personaggi e della trama, e ovviamente promozione e trattative per trovare sostegno economico e canali di distribuzione.

Vincere un Oscar come miglior film d’animazione è un grande riconoscimento al talento creativo del regista Gints Zilbalodis, ma è anche un segnale importantissimo per l’intera comunità dei progetti informatici basati sui principi dell’open source di libertà, collaborazione aperta e trasparenza. Comunica in modo forte che questo modo di creare software è capace di competere alla pari con la maniera commerciale di sviluppare applicazioni.

Soprattutto, l’Oscar conquistato conferma che “la creatività, il talento e la visione contano più dell’investimento economico riversato in costosi strumenti a codice sorgente chiuso”, come scrive It’s Foss News, aggiungendo che “il successo di Flow ispirerà molti creatori che non hanno accesso a carissimi software di creazione 3D per sviluppare le proprie idee.”


La questione dell’accesso a questi software è fondamentale per chiunque voglia incamminarsi lungo un percorso per diventare autore di animazioni, per i giovani talenti che vorrebbero emergere. Un costo di licenza che è sostenibile per un’azienda avviata non lo è per una persona che vuole imparare e farsi le ossa con l’animazione digitale. Duemila euro l’anno, come nel caso del software Maya, sono una cifra importante per chi studia o fa animazione per passione. Possono rendere impossibile un sogno o un desiderio di carriera.

E c’è il problema aggiuntivo che se si crea qualcosa con un software che ha un costo di licenza ricorrente, quella creazione diventa dipendente da quel software e quindi per lavorarci, per aggiornarla o modificarla in qualunque modo, bisogna continuare a pagare, pagare, pagare, come sa bene chiunque abbia creato progetti con i popolarissimi software di Adobe Creative Cloud, come Photoshop o Premiere, giusto per fare un esempio molto conosciuto.

I prezzi attuali di licenza per usare le app di Creative Cloud (Adobe.com).
I prezzi attuali di licenza d’uso di Autodesk Maya (Autodesk.com).

Per non parlare della dipendenza che nasce dal tempo investito per imparare a usare quel software, o della dipendenza da aziende che risiedono in paesi soggetti a ghiribizzi politici surreali come quelli attuali che stanno sconvolgendo anche l’informatica e il mondo del cinema, con censure e autocensure che rievocano e fanno riscoprire il maccartismo di settant‘anni fa.

Il potenziale dirompente del software libero e gratuito è stato sottolineato proprio da Gints Zilbalodis in un’intervista subito dopo aver ricevuto l’Oscar: “Blender è un software libero, gratuito e a codice sorgente aperto” dice il regista “e questo vuol dire che è accessibile a tutti, e quindi oggi qualunque persona giovane ha a disposizione strumenti che vengono usati per realizzare film che ora hanno anche vinto un Oscar. Quindi credo che vedremo creare film emozionanti di ogni genere da parte di giovani che altrimenti non avrebbero mai avuto l’occasione di farlo. Blender è un grande strumento, non è in alcun modo un compromesso: ha la stessa qualità di tutti gli altri prodotti in circolazione, e lo useremo anche per il mio prossimo film.”

Blender è scaricabile liberamente presso Blender.org. Se vi interessa, datevi da fare.

Fonti aggiuntive

Ton Roosendaal Reveals the Origin of Blender’s name, BlenderNation, 2021

Open Source Fueled The Oscar-Winning ‘Flow’, It’s FOSS News, 2025

Podcast RSI – 5 maggio, Skype dà il mortal sospiro

Questo è il testo della puntata del 3 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio di suoneria di chiamata di Skype]

Per un’intera generazione di utenti, questo suono è familiare quanto quello della classica suoneria Nokia: è l’avviso di una chiamata Skype in arrivo. La tecnologia corre così in fretta che è facile dimenticarsi di quanto fu rivoluzionario questo software al suo debutto ben ventidue anni fa. Parlarsi via Internet, e anche vedersi in videochiamata, oggi è assolutamente normale; non lo era nel 2003.

Ma la corsa della tecnologia ha anche un’altra conseguenza: quel suono familiare presto sarà archiviato, perché Microsoft ha deciso, abbastanza di colpo, che Skype non sarà più disponibile a partire dal prossimo 5 maggio.

Questa è la storia di Skype, delle sue origini tutte europee un po’ dimenticate, di come ha contribuito a trasformare le nostre abitudini e di come verrà ingloriosamente archiviato e sostituito: Microsoft ha predisposto un percorso facilitato di migrazione al suo prodotto analogo Teams, ma ci sono anche altre soluzioni alternative.

Benvenuti alla puntata del 3 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Siamo nel 2003. È il 29 di agosto. A Stoccolma una ventina di persone si raduna per assistere al debutto online di un software, sviluppato da loro, che consente di fare telefonate via Internet, da un computer a un altro, in qualunque luogo del mondo, e consente di farlo facilmente e soprattutto gratis a prescindere dalla distanza fra i due interlocutori. È una rivoluzione vera e propria, in un’epoca in cui le conversazioni a lunga distanza sono un sostanziale monopolio delle compagnie telefoniche e hanno costi molto elevati e i messaggi vocali di WhatsApp che oggi consideriamo normali o addirittura essenziali sono pura fantascienza. Mancano infatti quattro anni al debutto del primo iPhone (nel 2007) e WhatsApp nemmeno esiste (arriverà nel 2009 e i suoi “vocali” inizieranno nel 2014).

Nel 2003 ci sono già altri software che permettono di trasportare la voce via Internet, ma sono complicati da installare e ancora più complicati da configurare. Questo, invece, si installa in pochi semplici passaggi e non richiede modifiche dei firewall aziendali o altre complessità tipiche dei suoi concorrenti. E così, il primo giorno il software viene scaricato da diecimila persone. Nel giro di un paio di mesi ha già un milione di utenti. Lo stupore di potersi parlare via Internet è ovunque.

Questo software, come avrete intuito, è quello che oggi chiamiamo Skype. Inizialmente, però, il nome previsto era un altro. Era Skyper: un po’ per assonanza con Napster, uno dei software più popolari e controversi di quegli anni, e un po’ come fusione di sky (cielo) e peer, dato che impiega la stessa tecnologia di trasmissione adoperata dai circuiti peer-to-peer per lo scambio di musica e film via Internet. Ma ahimè il dominio Skyper.com è già occupato, e così Skyper perde la R e diventa Skype.

L’assonanza del nome non è l’unico legame di Skype con i circuiti peer-to-peer: i fondatori di Skype sono lo svedese Niklas Zennström e il danese Janus Friis, e il software è stato scritto da un gruppo di programmatori estoni. Sono le stesse persone che due anni prima hanno creato Kazaa, un popolarissimo programma concorrente di Napster, e ora hanno adattato la tecnologia di Kazaa alla telefonia online.

Viste le grane legali che hanno avuto con le case discografiche per colpa di Kazaa, accusato di facilitare la pirateria audiovisiva di massa, Zennström e Friis hanno deciso di integrare immediatamente in Skype la crittografia, in modo che le chiamate fatte via Skype non siano intercettabili. Ovviamente questo fa diventare Skype uno dei software prediletti dai criminali di tutto il mondo oltre che dalle persone comuni che vogliono semplicemente parlare con amici e parenti lontani senza svenarsi.

Altrettanto ovviamente, le compagnie telefoniche non vedono con piacere l’avvento di questo concorrente che li spiazza completamente offrendo gratis il servizio che loro invece fanno pagare, ma legalmente non c’è nulla che possano fare per impedirlo, anche perché Zennström e Friis fanno in modo che Skype, intesa come azienda, non sia classificabile come operatore telefonico, perché non offre chiamate da un numero telefonico a un altro, ma solo da un numero telefonico a un computer oppure da un computer a un numero di telefono.

A settembre del 2005, dopo due anni di crescente successo e di espansione dell’azienda, Skype viene venduta a eBay per due miliardi e 600 milioni di dollari. Il suo software diventa man mano una delle applicazioni fondamentali di Internet, con oltre seicento milioni di utenti registrati e circa 300 milioni di utenti attivi mensili. Ma i giganti del software stanno sviluppando prodotti concorrenti: Google, Microsoft, Yahoo, Facebook, Apple e altri, come Viber, alitano sul collo di Skype, che nel frattempo ha aggiunto le videochiamate.

Una pagina del sito di Skype com’era nel 2011. Fonte: Archive.org.

Nel 2011, Microsoft compra Skype per otto miliardi e mezzo di dollari. È l’acquisto più costoso mai fatto fino a quel punto dal colosso di Redmond. Skype viene integrato nei servizi di Microsoft, tanto da diventare l’app di messaggistica predefinita di Windows 8.1, e viene progressivamente trasformato. Nascono le versioni per Mac, iPhone, iPad, Android, BlackBerry e anche Linux, e arriva anche Skype for Business, che però è in realtà un prodotto completamente distinto che ha in comune con Skype soltanto il nome e l’estetica.

Sembra l’apice del successo, ma in realtà il destino di Skype è già segnato.


L’integrazione di Skype in Windows, infatti, non procede per il meglio, e Microsoft ha già iniziato l’acquisizione e lo sviluppo di quello che oggi tutti conosciamo come Teams per sostituire Skype. Nel 2021 Skype for Business viene chiuso e in Windows 11 c’è Teams al posto di Skype; negli anni successivi, con molta calma, vengono disattivati i servizi di contorno di Skype standard, che è ancora usato giornalmente da quasi quaranta milioni di utenti. I segnali delle intenzioni di Microsoft a lungo termine sono dunque molto chiari. Ma l’annuncio vero e proprio della fine di questa app che ha fatto la storia di Internet arriva in maniera inaspettata, e non è Microsoft a darlo.

Il 28 febbraio scorso, infatti, il sito XDA Developers ha annunciato la scoperta, all’interno della versione di anteprima più recente di Skype per Windows, di una dicitura sibillina ma inequivocabile che avvisa in inglese che “a partire da maggio, Skype non sarà più disponibile. Prosegui le tue chiamate e le tue chat su Teams”. Poche ore dopo è arrivata la conferma ufficiale di Microsoft.

Mentre le fasi precedenti della progressiva eliminazione di Skype erano state annunciate con ampi margini di tempo (per esempio quattro anni per Skype for Business), stavolta quella quarantina di milioni di utenti rimasti ha meno di dieci settimane di tempo per riorganizzarsi e decidere cosa fare.

Dal 5 maggio prossimo Skype non sarà più disponibile, ma chi ha pagato un abbonamento potrà continuare a usarlo fino alla scadenza e chi ha del credito sul proprio conto Skype potrà continuare a sfruttarlo. Prima del 5 maggio, gli utenti di Skype potranno scaricare la versione gratuita di Teams e usare in Teams le proprie credenziali Skype su qualunque dispositivo supportato. Le chat e i contatti di Skype appariranno automaticamente in Teams [video]. Durante la transizione, chi usa Skype potrà chiamare gli utenti Teams e viceversa.

Ma a Teams gratuito mancano alcune delle caratteristiche che rendevano Skype così interessante: in particolare manca la possibilità di fare chiamate verso numeri telefonici e di ricevere chiamate provenienti dalla rete telefonica fissa e cellulare. Si poteva infatti avere un numero telefonico Skype al quale farsi chiamare, cosa che invece Microsoft offre soltanto nella versione a pagamento di Teams.

Se usate Skype e non fate la migrazione a Teams entro il 5 maggio prossimo, Microsoft conserverà comunque i vostri dati di Skype fino alla fine del 2025. Potrete quindi decidere di installare Teams gratuito anche dopo il 5 maggio senza perdere chat e contatti, ma se non agite entro dicembre i vostri dati di Skype verranno cancellati definitivamente.

In alternativa, potete esportare questi dati seguendo le istruzioni di Microsoft (che trovate linkate su Attivissimo.me) in modo da poterli poi importare in un’altra applicazione a vostra scelta, ma al momento mancano strumenti per automatizzare questa importazione.

Se sopportate il disagio di dover reimmettere a mano i vostri contatti e di perdere la vostra cronologia delle chat, le soluzioni alternative a Teams per fare e ricevere chiamate vocali non mancano di certo oggigiorno. Moltissime app social molto diffuse consentono chiamate, spesso anche in video e in gruppo: WhatsApp, Facetime, Instagram, Zoom, Snapchat, Facebook Messenger, Viber, Google Chat, Google Meet, X, Telegram, Discord, giusto per citarne qualcuna, e anche nel fediverso ci sono applicazioni che hanno questa funzione. Il problema è che ciascuno di questi software non parla con gli altri, per cui tocca ogni volta concordare con i propri interlocutori quale app usare. Inoltre di solito manca la possibilità di chiamare numeri di telefono di rete fissa, ma questo oggi è un problema molto meno sentito che in passato, visto che gli smartphone e gli abbonamenti che includono una connessione continua a Internet sono diffusissimi e le chiamate verso numeri fissi sono sempre più rare.

Con la chiusura di Skype si abbassa ulteriormente il sipario su un periodo storico di Internet: Skype è una delle poche applicazioni di grande diffusione che risale ai primi anni duemila, quando la comunicazione online e mobile era ancora tutta da inventare, ed è ancora in uso adesso, ed è stata una di quelle che davano il classico “effetto wow”: non appena la vedevi usare, ne capivi subito l’utilità e il potenziale rivoluzionario. Ed è anche grazie a Skype che le tariffe telefoniche si sono trasformate radicalmente rispetto a vent’anni fa. Concetti come la tariffa interurbana o quella ridotta notturna per le chiamate sono oggi ricordi sbiaditi che cominciano di ammantarsi di immeritata nostalgia.

Ma lo Skype originale, quello pre-Microsoft, aveva anche un altro grande pregio: faceva una sola cosa, e la faceva bene e in modo chiaro e intuitivo. Oggi tutte le app cercano di fare tutto, tipicamente in modo incompatibile fra loro, creando complessità e confusione, e ovviamente non possono fare a meno di incorporare l’onnipresente intelligenza artificiale. Quella che, fra l’altro, Microsoft aveva infilato anche nelle ultime versioni di Skype, e che troverete naturalmente saldamente integrata in Teams, se decidete di adottarlo come sostituto. Buona migrazione.


A proposito di Teams: prima di chiudere, devo fare una rettifica alla puntata del 24 febbraio scorso, quella dedicata a una tecnica di attacco informatico nella quale gli aggressori fingono di essere l’assistenza tecnica di Microsoft che contatta le vittime tramite Teams dal dominio in apparenza rassicurante Onmicrosoft.com.

Nel podcast ho detto erroneamente che questo nome di dominio appartiene ai criminali, ma in realtà è di Microsoft e i criminali si limitano a sfruttare il fatto che Microsoft assegna questo nome di dominio agli utenti Teams che non ne hanno uno proprio o non lo connettono a Microsoft 365.

Il risultato è che i messaggi Teams dei truffatori provengono da un indirizzo di mail che termina con onmicrosoft.com e quindi è facile scambiarli per messaggi dell’assistenza tecnica di Microsoft. Ringrazio i lettori e gli ascoltatori del podcast che hanno notato il mio errore.

Fonti aggiuntive

Microsoft is killing Skype after 14 years of neglect, WindowsCentral.com, 2025

Exclusive: Microsoft is finally shutting down Skype in May [Update], XDA-developers.com, 2025

Non-biz Skype kicks the bucket on May 5, The Register, 2025

Microsoft announces Skype will close in May, BBC, 2025

Microsoft hangs up on Skype: Service to shut down May 5, 2025, TechCrunch, 2025

On May 5, Microsoft’s Skype will shut down for good, Ars Technica, 2025

Microsoft Plans to Kill Skype, but Did It Ever Truly Live?, Gizmodo, 2025

Gear News of the Week: Skype Will Close for Good in May, Wired.com, 2025

Microsoft finally putting Skype out of our misery, BoingBoing, 2025

The next chapter: Moving from Skype to Microsoft Teams, Microsoft, 2025

Skype recovers from global blackout, BBC, 2010

Skype Is Down, Nearly 20 Million Lost Their Connection This Morning, ReadWriteWeb.com, 2010 (su Archive.org)

Skype Goes Down. Millions Impacted. Skype responds, GigaOm.com, 2010 (su Archive.org)

“How can they be so good?”: The strange story of Skype, Ars Technica, 2018

About Skype, Skype.com, 2011 (su Archive.org)

Smartphone history and evolution, Simpletexting.com, 2024

Podcast RSI – Fuori in 48 minuti: cronaca di un attacco informatico iperveloce

Questo è il testo della puntata del 24 febbraio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.
Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: audio dal trailer di “Fuori in 60 secondi” (2000)]

Hollywood come sempre esagera la realtà, ma è vero che gli attacchi informatici stanno diventando sempre più rapidi: secondo una ricerca appena pubblicata, nel 2024 la loro velocità è aumentata mediamente del 22% rispetto all’anno precedente. In un caso recentissimo, agli aggressori sono bastati 48 minuti per penetrare le difese informatiche di un’azienda del settore manifatturiero e cominciare a saccheggiarne i dati, per poi chiedere un riscatto per restituirli o non pubblicarli.

Questa è la storia di quell’attacco, spiegata in dettaglio, utile per capire come lavorano oggi i criminali informatici e come ci si può difendere concretamente riconoscendo i primi segnali di un’incursione informatica.

Benvenuti alla puntata del 24 febbraio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Siamo a dicembre del 2024 e sono passate da poco le cinque del pomeriggio di un giorno lavorativo qualsiasi. Il gruppo di criminali informatici russofoni noto agli addetti ai lavori con il nome di Black Basta inizia il proprio attacco a un’azienda del settore manifatturiero. Una delle tante che in tutto il mondo vengono prese di mira ogni giorno.

Per prima cosa i criminali mandano a una quindicina di dipendenti dell’azienda un’ondata massiccia di mail di spam, che intasa le loro caselle di posta e produce un numero spropositato di notifiche che rendono impossibile lavorare: una scocciatura particolarmente irritante, visto che arriva alla fine di una giornata lavorativa. Ma non è questo l’attacco vero e proprio: è solo un diversivo scelto con attenzione.

Alle 17 e 26 minuti, alcuni dei dipendenti bersagliati dal flusso incessante di spam ricevono un messaggio Teams dall’helpdesk informatico di Onmicrosoft.com, che offre soccorso per arginare la pioggia di mail spazzatura. Due di questi dipendenti ricevono poi una chiamata via Teams che li invita ad aprire Quick Assistant (o Assistenza rapida nella versione italiana), lo strumento Microsoft di accesso remoto, e a dare all’assistenza informatica il controllo dei loro computer. Uno dei dipendenti accetta l’invito e attiva la gestione remota del computer, lasciandola aperta per una decina abbondante di minuti. Sono le 17 e 47: sono passati solo ventuno minuti dall’inizio dell’attacco e i ladri sono già sulla soglia dei sistemi informatici aziendali.

Infatti Onmicrosoft.com non è un dominio di Microsoft: appartiene ai criminali, che si stanno fingendo operatori dell’assistenza tecnica Microsoft.* La tattica di usare un’ondata di spam come diversivo è particolarmente efficace, perché queste mail di spam in sé non contengono nulla di pericoloso e quindi i sistemi di sicurezza non le bloccano. Le vittime non hanno neanche bisogno di interagire con queste mail, come avviene invece negli attacchi tradizionali in cui l’aggressore deve convincere il bersaglio a cliccare su un link ostile presente nella mail. Lo scopo della valanga di messaggi spazzatura è semplicemente causare agitazione nella vittima e creare una giustificazione plausibile per la chiamata immediatamente successiva su Teams dei criminali che fingono di essere l’assistenza tecnica di Microsoft. E il fatto che il messaggio arrivi via Teams, invece che da una mail tradizionale, rende tutto ancora più plausibile.

* CORREZIONE: In realtà Onmicrosoft.com è un dominio di Microsoft, ma viene sfruttato dai criminali per spacciarsi per Microsoft [info]: è un dominio usato da Microsoft come fallback se non si è proprietari di un dominio o se non lo si vuole connettere a Microsoft 365. Ho interpretato male questa frase del rapporto tecnico: “the threat actor sent a Teams message using an external “onmicrosoft.com” email address. These domains are simple to set up and exploit the Microsoft branding to appear legitimate.“. Grazie a 764081 per la segnalazione del mio errore.

Dal punto di vista della vittima, infatti, è semplicemente arrivata un’ondata di spam ed è giunta prontamente la chiamata Teams dell’assistenza tecnica Microsoft che si è offerta di risolvere il problema. Nulla di sospetto, anzi: alla vittima fa anche piacere sapere che l’assistenza clienti è veloce e pensa lei a tutto, soprattutto quando è ora di lasciare l’ufficio.

Dal punto di vista degli aggressori, invece, l’attacco è particolarmente efficace, perché non richiede di convincere la vittima a installare app di dubbia provenienza. Tutto il software necessario per avviare l’attacco è infatti già presente nei computer dell’azienda: basta convincere qualcuno, anche uno solo dei tanti dipendenti, a cederne momentaneamente il controllo.

È una trappola tecnica e psicologica perfetta. E infatti pochi minuti dopo che la vittima ha passato il controllo remoto del proprio computer ai criminali pensando di darlo invece al soccorso informatico Microsoft, gli aggressori iniziano la loro scorribanda.


Sono le 17 e 56: nei nove minuti trascorsi da quando hanno ottenuto il comando remoto del computer aziendale del dipendente caduto nella trappola, gli aggressori hanno collegato quel computer al loro server di comando e controllo,* e cosi la breccia temporanea aperta dall’incauto utente è ora un tunnel permanente.

*  Lo hanno fatto aprendo le porte 443 e 10443 tipicamente riservate per il traffico criptato TLS e usando un beacon di OneDrive che punta a un indirizzo IP controllato dagli aggressori.

Attraverso questo tunnel, gli aggressori non installano un programma ostile, come è facile immaginarsi che facciano, ma si limitano a depositare una versione appositamente modificata a loro favore di un componente software comune, in termini tecnici una libreria a collegamento dinamico o DLL*, mettendola in una cartella OneDrive usata per effettuare gli aggiornamenti del software dell’azienda presa di mira.

 * Il nome del file in questo caso è winhttp.dll.

Per via del modo in cui funzionano Windows e le sue applicazioni,* quel componente software modificato verrà eseguito dalle applicazioni aziendali al posto della sua versione originale. Questa è una tecnica sofisticata, chiamata DLL sideloading.In altre parole, il sistema informatico dell’azienda è già infettato e pronto per essere devastato.

* Le applicazioni cercano le DLL di cui hanno bisogno prima di tutto nella propria cartella e poi altrove, e quindi gli aggressori piazzano la DLL ostile nella cartella che ospita un’applicazione vulnerabile, sapendo che verrà eseguita al posto della DLL originale situata altrove.

I criminali attivano l’infezione usando PowerShell, un altro strumento presente nei sistemi Windows, e il componente software modificato viene eseguito negli account degli amministratori di sistema, che sono abilitati ad accedere a molte più risorse di un account utente normale. Con questo potere, gli aggressori riescono a trovare delle credenziali* che permettono loro di creare un nuovo account con i massimi permessi di amministrazione.

* Sono quelle di un account di servizio usato per gestire un database SQL.

A questo punto i criminali hanno il controllo totale della rete informatica del bersaglio e possono fare sostanzialmente tutto quello che desiderano. Infatti usano addirittura il software di sicurezza dell’azienda [Network Scanner di Softperfect] per trovare altre vulnerabilità da sfruttare per esfiltrare i dati di lavoro, ossia portarsi via una copia integrale di tutte le informazioni che servono all’azienda per poter lavorare, allo scopo di rivendere quelle informazioni sul mercato nero dei dati rubati oppure di ricattare l’azienda stessa con la minaccia di pubblicarli, con tutti i problemi legali di privacy che questo comporterebbe, oppure ancora di cancellarli dai computer dell’azienda e fornirne una copia solo dietro lauto pagamento.

Sono le 18.35. In 48 minuti i criminali informatici sono passati dal trovarsi sulla soglia a essere onnipotenti. Nel giro di poco più di un giorno completeranno l’esfiltrazione dei dati aziendali e il saccheggio informatico sarà pronto per essere monetizzato. Nel caso specifico, l’azienda riuscirà a contenere il danno scollegando da Internet vari data center, ma questo comporterà blocchi della produzione ed enormi disagi nel flusso di lavoro.


Come si fa a evitare di trovarsi in queste situazioni? La formazione del personale, e di tutto il personale, ossia di chiunque metta mano a un computer, è ovviamente essenziale: tutti devono conoscere l’esistenza di queste tecniche di attacco e abituarsi a riconoscerne i sintomi e a non fidarsi delle chiamate Teams o di altro genere che sembrano provenire dall’assistenza informatica di Microsoft o di qualunque altro fornitore di servizi. Tutti devono rendersi conto che gli attacchi informatici non sono un problema che riguarda solo gli addetti ai servizi informatici. Serve anche un modo affidabile e pratico per verificare le identità degli interlocutori quando la conversazione non avviene in presenza: cose come parole d’ordine concordate, per fare un esempio.

Ma c’è anche una parte tecnica importante che va ripensata e gestita correttamente non dagli utenti ma da parte degli amministratori dei sistemi informatici e dei loro superiori. Le applicazioni di accesso remoto, come Assistenza rapida di Microsoft, andrebbero disinstallate ovunque sia possibile o perlomeno rese meno facilmente accessibili agli utenti, e gli account degli utenti che interagiscono con un tentativo di furto anche solo sospettato andrebbero bloccati e isolati immediatamente. Tutte cose che hanno un costo e comportano disagi e scomodità e quindi spesso non vengono fatte.

Trovate raccomandazioni tecniche molto dettagliate e motivate nei due rapporti sulla vicenda pubblicati dalla società di sicurezza informatica Reliaquest, quella che ha seguito e analizzato in profondità questo attacco [48 Minutes: How Fast Phishing Attacks Exploit Weaknesses; Racing the Clock: Outpacing Accelerating Attacks].

E la lezione più importante che ci offre questa vicenda è che gli intrusi stanno diventando sempre più veloci, grazie anche all’automazione dei loro attacchi consentita dall’intelligenza artificiale, che stanno usando a piene mani e senza scrupoli, e quindi i tempi di reazione devono adeguarsi e gli interventi di protezione devono essere il più possibile automatici e drastici. L’idea ancora molto diffusa di avere un servizio di supporto informatico solo in orari d’ufficio, per contenere i costi, non è soltanto obsoleta: è di fatto pericolosa. Perché i criminali informatici non rispettano gli orari di lavoro o le ferie.

C’è un epilogo positivo a questa vicenda: Black Basta, il gruppo criminale al quale è stato attribuito l’attacco che ho descritto qui, è in crisi. Le sue chat interne sono state infatti trafugate e pubblicate online, permettendo a studiosi e ricercatori di sicurezza di analizzare tattiche, segreti professionali e liti fra i suoi membri, disseminati su oltre 200.000 messaggi [Ars Technica]. Uno dei suoi leader è stato arrestato, e questo aumenta le possibilità che vengano rintracciati anche gli altri componenti. E un altro dei capi di Black Basta ha commesso l’errore strategico di attaccare le infrastrutture di alcune banche russe, col risultato di attirare sulla banda le attenzioni decisamente indesiderate delle autorità di polizia del paese.

Alla fine, i peggiori nemici dei criminali sono i criminali stessi.

Fonte aggiuntiva

Notorious crooks broke into a company network in 48 minutes. Here’s how. Ars Technica (2025).

Podcast RSI – Social network senza algoritmi e senza padroni, grazie al fediverso

Questo è il testo della puntata del 17 febbraio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Ci sono sempre stati buoni motivi tecnici di privacy e di sicurezza per essere diffidenti verso i social network e usarli con molta cautela. Ora se ne è aggiunto un altro particolarmente importante: l’allineamento dichiarato e repentino di tutti i principali proprietari di social network e dei più influenti CEO del settore informatico alle direttive esplicite e implicite della presidenza Trump.

Screenshot della pagina della AP che mostra Mark Zuckerberg, Jeff Bezos, Sundar Pichal (CEO di Google) e Elon Musk alla cerimonia di insediamento di Trump.

Una scelta di allineamento – o forse bisognerebbe chiamarla genuflessione – che, sommata a tutte le ragioni tecniche preesistenti, rende urgente chiedersi se si possa ancora far finta di niente e continuare a lasciare che la comunicazione, l’informazione e i dati personali di quattro miliardi di persone siano gestiti arbitrariamente da fantastiliardari che hanno dimostrato di essere capricciosi, impulsivi e vendicativi e di essere pronti a reinsediare nei loro social network persone e ideologie prima impresentabili, a zittire le voci scomode, a eliminare le iniziative contro la disinformazione e persino a riscrivere le cartine geografiche pur di compiacere il potente di turno e avere così carta bianca per massimizzare i propri profitti a spese di noi utenti e del concetto stesso di realtà condivisa.

Se vi attira l’idea di un social network senza padroni e algoritmi che vi dicono cosa vedere e cosa leggere, senza utenti più privilegiati di altri e senza immensi sistemi di schedatura di massa che ficcano incessantemente il loro naso virtuale nei fatti vostri e li danno in pasto ai pubblicitari e alle intelligenze artificiali, allora benvenuti alla puntata del 17 febbraio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Questa puntata, infatti, è dedicata al cosiddetto fediverso. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Comincio con un breve ripasso del concetto di fediverso. Ne ho già parlato in dettaglio in podcast precedenti [24 novembre 2022; 15 settembre 2023], ma in sintesi questo termine indica un ampio assortimento di servizi per creare social network che possono comunicare tra loro usando uno standard comune, che si chiama protocollo ActivityPub.

Detto così non sembra un granché, ma in realtà questa possibilità di intercomunicazione cambia tutto. Siamo abituati da anni all’idea dei social network che non si parlano: gli utenti di Instagram non possono scambiare messaggi con quelli di X o di WhatsApp e viceversa, per esempio. Ma questo muro è una costruzione artificiale, fatta apposta per tenere rinchiusi gli utenti e obbligarli a fare i salti mortali per passare informazioni da un social a un altro. Il fediverso non ha muri: è uno spazio nel quale tutti possono parlare con tutti.

Questa possibilità di comunicare con tutti ha una conseguenza non tecnica molto interessante: non c’è più bisogno di un ricco padrone centrale che investa in risorse tecniche adatte a reggere centinaia di milioni di utenti e che gestisca e controlli tutto e quindi possa permettersi di fare il bello e il cattivo tempo, come sta facendo per esempio in questi giorni X, il social network di Elon Musk, che sta bloccando qualunque link a Signal, un popolare sistema di messaggistica cifrata concorrente, con la scusa falsa che sarebbero link pericolosi, e non è la prima volta che si comporta in questo modo, visto che nel 2022 aveva bloccato ogni link a Instagram e al rivale Mastodon [Ars Technica].

Nel fediverso, invece, ogni utente o gruppo di utenti può crearsi il proprio mini-social network capace di comunicare con gli altri mini-social network. Al posto di un ambiente monolitico centralizzato c’è insomma una galassia di utenti indipendenti che collaborano: un universo federato, da cui il termine fediverso.


Per fare un esempio concreto, proprio oggi la Scuola politecnica federale di Losanna o EPFL ha inaugurato un proprio server nel fediverso per consentire ai membri della comunità della Scuola di “condividere contenuti in una maniera allineata con i valori della scienza aperta”, come dice l’annuncio ufficiale dell’EPFL, precisando di aver scelto il software Mastodon, un equivalente libero di X/Twitter, Bluesky o Threads, per intenderci, “perché l’indipendenza e gli strumenti efficaci di comunicazione sono critici,” prosegue l’annuncio, aggiungendo che “i suoi algoritmi sono trasparenti e non sono progettati per far spiccare i post emotivamente carichi” come fanno invece i social network commerciali.

Questa soluzione, nota il comunicato, garantisce inoltre che i dati degli utenti non vengano monetizzati e che non possano entrare in gioco (cito) “i capricci strategici di un’azienda orientata al profitto”. Il server Mastodon dell’EPFL è federato, cioè scambia messaggi, con altri server dello stesso tipo, e quindi la comunità della Scuola politecnica può dialogare con gli utenti Mastodon di tutto il mondo senza doversi affidare a Elon Musk, Mark Zuckerberg e simili.

Mastodon non contiene pubblicità, non fa profilazione degli utenti, e non ha una sezione “Per te” di account che qualcuno ha deciso che dobbiamo assolutamente vedere e seguire. Ogni utente vede solo i post degli utenti che ha deciso di seguire, e li vede tutti, senza filtri arbitrari. In altre parole, è Internet come dovrebbe essere, al servizio degli utenti, invece di essere uno strumento per rendere servi gli utenti e pilotarne le opinioni. E mai come in questo momento è evidente, dalle notizie di cronaca, che X e Instagram, o meglio Elon Musk e Mark Zuckerberg, stanno usando i propri social network come strumenti di questo secondo secondo tipo.


Il fediverso, però, non è solo Mastodon come sostituto di X; non è solo una piattaforma di microblogging. Include anche alternative che possono rimpiazzare Instagram per la condivisione di foto e video e di messaggi diretti, come per esempio Pixelfed, disponibile come app per iOS e Android presso Pixelfed.org. Pixelfed è senza pubblicità, open source e decentrato, e i suoi feed predefiniti sono puramente cronologici.

L’elenco delle app libere e aperte da usare per sostituire i social network commerciali è piuttosto completo: per condividere video, al posto di YouTube c’è PeerTube; al posto di Facebook c’è Friendica; al posto di TikTok c’è Loops.video; e WhatsApp si può sostituire con il già citato Signal.

Su Internet si è diffusa la data del primo febbraio scorso come Global Switch Day, la giornata in cui gli utenti passano dai social network commerciali a quelli del fediverso, e sembra che il maggior beneficiario dell’esodo di utenti da X, come protesta per le recenti azioni politiche di Elon Musk, sia stato Bluesky, che oggi ha circa 30 milioni di utenti ma non è un’app federata in senso stretto, usa un standard differente dal resto del fediverso ed è comunque sotto il controllo di una singola persona, Jack Dorsey, l’ex CEO di Twitter*, per cui c’è il rischio di passare dalla padella alla brace.

* Correzione: Dorsey è il fondatore di Bluesky e ha lasciato il consiglio di amministrazione di Bluesky a maggio 2024 [The Verge].

Lo stesso vale per Threads, che è federato*, per cui i suoi utenti possono seguire anche le persone che sono su Mastodon, per esempio, ma è comunque un’app di Meta, quindi soggetta agli umori e alle affiliazioni politiche del momento di Mark Zuckerberg.

*  Almeno parzialmente, da dicembre 2024: “Threads users can't see posts from other fediverse platforms on their feeds yet. But you can follow accounts from those platforms if they've liked, followed, or replied to your federated posts from Threads. You're also able to share your Threads posts to other fediverse platforms and can opt-in by navigating to Profile > Settings > Account > Fediverse sharing. Threads and Instagram boss Adam Mosseri has shared a few more details about the latest update. When a Threads user receives a like or reply from a federated account, they can navigate to the profile without leaving the app. It'll appear like a Threads account even though it's technically from the fediverse. The fediverse user handles and profiles will show that the user is from a Mastodon server or other part of the federiverse. You can also choose to be notified when the federated user replies or posts on their server.” [PCMag.com, 2024/12/05]

Ma il problema di fondo di tutte queste iniziative di abbandono collettivo che periodicamente vengono proposte è che tecnicamente questi social alternativi fanno le stesse cose di quelli commerciali, anzi le fanno anche meglio dal punto di vista degli utenti, ma trasferirsi lì significa lasciarsi dietro tutti gli amici e i contatti che non si trasferiscono. E così nessuno muove il primo passo,* e tutto rimane com’era prima.

* È quello che è successo con l‘istanza Mastodon della Cancelleria federale svizzera, aperta nel 2023 a titolo sperimentale e chiusa a settembre 2024 per mancanza di traffico (3500 follower sparsi su sei account) [Admin.ch].

Fino al momento in cui qualcuno compie quel primo passo, e gli altri decidono di seguirlo perché non ne possono più di stare dove stanno. Provate a chiedervi se quella persona che compie quel primo passo, all’interno della vostra cerchia di contatti, potreste essere voi.

Fonti aggiuntive

Addio Facebook e Instagram: è ora di ricostruire le nostre case digitali, Arianna Ciccone su ValigiaBlu.it (2025/01/24)

La scelta di lasciare FB e IG: alcune obiezioni e le nostre risposte, Arianna Ciccone su ValigiaBlu.it (2025/02/04)

These apps are building Instagram alternatives on open protocols, TechCrunch (2025/02/09)

Podcast RSI – Informatici in campo per salvare i dati scientifici cancellati dal governo Trump

Questo è il testo della puntata del 10 febbraio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Siamo a fine gennaio 2025. In tutti gli Stati Uniti e anche all’estero, scienziati, ricercatori, studenti, tecnici informatici si stanno scambiando frenetici messaggi di allarme: salvate subito una copia dei vostri dati pubblicati sui siti governativi statunitensi. È l’inizio di una maratona digitale collettiva per mettere in salvo dati sanitari, statistici, sociali, storici, climatici, tecnici ed economici che stanno per essere cancellati in una purga antiscientifica che ha pochi precedenti: quella derivante dalla raffica di ordini esecutivi emessi dalla presidenza Trump.

Persino la NASA è coinvolta e il 22 gennaio diffonde ai dipendenti l’ordine di “mollare tutto” [“This is a drop everything and reprioritize your day request”] e cancellare dai siti dell’ente spaziale, entro il giorno stesso, qualunque riferimento a minoranze, donne in posizione di autorità, popolazioni indigene, accessibilità, questioni ambientali e molti altri temi per rispettare questi ordini esecutivi [404 Media].

Per fortuna molti dei partecipanti a questa maratona si sono allenati in precedenza e sono pronti a scattare, e le risorse tecniche per sostenerli non mancano.

Questa è la storia di questa corsa per salvare scienza, conoscenza e cultura. E non è una corsa che riguarda solo gli Stati Uniti e che possiamo contemplare con inorridito distacco, perché piaccia o meno è lì che di fatto si definiscono gli standard tecnici e scientifici mondiali e si svolge gran parte della ricerca che viene utilizzata in tutto il mondo.

Benvenuti alla puntata del 10 febbraio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica… e questa è decisamente una storia strana e difficile da raccontare. Io sono Paolo Attivissimo.

[SIGLA di apertura]


La vastità e pervasività della cancellazione e riscrittura dei contenuti dei siti governativi statunitensi in corso dopo l’elezione del presidente Trump è difficile da comprendere guardando soltanto i suoi numeri. Secondo il New York Times, sono scomparse oltre 8000 pagine web di informazione sparse su una dozzina di siti governativi [NYT]. Inoltre sono svanite almeno 2000 raccolte di dati [404 Media]. Dati scientifici che riguardano le epidemie in corso, l’inquinamento e il clima, per esempio.

Conteggio dei dataset governativi su Data.gov prima e dopo gli ordini di Trump [404 Media].

Va detto che ogni avvicendamento di un’amministrazione statunitense comporta qualche modifica dei dati governativi disponibili, per rispecchiare gli orientamenti politici di chi è stato eletto, ma è la scala e la natura delle modifiche attualmente in atto che spinge molte autorità scientifiche, solitamente sobrie e compassate, a protestare pubblicamente e a paragonare la situazione di oggi a quella del romanzo distopico 1984 di George Orwell [Salon.com], alle censure sovietiche o ai roghi di intere biblioteche di libri scientifici da parte del regime nazista in Germania nel 1933 [Holocaust Memorial Day Trust; Wikipedia].

Quando riviste scientifiche prestigiosissime come Nature o il British Medical Journal si sentono in dovere di scendere in campo, vuol dire che la situazione è grave.

Non ritireremo articoli pubblicati, se un autore ce lo chiede perché contengono cosiddette parole bandite” scrive il British Medical Journal, aggiungendo che le buone prassi scientifiche e l’integrità professionale non cederanno di fronte a ordini di imbavagliamento o soppressione o capricci autoritari […] Se c’è qualcosa che va proibito, è l’idea che le riviste mediche e scientifiche, il cui dovere è rappresentare integrità ed equità, debbano piegarsi a censure politiche o ideologiche”, conclude il BMJ.

Ma non siamo nel 1933. Non si bruciano più vistosamente in piazza i libri malvisti dal potere. Oggi si danno ordini esecutivi e i database sanitari spariscono silenziosamente con un clic, per cui è facile non rendersi conto della portata delle istruzioni impartite dall’amministrazione Trump. E i numeri non aiutano a capire questa portata: come in ogni grande disastro, sono troppo grandi e astratti per essere compresi realmente. Forse tutto diventa più chiaro citando qualche caso specifico e concreto.


Prendiamo per esempio un argomento ben distante dagli schieramenti politici come l’astronomia. In Cile c’è il modernissimo Osservatorio Vera Rubin, intitolato all’omonima astronoma statunitense e gestito dalla National Science Foundation del suo paese. Il sito di quest’osservatorio ospitava questa frase:

La scienza è ancora un campo dominato dagli uomini, ma l’Osservatorio Rubin si adopera per aumentare la partecipazione delle donne e di altre persone che storicamente sono state escluse dalla scienza, accoglie chiunque voglia contribuire alla scienza, e si impegna a ridurre o eliminare le barriere che escludono i meno privilegiati.”

Questa frase, che non sembrerebbe essere particolarmente controversa, è stata rimossa e riscritta per rispettare gli ordini esecutivi del presidente Trump e adesso parla della dominazione maschile della scienza come se fosse una cosa passata [“what was, during her career, a very male-dominated field”] [ProPublica].

Oppure prendiamo il Museo Nazionale di Crittologia dell’NSA, che sta ad Annapolis, nel Maryland. La scienza dei codici segreti parrebbe forse ancora più lontana dalla politica di quanto lo sia l’astronomia, ma lo zelo degli esecutori degli ordini di Trump è arrivato anche lì: dei pannelli informativi che raccontavano il ruolo delle donne e delle persone di colore nella crittografia sono stati coperti in fretta e furia con fogli di carta da pacchi [Mark S. Zaid su X], rimossi solo dopo che la grossolana censura è stata segnalata ed è diventata virale sui social network.*

* La foga (o la paura di perdere il posto di lavoro) ha fatto addirittura cancellare un video che spiega il concetto grammaticale di pronome [404 Media].

Quelli che ho raccontato sono piccoli esempi, che illustrano la natura pervasiva e meschina* degli effetti delle direttive del governo Trump. Ma ovviamente la preoccupazione maggiore riguarda i grandi archivi di dati scientifici su argomenti che l’attuale amministrazione americana considera inaccettabili perché menzionano anche solo di striscio questioni di genere, di discriminazione e di accessibilità.

* 404 Media usa “pettiness”, ossia “meschinità”, per descrivere alcune delle cancellazioni dei siti governativi documentate tramite Github.

Il CDC, l’agenzia sanitaria federale statunitense, ha eliminato moltissime pagine di risorse scientifiche dedicate all’HIV, alle malattie sessualmente trasmissibili, all’assistenza alla riproduzione, alla salute delle minoranze, alla salute mentale dei minori, al monitoraggio dell’influenza, e ha ordinato a tutti i propri ricercatori di rimuovere dai propri articoli in lavorazione termini come “genere, transgender, persona in gravidanza, LGBT, transessuale, non binario, biologicamente maschile, biologicamente femminile”. La rimozione non riguarda solo gli articoli pubblicati dall’ente federale ma anche qualunque articolo da inviare a riviste scientifiche [Inside Medicine; Washington Post].

Screenshot del sito del CDC [Dr Emma Hodcroft su Mastodon].

Il NOAA, l’ente federale per la ricerca atmosferica e oceanica degli Stati Uniti, ha ordinato di eliminare persino la parola “empatia” da tutti i propri materiali [Mastodon].*

* La National Science Foundation, che finanzia una quota enorme della ricerca scientifica in USA, ha sospeso i finanziamenti a qualunque progetti che tocchi in qualche modo questioni di diversità o uguaglianza [Helen Czerski su Mastodon]. La sezione “Razzismo e salute” del CDC non esiste più [Archive.org; CDC.gov]. Dal sito della NASA sono stati rimossi moduli educativi sull‘open science [Archive.org; NASA]. Dal sito della Casa Bianca sono scomparsi la versione in spagnolo e la dichiarazione d’intenti di renderlo accessibile a persone con disabilità; l’Office of Gun Violence Prevention è stato cancellato [NBC].

Di fatto, qualunque ricerca scientifica statunitense che tocchi anche solo vagamente questi temi è bloccata, e anche le ricerche su altri argomenti che però usano dati del CDC oggi rimossi sono a rischio; è il caso, per esempio, anche delle indagini demografiche, che spesso contengono dati sull’orientamento sessuale, utili per valutare la diffusione di malattie nei vari segmenti della popolazione. Il Morbidity and Mortality Weekly Report, uno dei rapporti settimanali fondamentali del CDC sulla diffusione delle malattie, è sospeso per la prima volta da sessant’anni. È una crisi scientifica che imbavaglia persino i dati sull’influenza aviaria [Salon.com; KFF Health News], perché gli ordini esecutivi di Trump vietano in sostanza agli enti sanitari federali statunitensi di comunicare con l’Organizzazione Mondiale della Sanità [AP].

Ma c’è un piano informatico per contrastare tutto questo.


Il piano in questione si chiama End of Term Archive: è un progetto nato nel 2008 che archivia i dati dei siti governativi statunitensi a ogni cambio di amministrazione [Eotarchive.org]. È gestito dai membri del consorzio internazionale per la conservazione di Internet, che includono le biblioteche nazionali di molti paesi, Svizzera compresa, e a questa gestione prendono parte anche i membri del programma statunitense di conservazione dei dati digitali (NDIIPP).

Non è insomma una soluzione d’emergenza nata specificamente per la presidenza attuale. Nel 2020, durante la transizione da Trump a Biden, l’End of Term Archive raccolse oltre 266 terabyte di dati, che sono oggi pubblicamente accessibili presso Webharvest.gov insieme a quelli delle transizioni precedenti.

Questa iniziativa di conservazione si appoggia tecnicamente all’Internet Archive, una delle più grandi biblioteche digitali del mondo, fondata dall’imprenditore informatico Brewster Kahle come società senza scopo di lucro nell’ormai lontano 1996 e situata fisicamente a San Francisco, con copie parziali in Canada, Egitto e Paesi Bassi e accessibile online presso Archive.org.

Questa colossale biblioteca online archivia attualmente più di 866 miliardi di pagine web oltre a decine di milioni di libri, video, notiziari televisivi, software, immagini e suoni. Le raccolte di dati delle transizioni presidenziali statunitensi sono ospitate in una sezione apposita di Archive.org; quella del 2024, già disponibile, contiene oltre mille terabyte di dati.

Ma molti giornalisti, ricercatori e scienziati hanno provveduto a scaricarsi copie personali dei dati governativi che temevano di veder sparire, passando notti insonni a scaricare e soprattutto catalogare terabyte di dati [The Atlantic; The 19th News; Jessica Valenti; Nature]. Lo ha fatto anche l’Università di Harvard, mentre la Columbia University ha aggiornato il suo Silencing Science Tracker, una pagina che traccia i tentativi dei governi statunitensi di limitare o proibire la ricerca, l’educazione e la discussione scientifica dal 2016 in avanti.

È facile sottovalutare l’impatto pratico sulla vita di tutti i giorni di un ordine esecutivo che impone la riscrittura di un enorme numero di articoli e di pagine Web informative su temi scientifici e in particolare medici. La virologa Angela Rasmussen spiega in un’intervista al sito Ars Technica che non è semplicemente una questione di cambiare della terminologia o riscrivere qualche frase e tutto tornerà a posto: vengono rimosse informazioni critiche. Per esempio, i dati governativi statunitensi sulla trasmissione dell’Mpox, la malattia nota precedentemente come “vaiolo delle scimmie”, sono stati censurati rimuovendo ogni riferimento agli uomini che hanno rapporti sessuali con uomini, dice Rasmussen. Queste persone “non sono le uniche a rischio negli Stati Uniti, ma sono quelle che hanno il maggior rischio di esposizione all’Mpox. Togliere il linguaggio inclusivo nasconde alle persone a rischio le informazioni che servirebbero a loro per proteggersi”.

La giornalista Jessica Valenti ha salvato e ripubblicato online documenti rimossi dall’amministrazione Trump e riguardanti la contraccezione, la pianificazione familiare, la salute sessuale, i vaccini, la violenza fra partner e altri argomenti assolutamente centrali nella vita di quasi ogni essere umano.

La presidenza Trump ha presentato la libertà di parola come uno dei propri mantra centrali, e uno degli ordini esecutivi che hanno portato a questo oscuramento, o oscurantismo se vogliamo chiamarlo con il suo vero nome, ha un titolo che parla di difesa delle donne e di “ripristino della verità biologica” (Defending Women from Gender Ideology Extremism and Restoring Biological Truth to the Federal Government). Censurare i fatti scientifici sulla salute e le informazioni che aiutano una donna a proteggersi è un modo davvero orwelliano di fare i paladini della libertà di espressione e i difensori delle donne.

George Orwell, in 1984, usava il termine doublethink (bipensiero o bispensiero nella traduzione italiana) per descrivere il meccanismo mentale che consente di ritenere vero un concetto e contemporaneamente anche il suo contrario. Sembra quasi che ci sia una tendenza diffusa a interpretare quel libro non come un monito ma come un manuale di istruzioni. Al posto dell’inceneritore delle notizie passate non più gradite al potere c’è il clic sull’icona del cestino, al posto della propaganda centralizzata c’è la disinformazione in mille rivoli lasciata correre o addirittura incoraggiata dai social network, e al posto dei teleschermi che sorvegliano a distanza ogni cittadino oggi ci sono gli smartphone e i dati raccolti su ciascuno di noi dai loro infiniti sensori, ma il concetto è lo stesso e gli effetti sono uguali: cambia solo lo strumento, che oggi è informatico.

Ed è ironico che sia proprio l’informatica a darci una speranza di conservare per tempi migliori quello che oggi si vuole invece seppellire. Forse conviene che ciascuno di noi cominci, nel proprio piccolo, a diventare un pochino hacker.

Fonti aggiuntive

The CDC’s Website Is Being Actively Purged to Comply With Trump DEI Order, 404 Media (2025)

CDC datasets uploaded before January 28th, 2025, Archive.org (2025)

BREAKING NEWS: CDC orders mass retraction and revision of submitted research across all science and medicine journals. Banned terms must be scrubbed, Inside Medicine (2025). Cita il concetto di vorauseilender Gehorsam, o “ubbidienza preventiva”

National Center for Missing & Exploited Children site scrubbed of transgender kids, Advocate.com (2025)

‘Breathtakingly Ignorant and Dangerous’: Trump’s DOT Orders Sweeping Purge of Climate, Gender, Race, Environmental Justice Initiatives, Inside Climate News (2025)

Trump scrubs all mention of DEI, gender, climate change from federal websites, The Register (2025)

Internet Archive played crucial role in tracking shady CDC data removals, Ars Technica (2025)

Researchers rush to preserve federal health databases before they disappear from government websites, The Journalist’s Resource (2025)

US Information Erasure Hurts Everyone, Human Rights Watch (2025)

Hot Topics in IPC: Avian Flu and Results From Trump’s Executive Orders, Infection Control Today (2025)