Vai al contenuto

Intelligenza artificiale

Podcast RSI – Intelligenze artificiali imposte a forza in WhatsApp, Word, Google: come resistere e perché

Questo è il testo della puntata del 28 aprile 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: voce di Schmidt che dice “[…] people are planning 10 gigawatt data centers […], an average nuclear power plant in the United States is one gigawatt. How many nuclear power plants can we make in one year while we’re planning this 10 gigawatt data center? […] data centers will require an additional 29 gigawatts of power by 2027 and 67 more gigawatts by 2030”] [Trascrizione integrale su Techpolicy.press; video su YouTube; spezzone dell’intervento su Instagram]

Questa è la voce di Eric Schmidt, ex amministratore delegato di Google, durante un’audizione davanti a una commissione per l’energia della Camera dei rappresentanti degli Stati Uniti, il 9 aprile scorso. Schmidt spiega che sono in corso di progettazione dei data center, vale a dire dei centri di calcolo per supportare l’intelligenza artificiale, che consumeranno 10 gigawatt ciascuno, ossia l’equivalente di dieci centrali nucleari. Il fabbisogno energetico stimato della IA, continua Schmidt, è di 29 gigawatt entro il 2027 e di altri 67 entro il 2030.

La sua domanda su quante centrali nucleari si possano costruire ogni anno per placare questa fame di energia è ovviamente abbastanza retorica, ma il suo intervento solleva una questione molto concreta. Quanta energia che servirebbe altrove stiamo bruciando per l’intelligenza artificiale? E di preciso, cosa stiamo ottenendo in cambio concretamente? Siamo sicuri che ne valga veramente la pena? Perché accanto a risultati interessanti e positivi in alcune nicchie, continuano ad accumularsi gli esempi di stupidità asinina di questa tecnologia e di figuracce da parte delle aziende che la adottano con eccessiva euforia.

Eppure i grandi nomi del settore informatico insistono a includere a forza la IA in tutti i loro prodotti, da Google a WhatsApp a Word, anche se gli utenti non l’hanno chiesta e in alcuni casi proprio non la vogliono, come è appena avvenuto appunto per WhatsApp.

Questa è la storia di alcuni di questi esempi e delle tecniche concrete che si possono adottare per resistere a un’avanzata tecnologica che per alcuni esperti è un’imposizione invadente e insostenibile.

Benvenuti alla puntata del 28 aprile 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Nella puntata del 24 marzo scorso ho già raccontato alcune delle stupidaggini enunciate con elettronica certezza dalle intelligenze artificiali sulle quali si stanno investendo montagne di miliardi. Ho citato per esempio il fatto che secondo la IA di Google, la trippa è kosher o meno a seconda della religione della mucca dalla quale proviene. Ora gli utenti hanno scoperto un’altra bizzarria fuorviante e ingannevole di questo software: se si chiede a Google il significato di un’espressione o di un modo di dire in inglese, il motore di ricerca spesso risponde mettendo in primo piano una spiegazione completamente falsa, inventata dall’intelligenza artificiale, e solo dopo elenca i normali risultati di ricerca.

Ma l’utente medio non ha modo di sapere che la spiegazione è totalmente sbagliata. Si rivolge appunto a Google perché non conosce quel modo di dire e non è un linguista esperto, e quindi tende a fidarsi di quello che Google gli dice. Anche perché glielo dice con enfatica autorevolezza, con tanto di link a fonti, che esistono ma in realtà dicono tutt’altro.

E così secondo Google esisterebbe per esempio in inglese il modo di dire “l’oritteropo abbassa lo sguardo sempre per primo”, che stando alla IA significherebbe che una persona di un certo tipo tende ad arrendersi facilmente se viene sfidata. Sempre Google afferma che in inglese si dice “non puoi leccare due volte un tasso” per indicare che non si può ingannare due volte la stessa persona, e si dice “c’è sempre una mangusta in ogni aula di tribunale” per riferirsi a una strategia legale adottata da alcuni avvocati [Bluesky]. È tutto falso; è tutta un’allucinazione generata dal modo in cui funziona l’intelligenza artificiale.

Un altro modo di dire inglese che non esiste se non nell’energivora fantasia di silicio della IA di Google è “quando l’ape ronza, le fragole cadono”. So che non esiste perché l’ho inventato io pochi minuti fa per questo podcast. Ma se chiedo lumi all’intelligenza artificiale di Google questa frase è un saying, ossia un modo di dire esistente e usato, e rappresenterebbe “l’importanza delle api nell’impollinazione e nella successiva maturazione dei frutti come appunto le fragole”. Lasciamo stare il fatto che la fragola non è un frutto nel senso botanico del termine (se volete sapere perché, la spiegazione è su Wikipedia): quello che conta è che l’utente si rivolge a Google per avere informazioni e invece ne ottiene sistematicamente una bugia che rischia di non saper riconoscere come tale.

Ma quello che conta ancora di più è che quell’utente ora si ritrova in cima ai risultati di ricerca una risposta generata dalla IA, che la voglia o no. E quindi ogni ricerca fatta su Google consuma molta più energia di prima.

È difficile dire quanta, perché ci sono tantissime variabili da considerare, ma il CEO di OpenAI, Sam Altman, ha scritto semiseriamente su X che già solo dire “per favore” e “grazie” a ChatGPT costa alla sua azienda decine di milioni di dollari in energia elettrica per elaborare le risposte a questi gesti di cortesia. Secondo una ricerca del Washington Post, far generare a una IA una cinquantina di mail lunghe 100 parole ciascuna consuma circa 7,5 kWh: quanto basta per fare grosso modo quaranta chilometri in auto elettrica.

L’unico modo pratico per evitare di contribuire a questo spreco di energia indesiderato e spesso inutile è usare un motore di ricerca alternativo privo di intelligenza artificiale o nel quale sia possibile disattivare le funzioni basate su IA, come per esempio DuckDuckGo [istruzioni; link diretto alle impostazioni].

In questo caso, insomma, l’intelligenza artificiale fornisce un disservizio, inganna gli utenti e spreca energia. Ma può anche fare molto di più: per esempio può danneggiare l’azienda che la usa. E se l’azienda in questione è una di quelle legate a doppio filo all’intelligenza artificiale, l’ironia della situazione diventa particolarmente vistosa.


Cursor.com è una delle principali aziende che sta cavalcando la popolarità dell’intelligenza artificiale come assistente per la scrittura rapida di software. Una decina di giorni fa, uno dei clienti di Cursor.com, uno sviluppatore di software, ha notato che non era più possibile collegarsi al sito dell’azienda da più di un dispositivo, cosa che invece prima si poteva fare. Gli sviluppatori lo fanno spessissimo per necessità di lavoro.

Il cliente ha contattato l’assistenza clienti di Cursor.com, e un assistente che si faceva chiamare Sam gli ha risposto via mail che questa situazione era normale e prevista, perché era dettata da una nuova regola legata a esigenze di sicurezza e ora serviva un abbonamento distinto per ciascun dispositivo. Ma la regola non esisteva: se l’era inventata Sam, che come avrete sospettato è un’intelligenza artificiale. Una IA che fra l’altro non dichiarava di essere una macchina e si spacciava per una persona.

Il cliente ha segnalato inizialmente la novità apparente su Reddit, e così molti altri utenti sviluppatori di Cursor.com, indignati per la grave riduzione dell’usabilità del software comportata da questa regola, hanno disdetto i loro abbonamenti, annunciando pubblicamente la loro decisione e spargendo la voce.

Ci sono volute tre ore prima che qualcuno di Cursor.com, una persona in carne e ossa, intervenisse e spiegasse che la nuova regola non esisteva e che si trattava di “una risposta inesatta data da un bot di supporto pilotato dalla IA”. Uno dei cofondatori dell’azienda ha chiesto pubblicamente scusa e il cliente che aveva segnalato inizialmente la situazione è stato rimborsato. Ma resta il fatto che Cursor.com non aveva avvisato gli utenti che l’assistenza clienti di primo livello era fatta da un’intelligenza artificiale e anzi dava alla sua IA un nome di persona. Anche qui, l’intelligenza artificiale veniva imposta agli utenti senza ma e senza se.

È particolarmente ironico che un’azienda che vive di intelligenza artificiale e che fa soldi vendendo strumenti di miglioramento della produttività basati su IA sia stata tradita dal proprio eccesso di fiducia in questa tecnologia, che ha fatto ribellare i suoi utenti chiave, esperti di informatica. E la lezione di fondo, per qualunque azienda, è che esporre verso i clienti un chatbot che genera risposte usando l’intelligenza artificiale comporta un rischio reputazionale altissimo; prima o poi quella IA avrà una cosiddetta allucinazione e produrrà una risposta falsa e dannosa [Ars Technica].

E i campioni in fatto di esposizione al pubblico di intelligenze artificiali sono i motori di ricerca come Google e i servizi conversazionali di IA come ChatGPT, Claude o Perplexity. O perlomeno lo sono stati fino a pochi giorni fa, quando sono stati spodestati dall’introduzione di un servizio di intelligenza artificiale in WhatsApp e altre applicazioni. Nelle prossime settimane, circa due miliardi e mezzo di persone in tutto il mondo si troveranno imposto a forza il servizio di IA di Meta.


Se avete notato un cerchio blu nel vostro WhatsApp, in Facebook Messenger o in Instagram, avete già ricevuto l’intelligenza artificiale di Meta: un chatbot che risponde alle vostre domande usando la IA gestita dall’azienda di Mark Zuckerberg. Come tutte le intelligenze artificiali, genera risposte che possono essere completamente sbagliate ma superficialmente plausibili, e questo Meta lo dice nel lungo messaggio di avviso che compare la prima volta che si avvia Meta AI (si chiama così).

Il problema è che questa intelligenza artificiale di Meta non è disattivabile o rimovibile: è imposta. Certo, Meta dichiara che Meta AI non può leggere le vostre conversazioni, quindi basterebbe ignorarla e far finta che non ci sia. Ma la tentazione è forte, e miliardi di persone che non hanno mai interagito con una IA e non ne conoscono pregi e limiti proveranno a usarla, senza leggere le avvertenze in molti casi, e crederanno che sia attendibile.

Quelle avvertenze, fra l’altro, sconsigliano di “condividere informazioni, anche sensibili, su di te o altre persone che non vuoi che l’IA conservi e utilizzi”, e dicono che “Meta condivide le informazioni con partner selezionati”. E in una mail separata, che moltissimi non leggeranno, Meta avvisa che userà le informazioni pubbliche degli utenti, “come commenti e post dagli account di persone di almeno 18 anni sulla base degli interessi legittimi.”

In altre parole, qualunque conversazione fatta con questa IA, qualunque domanda di natura medica, qualunque richiesta di informazioni su qualunque persona, argomento, prodotto o servizio verrà digerita dalla IA di Meta e venduta ai pubblicitari. Cosa mai potrebbe andare storto? [BBC]

È vero che Meta specifica, sempre nella mail separata, che ogni utente ha il diritto di opporsi all’uso delle sue informazioni. Ma quanti sapranno di questo diritto? E di questi, quanti lo eserciteranno? E soprattutto, ancora una volta, all’utente viene imposto un servizio di intelligenza artificiale potenzialmente ficcanaso e spetta a lui o lei darsi da fare per non esserne fagocitato.

Lo stesso tipo di adozione forzata si vede in Word e Powerpoint e in generale nei prodotti Microsoft: tutti integrano Copilot, la IA dell’azienda, e gli utenti devono arrabattarsi, spesso con modifiche molto delicate e poco ortodosse di Windows, se non vogliono avere tra i piedi l’onnipresente icona di Copilot. Bisogna per esempio modificare delle voci nel Registro oppure adottare una versione particolare di Windows 10 garantita fino al 2032 [The Register].

La domanda di fondo, dopo questa carrellata di esempi, è molto semplice: se l’intelligenza artificiale generalista è davvero un’invenzione così efficace e utile agli utenti come viene detto dai suoi promotori, perché le aziende sentono il bisogno di imporcela invece di lasciare che siamo noi a scegliere di adottarla perché abbiamo visto che funziona?

Ho provato a fare questa domanda a ChatGPT, e la sua risposta è stata particolarmente azzeccata e rivelatrice: “L’adozione forzata dell’IA” dice ChatGPT “non nasce tanto dal fatto che non funziona, ma piuttosto da dinamiche di potere, controllo del mercato, gestione dell’innovazione e tentativi di plasmare le abitudini degli utenti. Ma la vera prova di efficacia dell’IA sarà quando gli utenti vorranno usarla non perché devono, ma perché vogliono.”

So che in realtà sta semplicemente usando le parole chiave della mia domanda per rispondermi in modo appagante. Ma lo sta facendo dannatamente bene. Resistere alle sue lusinghe di instancabile yesman sarà davvero difficile. Prepariamoci.

Podcast RSI – Attacco su misura per chi crea software con l’IA: “slopsquatting”

Questo è il testo della puntata del 14 aprile 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.

La prossima puntata verrà pubblicata il 28 aprile (lunedì 21 non ci sarà un nuovo podcast).


Va di moda, nel mondo informatico, appoggiarsi alle intelligenze artificiali per creare programmi risparmiando tempo, denaro e risorse umane e mentali. Ma questo nuovo metodo di lavoro porta con sé nuove vulnerabilità, che spalancano le porte ai criminali informatici più sofisticati in maniere inaspettate e poco intuitive ma devastanti.

Per infettare uno smartphone, un tablet o un computer non serve più convincere la vittima a installare un’app di provenienza non controllata, perché il virus può essere già presente nell’app originale. Ce lo ha messo, senza rendersene conto, l’autore dell’app; o meglio, ce lo ha messo l’intelligenza artificiale usata da quell’autore.

Questa è la storia di una di queste nuove vulnerabilità consentite dall’intelligenza artificiale: il cosiddetto slopsquatting, da conoscere anche se non si è sviluppatori o programmatori, per evitare che l’entusiasmo per la IA permetta ai malviventi online di insinuarsi nei processi aziendali eludendo le difese tradizionali.

Benvenuti alla puntata del 14 aprile 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


La sicurezza informatica è una gara fra guardie e ladri, dove quasi sempre i ladri agiscono e le guardie reagiscono. I criminali inventano una tecnica di attacco e gli esperti di sicurezza la studiano per trovare il modo di neutralizzarla. Ma non è sempre così. In questa puntata vi racconto un caso in cui le guardie giocano d’anticipo, in maniera creativa e originale, immaginando un tipo di attacco nuovo e fornendo gli strumenti per bloccarlo ancora prima che i criminali riescano a metterlo in atto.

Chi crea programmi si affida oggi sempre più spesso all’intelligenza artificiale come assistente per la scrittura delle parti più tediose e ripetitive. C’è anche chi si affida totalmente alle IA e genera programmi senza saper programmare, nel cosiddetto vibe coding di cui ho parlato nella puntata del 31 marzo scorso. Copilot, ChatGPT e Cursor sono solo alcuni esempi di questi assistenti.

Ma anche senza arrivare a delegare tutto alle intelligenze artificiali, questo comportamento crea una nuova opportunità di attacco informatico con una tecnica originale e inaspettata, difficile da immaginare per una persona non addetta ai lavori. Questa tecnica si chiama slopsquatting: un nome coniato dall’esperto di sicurezza Seth Larson.

Il termine unisce due parole inglesi già molto usate in informatica: la prima è slop, che significa “sbobba, brodaglia” e viene usata in senso dispregiativo per indicare il prodotto mediocre, scadente e pieno di errori di molte intelligenze artificiali in vari settori. Una foto sintetica in cui il soggetto ha sei dita, per esempio, o ha una pelle che sembra fatta di plastica, è un tipico caso di slop. La maggior parte della gente non si accorgerà dell’errore o della scarsa qualità e accetterà la sbobba; anzi, a furia di mangiare solo quella si abituerà e la considererà normale.

Nella programmazione assistita dall’intelligenza artificiale, lo slop è un pezzo di codice generato che funziona, sì, ma è inefficiente o vulnerabile oppure non è in grado di gestire alcune situazioni particolari.

La seconda parola che definisce questa nuova forma di attacco è squatting: non c’entra la ginnastica, perché in informatica lo squatting è la pratica consolidata da tempo di occupare una risorsa, per esempio un nome di un sito, al solo scopo di infastidire, truffare o estorcere denaro. Chi compra nomi di dominio o di profili social che corrispondono a nomi di aziende o di celebrità per impedire che lo facciano i legittimi titolari di quei nomi, o allo scopo di chiedere soldi per cederglieli senza attendere le vie legali, fa squatting. I criminali che registrano nomi di siti simili a quelli ufficiali, contando sul fatto che molta gente sbaglia a digitare e sbaglia in modo prevedibile, finendo sui siti dei criminali e immettendovi le proprie password perché crede di essere nel sito ufficiale, fa typosquatting, perché l’errore di battitura in inglese è chiamato typo.

Lo slopsquatting, questa nuova tecnica di attacco al centro di questa storia, è un misto di questi due concetti. In pratica, il criminale crea e pubblica online una risorsa di programmazione malevola, un cosiddetto package o pacchetto, che ha un nome molto simile a quello di una risorsa attendibile e poi aspetta che l’intelligenza artificiale che crea codice di programmazione sbagli e usi per errore quella risorsa malevola al posto di quella genuina.

Chi crea software, infatti, raramente scrive tutto il codice da zero: di solito attinge a funzioni preconfezionate da altri e ampiamente collaudate, che appunto prendono il nome di pacchetti e sono pubblicate online in siti appositi. Ma se l’intelligenza artificiale sbaglia e attinge invece a un pacchetto pubblicato dai criminali con un nome ingannevole, senza che nessuno se ne accorga, il codice ostile dei malviventi verrà integrato direttamente nell’app ufficiale.

Schema dell’attacco, tratto da We Have a Package for You!, Arxiv.org.

In altre parole, il cavallo di Troia informatico, ossia l’app malevola, non arriva dall’esterno, cosa che genera ovvie e facili diffidenze, ma viene costruito direttamente dal creatore originale dell’app senza che se ne renda conto. E a nessuno viene in mente di pensare che l’app ufficiale possa essere infetta e possa essa stessa aprire le porte ai ladri: è quindi un canale di attacco subdolo e letale.


Ma come fa un’intelligenza artificiale a commettere un errore del genere? È semplice: le intelligenze artificiali attuali soffrono di quelle che vengono chiamate in gergo allucinazioni. Per loro natura, a volte, producono risultati sbagliati ma a prima vista simili a quelli corretti. Nel caso delle immagini generate, un’allucinazione può essere una mano con sei dita; nel caso del testo generato da una IA, un’allucinazione può essere una parola che ha un aspetto plausibile ma in realtà non esiste nel vocabolario; e nel caso del codice di programmazione, un’allucinazione può essere una riga di codice che richiama un pacchetto di codice usando un nome sbagliato ma simile a quello giusto.

A prima vista sembra logico pensare che i criminali che volessero approfittare di questo errore dovrebbero essere incredibilmente fortunati, perché dovrebbero aver creato e pubblicato un pacchetto che ha esattamente quello specifico nome sbagliato generato dall’allucinazione dell’intelligenza artificiale. Ma un articolo tecnico pubblicato un mese fa, a marzo 2025 [We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs, disponibile su Arxiv.org], da un gruppo di ricercatori di tre università statunitensi rivela che gli sbagli delle IA tendono a seguire degli schemi sistematici e ripetibili e quindi non è difficile prevedere quali nomi verranno generati dalle loro allucinazioni.

Secondo questi ricercatori, “questa ripetibilità […] rende più facile identificare i bersagli sfruttabili per lo slopsquatting osservando soltanto un numero modesto di generazioni. […] Gli aggressori non hanno bisogno di […] scovare per forza bruta i nomi potenziali: possono semplicemente osservare il comportamento [delle IA], identificare i nomi comunemente generati dalle loro allucinazioni, e registrarseli.”

Un altro problema documentato dai ricercatori è che i nomi generati per errore sono “semanticamente convincenti”: il 38% ha, in altre parole, nomi somiglianti a quelli di pacchetti autentici. E comunque in generale hanno un aspetto credibile. Questo rende difficile che gli sviluppatori possano accorgersi a occhio di un errore.

C’è poi un terzo aspetto di questo problema di sicurezza: se uno specifico errore in un nome di pacchetto generato si diffonde e diventa popolare, perché per esempio viene consigliato spesso dalle intelligenze artificiali e nei tutorial pubblicati senza verifiche, e a quel punto un aggressore registra quel nome, le intelligenze artificiali finiranno per suggerire inconsapevolmente di attingere proprio al pacchetto malevolo, e per i criminali diventerà molto facile sfruttare massicciamente questa tecnica.

Se poi chi crea il software non sa programmare ma si affida totalmente alla IA, tenderà a fidarsi ciecamente di quello che l’intelligenza artificiale gli suggerisce. Come spiegano i ricercatori, “Se la IA include un pacchetto il cui nome è generato da un’allucinazione e sembra plausibile, il percorso di minima resistenza spesso è installarlo e non pensarci più”. E se nessuno controlla e nessuno ci pensa più, se nessuno si chiede A cosa serve esattamente questo pacchetto richiamato qui?”, o se la domanda viene posta ma la risposta è “Boh, non lo so, ma il programma funziona, lascialo così”, il software ostile creato dai criminali diventerà parte integrante del software usato in azienda.

Di fronte a un attacco del genere, le difese tradizionali dell’informatica vacillano facilmente. È l’equivalente, nel mondo digitale, di sconfiggere un esercito non con un attacco frontale ma intrufolandosi tra i suoi fornitori e dando ai soldati munizioni sottilmente difettose.

Per fortuna gli addetti ai lavori in questo caso hanno anche qualche idea su come proteggersi da questa nuova tecnica.


I ricercatori che hanno documentato questo comportamento pericoloso dei generatori di codice hanno inoltre scoperto che ci sono alcune intelligenze artificiali, in particolare GPT-4 Turbo e DeepSeek, che sono in grado di riconoscere i nomi dei pacchetti sbagliati che essi stessi hanno generato, e lo fanno con un’accuratezza superiore al 75%. Conviene quindi prima di tutto far rivedere alle intelligenze artificiali il codice che hanno prodotto, e già questo è un passo avanti fattibile subito.

Inoltre le aziende del settore della sicurezza informatica hanno già preparato degli strumenti appositi, che si installano nell’ambiente di sviluppo e nel browser e sono in grado di rilevare i pacchetti ostili ancora prima che vengano integrati nel programma che si sta sviluppando. Una volta tanto, le guardie sono in anticipo sui ladri, che finora non sembrano aver sfruttato questa tecnica.

Come capita spesso, insomma, le soluzioni ci sono, ma se chi ne ha bisogno non sa nemmeno che esiste il problema, difficilmente cercherà di risolverlo, per cui il primo passo è informare della sua esistenza. E come capita altrettanto spesso, lavorare al risparmio, eliminando gli sviluppatori umani competenti e qualificati per affidarsi alle intelligenze artificiali perché costano meno e fanno fare bella figura nel bilancio annuale dell’azienda, introduce nuovi punti fragili che devono essere protetti e sono difficilmente immaginabili da chi prende queste decisioni strategiche, perché di solito non è un informatico.

Il problema centrale dello slopsquatting non è convincere gli informatici: è convincere i decisori aziendali. Ma questa è una sfida umana, non tecnica, e quindi il Disinformatico si deve fermare qui. Speriamo in bene.

Fonti

Risky Bulletin: AI slopsquatting… it’s coming!, Risky.biz, 2025

The Rise of Slopsquatting: How AI Hallucinations Are Fueling a New Class of Supply Chain Attacks, Socket.dev, 2025

Podcast RSI – “Vibe coding”: creare programmi senza saper programmare

Questo è il testo della puntata del 31 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[AUDIO: picchiettio su una tastiera]

Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell’informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno. Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un’arte praticata da pochi e ammirata a rispettosa distanza dai più.

Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.

Sono due parole che sono state abbinate per la prima volta solo due mesi fa e stanno già trasformando profondamente il modo in cui si crea il software. Non lo si scrive più tediosamente riga per riga, istruzione per istruzione, ma lo si descrive, in linguaggio naturale, semplicemente parlando. Le macchine fanno il resto. O almeno così sembra.

Questa è la storia, breve ma intensa, del vibe coding, di cosa significa esattamente, di chi ha coniato questo termine, e del perché tutti i grandi nomi dell’informatica stanno correndo per reinventarsi, per l’ennesima volta, inseguendo questo mantra.

Benvenuti alla puntata del 31 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia inizia esattamente il 3 febbraio scorso, quando in Europa è passata da poco la mezzanotte. Andrej Karpathy, ex direttore per l’intelligenza artificiale di Tesla, cofondatore di OpenAI (quella di ChatGPT, per intenderci) e una delle menti più influenti nel settore, pubblica su X un post nel quale descrive un nuovo modo di scrivere codice di programmazione usando toni quasi poetici, perlomeno per un informatico: lui si “abbandona alle vibrazioni” e “dimentica persino che esiste il codice”. Karpathy crea programmi parlando ad alta voce, “praticamente senza mai toccare la tastiera”, dice, lasciando che il riconoscimento vocale e l’intelligenza artificiale traducano le sue istruzioni verbali in righe di codice di programmazione.

Screenshot del post di Karpathy.

Karpathy descrive il concetto generale, il cosiddetto vibe, la “vibrazione” appunto, di quello che vuole ottenere,e lascia che sia il computer a fare il lavoro di manovalanza: quello di trasformare quel concetto in software, ossia di fare il coding, la scrittura del codice secondo le regole del linguaggio di programmazione desiderato.

Senza volerlo, Andrej Karpathy ha coniato un termine, vibe coding, che di colpo ha dato un nome facile e accattivante a una tendenza già in atto nel mondo della programmazione da quando è diventato evidente che le intelligenze artificiali sono in grado di generare codice di programmazione con la stessa facilità con la quale generano testi, suoni e immagini.

E così milioni di tastiere crepitanti sono cadute, quasi all’unisono nel silenzio, abbracciando il vibe coding. Le aziende cercano disperatamente i vibe coder, ossia le persone capaci di generare in poche ore fiumi di codice che prima avrebbero richiesto giorni o settimane. I programmatori tradizionali si sentono improvvisamente come un calamaio di fronte a una biro.

Questo modo di scrivere software, di creare gli elementi fondamentali che determinano il funzionamento di tutti i dispositivi elettronici che usiamo, dai televisori alle automobili, dalle macchine per radiografie ai sistemi di gestione della contabilità, della sanità e del fisco, è un cambiamento enorme.

La maniera tradizionale di sviluppare codice richiede la conoscenza dettagliata dei linguaggi di programmazione e della loro pignola, implacabile sintassi. Una lettera fuori posto, una parentesi di troppo o una di meno, un parametro indicato nell’ordine sbagliato, e non funziona più niente. Ma l’intelligenza artificiale sta cambiando questo approccio, introducendo degli assistenti alla creazione di codice che sono in grado di interpretare la descrizione di un problema, espressa in parole comuni (anche in italiano), e generare del codice che funziona.

Non c’è più bisogno di studiare e ricordare tutti i vari linguaggi informatici: basta esprimersi in modo naturale in una sola lingua, quella che si usa tutti i giorni. Programmare non è più un’arte oscura riservata a una élite, ma arriva alla portata di tutti.

Le persone che hanno idee creative ma non hanno esperienza di programmazione possono ora creare dei prototipi descrivendo a un’intelligenza artificiale cosa hanno in mente. Come dice sempre Andrej Karpathy nel suo ormai storico post, “non sto scrivendo codice – semplicemente vedo cose, dico cose, eseguo cose, e copio e incollo cose, e grosso modo funziona”.

Chi ha esperienza di sviluppo e programmazione, invece, può usare questi strumenti per automatizzare le parti ripetitive della creazione di un programma e diventare più veloce. Le porzioni standard di un software, cose come per esempio una finestra di immissione di dati o di conferma di un codice di accesso, vengono generate dall’intelligenza artificiale, mentre lo sviluppatore si concentra sulla progettazione generale ad alto livello, riducendo drasticamente i tempi di lavoro.

Ma in pratica come funziona tutto questo?


Il vibe coding è un duetto: le persone forniscono istruzioni, descrizioni e obiettivi usando il proprio linguaggio naturale, e gli strumenti di intelligenza artificiale, che sono stati addestrati alimentandoli con enormi quantità di codice e di informazioni di programmazione, traducono tutto questo in una prima bozza di codice.

Le istruzioni fornite sono estremamente semplici e intuitive: cose come “crea un sito che gestisca le prenotazioni, dove i clienti possono vedere quando io sono disponibile e pianificare gli appuntamenti. Il sito deve mandare e-mail di conferma e di promemoria”. Tutto qui. A tutto il resto provvede l’intelligenza artificiale.

È un modo di lavorare iterativo e interattivo, che avanza per affinamenti progressivi: la persona prova la prima bozza e poi chiede alla IA di modificare il codice, descrivendo sempre in linguaggio naturale cosa deve cambiare: per esempio come deve comportarsi il programma se l’utente immette un valore non ammesso e cosa va visualizzato sullo schermo. La persona prova questa seconda bozza e la affina ancora descrivendo le modifiche da fare, e la IA le fa. Il ciclo continua così fino a che il software funziona e il creatore è soddisfatto del risultato. Dato che l’intelligenza artificiale scrive il codice molto più velocemente di qualunque essere umano, è facile effettuare varie passate di affinamento in pochissimo tempo.

L’intelligenza artificiale è anche in grado di correggere eventuali difetti nel codice che ha generato. Quando un software non funziona correttamente, produce un messaggio di errore. Nel vibe coding, il creatore di programmi (che è difficile definire programmatore a questo punto) non analizza l’errore come farebbe tradizionalmente: copia e incolla il messaggio di errore nella chat che sta facendo con l’intelligenza artificiale e lascia che sia questa IA a leggerlo e a trovare e applicare la soluzione opportuna. Anche perché nel vibe coding la persona che sta creando il programma spesso non conosce il linguaggio di programmazione usato e quindi non è in grado di capirne gli errori e correggerli.

Le intelligenze artificiali da adoperare per fare queste cose possono essere specialistiche, come GitHub Copilot, Windsurf AI, Replit e Cursor, oppure intelligenze artificiali generaliste come ChatGPT e Claude, per esempio, che sono in grado di generare anche codice di programmazione.

Ovviamente alle aziende tutto questo fa molta gola, perché promette di ridurre tempi e costi. Con il vibe coding, argomentano, non servono squadre di costosi e supercompetenti programmatori, ma è sufficiente pagare una sola persona con qualifiche più modeste e con pretese economiche altrettanto modeste.

Dario Amodei, fondatore e CEO di Anthropic, l’azienda che ha sviluppato Claude, dice che “non siamo lontani – ci arriveremo fra tre o sei mesi – da un mondo nel quale l’intelligenza artificiale scrive il 90% del codice. Fra dodici mesi potremmo trovarci in un mondo nel quale la IA scrive praticamente tutto il codice.”

[CLIP di Amodei, tratta da Reddit]

I sostenitori di questo nuovo modo di programmare citano come esempio di successo del vibe coding il fatto che il giornalista del New York Times Kevin Roose, che non è un esperto di programmazione, è riuscito a creare numerose applicazioni usando questa tecnica e lo ha raccontato in un seguitissimo articolo.

Un altro esempio molto popolare è il sito fly.pieter.com, che contiene un gioco online (un simulatore di volo molto schematico) che stando al suo creatore, Pieter Levels, guadagna oltre 50.000 dollari al mese vendendo spazi pubblicitari all’interno del mondo virtuale nel quale si svolge l’azione. L’intero gioco è stato realizzato da Levels, da solo e usando l’intelligenza artificiale come assistente, in mezz’ora. Un risultato inimmaginabile con i metodi tradizionali.

Su Internet fioriscono siti che tentano di imitare il successo di Pieter Levels creando in poco tempo videogiochi giocabili anche se poco raffinati, nella speranza di guadagnare qualche soldo. Ma Levels è stato il primo e ha un seguito molto grande sui social network che può proporre ai suoi inserzionisti, mentre chi arriva dopo e lo imita non ha nulla di tutto questo, per cui ha ben poche probabilità di monetizzare la sua pur modesta fatica.

In ogni caso il vibe coding sembra funzionare. Ma prima di buttar via i manuali di programmazione e pensare che basti saper parlare per poter creare programmi, ci sono alcune cose da sapere. Come al solito, quello che sembra troppo bello per essere vero finisce prima o poi per dimostrare di non essere vero.


Il primo problema di questa nuova mania della Silicon Valley è la sua filosofia di base: il creatore del codice non solo non ha bisogno di capirlo, ma anzi capirlo è proprio contrario all’essenza del vibe coding: in realtà non deve essere un creatore ma un utente del codice, e deve accettare quel codice generato dalla IA senza capirlo appieno, altrimenti sta facendo solo programmazione assistita. E questo requisito di non comprendere il codice significa che se il programma non funziona e l’intelligenza artificiale non riesce a sistemarlo, l’aspirante creatore è incapace di intervenire.

Il secondo problema deriva dal primo: anche se il programma creato con il vibe coding sembra funzionare nella maggior parte dei casi, può contenere errori o difetti nei suoi princìpi di funzionamento che emergono solo in casi specifici. Può contenere falle di sicurezza, e modificarlo per manutenzione o aggiornamento è rischioso. Senza una costosa analisi esperta di come funziona, è impossibile sapere come intervenire, e far fare l’intervento all’intelligenza artificiale significa rischiare di introdurre ulteriori errori e incognite, perché la IA non “capisce” in senso stretto cosa sta facendo ma si limita a generare codice statisticamente probabile nel contesto.

Questo è un approccio che può andar bene per creare da zero un prototipo di software, a scopo dimostrativo, qualcosa di semplice per uso personale. Ma gran parte del lavoro degli ingegneri informatici non è di questo genere. Di solito si tratta di interventi su software complesso e preesistente, nel quale la comprensione e la qualità del codice sono fondamentali. Per intervenire su un software di contabilità, per esempio, bisogna capirne non solo il linguaggio informatico, ma anche i princìpi contabili sui quali si basa. E questo l’intelligenza artificiale attuale non lo fa.

Per fare un paragone, il vibe coding applicato a un software già esistente è l’equivalente di un idraulico che invece di studiarsi e capire lo schema dell’impianto sul quale deve intervenire sa che nella maggior parte dei casi che ha visto nella sua carriera le cose miglioravano chiudendo a metà le valvole sui tubi di mandata dispari. Non sa perché, ma di solito funziona. Affidereste il vostro impianto idraulico di casa, o quello di un’intera azienda o di un intero paese, a qualcuno che lavorasse in questo modo?

Probabilmente no. Eppure è esattamente quello che vuole fare Elon Musk, nel suo nuovo ruolo politico, con uno dei software più complessi e ingarbugliati del pianeta: quello che gestisce la previdenza sociale delle persone residenti negli Stati Uniti. Questo software è composto da oltre 60 milioni di righe di codice scritto in COBOL, che è un linguaggio di programmazione creato settant’anni fa, e da milioni di ulteriori righe scritte in altri linguaggi ormai arcaici. L’ultimo aggiornamento importante dei suoi componenti centrali risale agli anni Ottanta del secolo scorso.

Questo è il software che gestisce, fra le altre cose, i pagamenti di previdenza sociale erogati a oltre 65 milioni di persone. Metterci mano senza un’analisi preliminare molto attenta, senza una profonda comprensione del codice che permetta di capire gli effetti a catena di qualunque modifica, significa rischiare di interrompere i pagamenti a milioni di persone che dipendono dalla propria pensione per vivere. Nel 2017 l’agenzia per la previdenza sociale statunitense, che è responsabile di tutto questo sistema, aveva stimato che un ammodernamento dei suoi componenti centrali avrebbe richiesto circa cinque anni. Elon Musk ha dichiarato che vuole farlo nel giro di pochi mesi. Ma l’unico modo per farlo in tempi così stretti è usare l’intelligenza artificiale e rinunciare alle analisi e ai collaudi che normalmente si fanno in situazioni come questa. Cosa mai potrebbe andare storto?

Morale della storia: il vibe coding è un’idea interessante, applicabile in alcuni casi quando le conseguenze di un errore di programmazione non sono gravi e si vuole creare un prototipo che “grosso modo funzioni”, per citare le parole di Andrej Karpathy, ma non può per ora sostituire la competenza di un essere umano che conosce i linguaggi di programmazione e comprende la logica che sta dietro qualunque programma. Non è ancora giunto il momento di buttare via i libri e i manuali, insomma.

Pochi giorni fa ho chiesto a uno sviluppatore che ho incontrato cosa ne pensasse di questa moda del vibe coding, e lui mi ha detto che ne è entusiasta. Non perché lo usi, ma perché sa che avrà più lavoro di prima: quello necessario per correggere i disastri combinati da chi lo usa pensando che ignoranza più IA equivalga a conoscenza, competenza e intelligenza.

Fonti aggiuntive

DOGE Plans to Rewrite Entire Social Security Codebase in Just ‘a Few Months’: Report, Gizmodo, 2025

This Game Created by AI ‘Vibe Coding’ Makes $50,000 a Month. Yours Probably Won’t, 404Media, 2025

Vibe Coding with Cursor, Dolthub.com, 2025

What is vibe coding? How creators are building software with no coding knowledge, discussione su Ycombinator, 2025

What is Vibe Coding? How Creators Can Build Software Without Writing Code, Alitu.com, 2025.

Silicon Valley’s next act: bringing ‘vibe coding’ to the world, Business Insider, 2025

How I Vibe-Coded a Micro App in 10 Minutes with ChatGPT, Medium.com, 2025

Vibe Coding, Medium.com, 2025

Podcast RSI – Con l’IA la Teoria dell’Internet Morta si sta avverando

Questo è il testo della puntata del 24 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: “Vedo la gente morta” da Il Sesto Senso (1999)]

Facebook, Instagram, WhatsApp, Messenger stanno introducendo anche in Europa gli assistenti virtuali basati sull’intelligenza artificiale. I risultati di Google oggi vengono generati anche con l’intelligenza artificiale, spesso con effetti involontariamente comici. I siti di commercio usano dei chatbot per rispondere automaticamente ai clienti. Secondo uno studio condotto da Amazon, il 57% dei contenuti visibili online è costituito principalmente da materiale generato dall’intelligenza artificiale. I siti che fabbricano notizie false usano i generatori di testi per sfornare fiumi di disinformazione per conto di governi, movimenti politici e imprenditori che monetizzano le fake news. I social network sono pieni di influencer sintetici che guadagnano postando foto e video sintetici che ricevono commenti e lodi sintetiche da utenti altrettanto sintetici, in un corto circuito di contenuti totalmente artificiali.

Quanto c’è rimasto di reale e autentico in Internet?

Secondo una tesi di complotto nota come “Teoria dell’Internet Morta”, quasi tutto quello che vediamo online sarebbe contenuto generato automaticamente, manipolato da algoritmi nell’ambito di un piano mondiale per manipolare le menti di tutta l’umanità, e le cose starebbero così già dal 2016.

Questa è la storia di una teoria di complotto che è diventata realtà, almeno in parte, al netto dei suoi aspetti più deliranti. L’aumento dei contenuti generati dall’intelligenza artificiale è tangibile e quantificabile e ha conseguenze sociali forti e inaspettate. E all’orizzonte si staglia la minaccia del cosiddetto collasso dei modelli che sembra porre un limite definitivo al miglioramento delle attuali intelligenze artificiali.

Benvenuti alla puntata del 24 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Meta ha appena annunciato che il suo assistente basato sull’intelligenza artificiale, denominato Meta AI, sarà disponibile anche in Europa, Svizzera compresa, a distanza di due anni dal suo debutto negli Stati Uniti. Sarà comunque più limitato nelle prestazioni, per tenere conto della normativa europea che in sostanza vieta di usare i contenuti postati dagli utenti del continente per addestrare le intelligenze artificiali senza il consenso esplicito di quegli utenti [TechCrunch; Meta].

Meta AI sarà disponibile in tutte le principali app di Meta, quindi WhatsApp, Instagram, Messenger e Facebook, e in sei lingue: inglese, francese, spagnolo, portoghese, tedesco e italiano. Sarà fondamentalmente un chatbot integrato nelle app: la sua icona sarà un cerchio azzurro al quale si potranno porre domande senza dover uscire dall’app stessa.

Con l’arrivo di Meta AI, centinaia di milioni di utenti europei delle app di Meta si abitueranno ad avere nei loro gruppi Whatsapp, per esempio, dei membri sintetici da evocare per trovare un ristorante o avere informazioni su qualunque argomento, senza dover più passare da Google o da ChatGPT. A patto di fidarsi delle loro risposte, perché il problema delle cosiddette allucinazioni, ossia risposte che hanno un tono molto convincente ma sono inventate di sana pianta senza alcun nesso con la realtà, è serio e non sembra destinato a sparire presto.

Lo sa bene Google, la cui intelligenza artificiale integrata nei risultati di ricerca sta regalando momenti di ilarità involontaria. Sul social network Bluesky è stata pubblicata una compilation delle idiozie, in alcuni casi pericolose, fornite agli utenti dall’intelligenza artificiale di Google.

Alla domanda “quali attori hanno vinto degli Oscar per un film di Steven Spielberg”, Google ha risposto che lo hanno vinto Tom Hanks per Philadelphia e Holly Hunter per Lezioni di piano, dichiarando con risolutezza che i due film erano stati diretti da Spielberg quando in realtà la regia era rispettivamente di Jonathan Demme e Jane Campion.

Pazienza, direte voi, non muore nessuno se una IA sbaglia ad attribuire la regia di un film. Però lo scopo al quale dovrebbero servire le intelligenze artificiali è fornire informazioni, e fornire informazioni esatte, altrimenti sono solo uno spreco di tempo e di energia elettrica e causano solo confusione e disinformazione.

La questione si fa più seria se ci si fida della IA di Google per la propria salute, perché è capace di consigliare di rimediare al bruciore di stomaco mangiando carta igienica, la cui morbidezza “può lenire un esofago irritato”, dice testualmente. La stessa IA ha consigliato alle persone di mangiare “almeno un sassolino al giorno” e ha proposto di applicare il formaggio alla pizza usando della colla [Snopes].

Restando in campo culinario, se si chiede a Google se si può usare la benzina come combustibile per cuocere degli spaghetti, risponde di no, però aggiunge che si possono preparare degli spaghetti piccanti se si prepara una salsa facendo saltare in padella “aglio, cipolla e benzina” [Mastodon; BBC]. Se si interroga la IA di Google per sapere se la trippa è kosher o no, la risposta generata da miliardi di dollari di investimenti nell’intelligenza artificiale è risultata essere “dipende dalla religione della mucca”.

Se vi state chiedendo come possa emergere una risposta così demenziale, la spiegazione è che le cosiddette intelligenze artificiali non hanno cognizione della realtà e men che meno hanno il senso dell’umorismo, ma sono semplicemente dei costosi e complicatissimi sistemi di analisi statistica dei testi, per cui se un sito satirico o parodistico [per esempio questo] scrive un’assurdità come “la trippa è kosher a seconda della religione della mucca” e quella frase è quella che in tutta Internet statisticamente corrisponde meglio alla domanda che è stata posta, quelle intelligenze artificiali rigurgiteranno quella frase come risposta, presentandola come se fosse totalmente seria [BoingBoing; LanguageLog]. Questi errori vengono corretti manualmente [back-end fix] man mano che vengono scoperti, ma è impensabile poterli correggere tutti e comunque si tratta di pezze che non risolvono l’incapacità di base delle intelligenze artificiali attuali.


Anche le interazioni sui social network sono sempre più artificiali. Qualunque post pubblicato su X che parli di criptovalute, per esempio, attira immediatamente un’orda di bot, ossia di account automatici basati sull’intelligenza artificiale, che commentano con una frase a vanvera e linkano il sito del loro proprietario, e poi arrivano altri bot che rispondono ai commenti dei primi, in un fiume interminabile di banalità e spam scritto da macchine e letto da altre macchine, tanto che sta diventando difficile fare qualunque discussione significativa.

Instagram si sta riempiendo di “immagini generate dall’intelligenza artificiale che non hanno nessun valore oltre all’essere fugaci novità e si sta riempiendo di testi generati dalla IA che nessuno desidera leggere”, come ha scritto Dani Di Placido su Forbes, notando anche l’enorme numero di descrizioni di prodotti su Amazon e nei negozi online in generale che sono manifestamente generate da intelligenze artificiali non supervisionate. È l’unica spiegazione plausibile per il fatto che così tanti prodotti hanno descrizioni costituite dalle parole “Mi dispiace ma non posso soddisfare questa richiesta perché è contraria alle regole di utilizzo di OpenAI”.

Fonte: X.
Fonte: X.

Gli esseri umani sembrano essere diventati una minoranza dispersa nel mare di contenuti generati freneticamente dalle intelligenze artificiali. Questo mare è talmente vasto che secondo uno studio pubblicato nel 2024 da un gruppo di ricercatori di Amazon, il 57% dei testi di tutto il web è stato tradotto in tre o più lingue usando sistemi di traduzione automatica. Oggi, insomma, i principali generatori di testi al mondo non siamo più noi: sono le macchine.

Il risultato di questo spodestamento è che le intelligenze artificiali stanno cominciando a influenzare il modo in cui scriviamo anche noi. Alcuni linguisti hanno notato l’improvviso boom di popolarità di certe parole nelle pubblicazioni mediche in inglese quando è arrivato ChatGPT. Per esempio, l’uso della parola delve, ossia “approfondire”, si è più che decuplicato nel giro di quindici mesi dal debutto di ChatGPT, a novembre 2022.

La ragione, secondo questi esperti, è che questa parola è molto più usata della media mondiale nell’inglese parlato in Africa, dove lavora la manodopera a basso costo che fa il controllo della qualità delle risposte generate dalle intelligenze artificiali in fase di collaudo, e quindi ChatGPT ha incamerato questa maggiore frequenza nel proprio modello linguistico. Quando i medici di tutto il mondo hanno cominciato a usare ChatGPT come assistente per scrivere i loro articoli, hanno inconsapevolmente cominciato a usare delve più del normale [The Guardian; Getfreewrite.com; JeremyNguyen]. E così le macchine, silenziosamente, modificano sotto il nostro naso una cosa così fondamentalmente umana come la lingua che parliamo.

Tutti questi esempi sembrano avvalorare la cosiddetta Teoria dell’Internet Morta [Dead Internet Theory], ossia l’idea che la stragrande maggioranza del traffico di Internet, dei post e degli utenti stessi sia costituita da sistemi automatici e intelligenze artificiali e che gli esseri umani siano una presenza marginale nella Rete. Questa teoria è nata in alcuni forum di Internet una quindicina di anni fa ed è diventata famosa nel 2021 grazie a un articolo pubblicato sul popolare sito The Atlantic e firmato da Kaitlyn Tiffany che la descriveva in dettaglio.

La Teoria dell’Internet Morta è una tesi di complotto classica, che ipotizza una colossale cospirazione dei governi del mondo e in particolare di quello statunitense per nasconderci la verità e manipolare le opinioni mostrandoci solo contenuti generati da intelligenze artificiali e affini. La sua falla logica principale è che afferma che Internet sarebbe “morta”, per così dire, soffocata dalla IA, già nel 2016 o 2017, quando ChatGPT e le altre intelligenze artificiali necessarie per questa ipotetica generazione di immense quantità di contenuti sintetici non erano ancora state sviluppate.

È vero che alcuni aspetti di questa teoria somigliano molto a quello che si sta verificando adesso, con l’attuale proliferazione di testi e immagini generate, ma è una somiglianza soltanto superficiale, e soprattutto c’è un fatto tecnico che invalida completamente l’idea del grande complotto. Questo fatto si chiama collasso dei modelli.


Molte persone sono colpite dai progressi molto rapidi dell’intelligenza artificiale in questi ultimi anni e hanno l’impressione che questi progressi siano inarrestabili e che prima o poi, a furia di investire denaro e usare computer sempre più potenti, arriveremo a un’intelligenza artificiale superiore alla nostra, o che perlomeno smetterà di consigliare di usare la colla per applicare il formaggio alla pizza. Ma le cose non stanno così.

Infatti per arrivare ai livelli di prestazione delle attuali intelligenze artificiali in campo linguistico è stato necessario addestrarle dando loro praticamente ogni testo disponibile in forma digitale in tutto il mondo: tutti i siti, tutti i libri, tutti i giornali, tutte le riviste mai scritte, qualunque cosa mai pubblicata sui social network e altro ancora. Eppure non basta. Servono ancora altri testi.

Si potrebbero prendere i testi scritti e pubblicati online dopo la data di addestramento, ma c’è un problema: molti di quei nuovi testi sono stati scritti usando intelligenze artificiali. Ci si troverebbe, insomma, ad addestrare un’intelligenza artificiale dandole testi scritti da altre intelligenze artificiali, e nel 2024 un gruppo di ricercatori delle università di Cambridge e Oxford ha pubblicato su Nature uno studio secondo il quale un’intelligenza artificiale generativa che si addestri esclusivamente su contenuti prodotti da altre intelligenze artificiali dello stesso tipo si degrada molto rapidamente invece di migliorare. Bastano pochi cicli di questo cannibalismo informatico, meno di una decina, per ottenere una IA che produce sistematicamente risposte completamente prive di senso. Questo rapido deterioramento delle intelligenze artificiali basate su grandi modelli linguistici è stato battezzato appunto collasso dei modelli (model collapse) da questi ricercatori.

Il rapido degrado delle IA addestrate usando dati generati da IA. Fonte: Forbes/Nature.

Se l’idea di base della Teoria dell’Internet Morta è valida e quindi i dati prodotti da esseri umani vengono davvero diluiti sempre di più da fiumi di contenuti generati dalle IA, e se le conclusioni di questi ricercatori sono corrette, allora l’intelligenza artificiale come la conosciamo oggi rischia di raggiungere presto una soglia impossibile da superare. Forse è già stata raggiunta e non ce ne siamo ancora accorti, e i progressi spettacolari di questi ultimi anni non potranno proseguire.

Naturalmente è anche possibile che i ricercatori in futuro scoprano nuove tecniche di intelligenza artificiale che permettano di scavalcare o aggirare questa soglia, ma per il momento gli investimenti faraonici che si stanno facendo per l’intelligenza artificiale in tutto il mondo sono fondati sul modo di funzionare della IA attuale, non di quella futuribile. Se verranno scoperte queste nuove tecniche, allora quegli investimenti saranno stati riversati in una tecnologia che a quel punto sarà diventata obsoleta; se non verranno scoperte, la soglia resterà insormontabile e ulteriori progressi non saranno possibili.

In altre parole, oltre al collasso dei modelli di intelligenza artificiale bisogna pensare al possibile collasso di un altro modello: quello economico, quello che immagina che la crescita e i profitti possano proseguire all’infinito. E se collassa quello, per molte aziende e per tantissimi investitori il bruciore di stomaco sarà garantito. Speriamo che non seguano i consigli delle intelligenze artificiali e non cerchino di curarsi ingoiando carta igienica.

Ehi Samsung, puoi piantarla di mettermi scocciature IA inutili? Grazie

Salve, Samsung. So che magari non sono il vostro cliente quadratico medio, ma vorrei dirvi pubblicamente che se ho voglia di informarmi, sono perfettamente capace di farlo da solo, grazie; non mi piace essere trattato come un deficiente la cui vita è così vuota da dover essere allietata da una petulante “intelligenza” artificiale, e l’ultima cosa che voglio mentre sto lavorando, dormendo o facendo qualunque altra cosa della mia giornata è essere interrotto da una notifica che ha un bisogno incontenibile di farmi sapere “notizie” di cui non me ne frega assolutamente nulla.

Ho approfittato di un’offerta del mio operatore cellulare (Salt.ch) per acquistare un Samsung Galaxy S25 che userò principalmente come telefono di backup, come autenticatore di riserva e come “saponetta” 5G per avere una connessione a Internet di riserva.

Questo telefono, come tanti altri ultimamente, è infarcito di applicazioni basate sull’intelligenza artificiale che sono fondamentalmente inutili e irritanti. Una di queste è la “Now Brief”, il cui scopo sembra essere quello di informarmi sulle condizioni meteo locali e altre cose del genere di cui assolutamente non sento il bisogno. È attiva per default.

Per disattivarla, si va in Impostazioni – Schermata di blocco e AOD – Now bar – Now brief e si disattiva. Lo segnalo qui così magari altri che hanno la mia stessa esigenza trovano le istruzioni per soddisfarla.

Ecco, così va meglio, grazie.

Fonte: Sammyfans.

ChatGPT non sa nemmeno orientarsi nel suo stesso sito. Che totale perdita di tempo

Sto chiudendo la contabilità del 2024 e mi serve una copia delle fatture mensili che OpenAI ha emesso per il periodo in cui ho avuto un account a pagamento (ora sono passato alla versione gratuita perché l’uso che facevo di ChatGPT era troppo limitato per giustificare la ventina di dollari mensili della versione a pagamento).

Secondo buon senso, dovrebbe bastarmi fare login nel mio account OpenAI, andare alla cronologia delle fatture, elencarle e stamparle (la Dama del Maniero, che gestisce la nostra contabilità, ne vuole una copia cartacea per riordinarla e controllarla più efficacemente).

Ci trovo il deserto.

Mi coglie l’infelice idea di mettere alla prova ChatGPT e chiedergli aiuto.

Seguo le sue istruzioni, correggendole perché sono sbagliate: l’icona del profilo è nell’angolo in alto e a destra, non in basso a sinistra. Pazienza, dai.

Ma nelle mie impostazioni (https://chatgpt.com/#settings) non c’è la voce di fatturazione (probabilmente perché ho convertito l’account a pagamento in uno gratuito).

Faccio notare questa cosa a ChatGPT, che mi risponde come segue:

Vado al link che mi consiglia al primo punto: anche qui, il deserto.

Il secondo punto fa notare che se ora ho un account gratuito la sezione Billing (fatturazione) non ci sarà. Grazie, adesso te ne accorgi e me lo dici?

Provo a spiegargli meglio la situazione, e ChatGPT mi propone altre soluzioni:

Ma anche stavolta i suggerimenti di chatGPT sono inutili e fuorvianti, e persino l’invito a contattare il supporto tecnico è sbagliato, perché non c’è nessuna opzione di invio messaggi nell’Help Center di OpenAI. Glielo faccio notare.

Alla fine seguo invece le istruzioni presenti nelle FAQ di OpenAI (cosa che avrei dovuto fare sin da subito) e mando una mail all’indirizzo del supporto clienti (ar chiocciola openai.com).

Nel giro di sette minuti mi arriva la risposta, che dallo stile sembra anch’essa generata dall’intelligenza artificiale ma se non altro fornisce le info che mi servivano.

In realtà mi arriva anche una seconda mail, che però contiene tutti i link scombinati (quello che dovrebbe portare alla fattura di gennaio 2024 in realtà porta alla fattura di gennaio 2025, e così via), ma pazienza.

Se ChatGPT non sa rispondere correttamente neppure a domande che riguardano OpenAI, con che faccia tosta ci viene proposto di usarlo come assistente per le questioni delicate di lavoro?

Morale della storia: se incontrate un IA che fa da “helpdesk” per un sito, probabilmente perdete meno tempo a usare la vostra intelligenza per cercare direttamente quello che vi serve nelle pagine di assistenza del sito. E se siete un’azienda che sta pensando di mettere una IA al posto dell’assistenza clienti, pensateci bene: rischiate di spendere soldi per installare sul vostro sito un maggiordomo inetto e irritante che fa solo spazientire i vostri clienti.

Ci sono delle ottime applicazioni dell’intelligenza artificiale che funzionano benissimo. Questa non è una di quelle.

Disponibile la versione 25.2 di LibreOffice, la suite per ufficio senza intelligenza artificiale ficcanaso

È stupendamente ironico che oggi non avere integrata l’intelligenza artificiale in un prodotto sia diventato un bonus. Non stupisce che sia così, dopo tutti i disastri, le violazioni della riservatezza e le figuracce prodotte da chi si affida incautamente all’IA o se la trova imposta dagli aggiornamenti dei prodotti che usa.

Non solo: visto che tutte le principali aziende statunitensi del software hanno deciso di prostituirsi con l’amministrazione Trump e i suoi deliri imperialisti, sganciarsi il più possibile dalla dipendenza dal software prodotto da queste aziende è oggi una considerazione strategica di sopravvivenza e sovranità per privati, società e governi; non più un astratto principio culturale.

Riporto quindi con particolare piacere qui sotto l’annuncio da parte della Document Foundation della nuova versione della suite per ufficio LibreOffice, che genera documenti in formato standard ISO (leggibili quindi senza dover per forza usare lo specifico software di una specifica azienda), è gratuito (sostenuto dalle donazioni), è libero, è open source, non ha complicazioni di licenze che scadono ed è multipiattaforma. Uso da molti anni LibreOffice per quasi tutto quello che scrivo, compresi i libri.

L’annuncio riassume le novità introdotte da questa versione e fornisce i link per scaricarla e per leggere le note dettagliate di rilascio.


LibreOffice 25.2, la suite per ufficio per le esigenze degli utenti di oggi

La nuova major release offre un gran numero di miglioramenti all’interfaccia utente e all’accessibilità, oltre alle consuete funzionalità di interoperabilità

Berlino, 6 febbraio 2025 – LibreOffice 25.2, la nuova major release della suite per ufficio gratuita e supportata dalla community di volontari per Windows (Intel, AMD e ARM), macOS (Apple Silicon e Intel) e Linux è disponibile su https://www.libreoffice.org/download. LibreOffice è la migliore suite per ufficio per gli utenti che vogliono mantenere il controllo sul proprio software e sui propri documenti, proteggendo la propria privacy e la propria vita digitale dalle interferenze commerciali e dalle strategie di lock-in delle Big Tech.

LibreOffice è l’unica suite per ufficio progettata per soddisfare le esigenze reali degli utenti, e non solo la loro percezione visiva. Offre una serie di opzioni di interfaccia per adattarsi alle diverse abitudini degli utenti, da quelle tradizionali a quelle moderne, e sfrutta al meglio le diverse dimensioni degli schermi, ottimizzando lo spazio disponibile per mettere il massimo numero di funzioni a uno o due clic di distanza. È anche l’unico software per la creazione di documenti (che possono contenere informazioni personali o riservate) che rispetta la privacy dell’utente, garantendogli la possibilità di decidere se e con chi condividere i contenuti creati, grazie al formato standard e aperto che non viene utilizzato come strumento di lock-in, obbligando ad aggiornamenti periodici del software. Il tutto con un set di funzionalità paragonabile a quello dei principali software presenti sul mercato e di gran lunga superiore a quello di qualsiasi concorrente.

Ciò che rende LibreOffice unico è la piattaforma tecnologica LibreOffice, l’unica sul mercato che consente lo sviluppo coerente di versioni desktop, mobile e cloud – comprese quelle fornite dalle aziende dell’ecosistema – in grado di produrre documenti identici e completamente interoperabili basati sui due standard ISO disponibili: l’aperto ODF o Open Document Format (ODT, ODS e ODP) e il proprietario Microsoft OOXML (DOCX, XLSX e PPTX). Quest’ultimo nasconde agli utenti un gran numero di complessità artificiali (e inutili) che creano problemi a chi è convinto di utilizzare un formato standard.

Gli utenti finali possono ottenere un supporto tecnico di primo livello dai volontari attraverso sia la mailing list degli utenti sia il sito web Ask LibreOffice: https://ask.libreoffice.org.

Nuove caratteristiche di LibreOffice 25.2

PRIVACY
    • LibreOffice è in grado di rimuovere tutte le informazioni personali associate a qualsiasi documento (nome dell’autore e timestamp, ora di modifica, nome e configurazione della stampante, modello di documento, autore e data per i commenti e le modifiche tracciate).

CORE/GENERALE
    • LibreOffice 25.2 può leggere e scrivere file ODF versione 1.4.
    • Molti miglioramenti nell’interoperabilità con i documenti OOXML proprietari.
    • È ora possibile firmare automaticamente i documenti dopo aver definito un certificato predefinito.
    • Windows 7 e 8/8.1 sono piattaforme deprecate, e il loro supporto verrà definitivamente rimosso con la versione 25.8.
    • Le estensioni e le funzioni che si basano su Python non funzionano su Windows 7.

WRITER
    • Miglioramento della gestione del tracciamento delle modifiche, per gestire un gran numero di modifiche nei documenti più lunghi.
    • I commenti vengono ora tracciati nel Navigatore quando si sposta il focus su di loro, mentre il ridimensionamento dell’area contenente i commenti ora mostra una guida visuale.
    • Sono state aggiunte opzioni per impostare un livello di zoom predefinito per l’apertura dei documenti, sovrascrivendo il livello memorizzato nei documenti stessi.
    • È ora possibile eliminare tutti i contenuti dello stesso tipo (con l’esclusione delle intestazioni) tramite il Navigatore.

CALC
    • Aggiunta di una finestra di dialogo “Gestione dei record duplicati” per selezionare/eliminare i record duplicati.
    • Sia la finestra di dialogo della procedura guidata per le funzioni che l’area nella barra laterale delle funzioni sono stati migliorati per quanto riguarda la ricerca e l’esperienza dell’utente.
    • I modelli di Solver possono essere salvati nei fogli di calcolo, e Solver è in grado di fornire una relazione sull’analisi di sensibilità.
    • Aggiunta di nuove opzioni di protezione del foglio relative alle tabelle Pivot, ai grafici Pivot e ai filtri automatici.

IMPRESS E DRAW
    • Molti miglioramenti a tutti i modelli di Impress, che ora hanno elementi visibili (colore del carattere impostato su nero) nelle Note e negli Handout.
    • Gli oggetti possono essere centrati sulla diapositiva di Impress (o sulla pagina di Draw) in un unico passaggio.
    • La ripetizione automatica delle diapositive può ora essere attivata in modalità a finestre.
    • Il testo in eccesso nelle note del presentatore non viene più tagliato durante la stampa.

INTERFACCIA UTENTE
    • L’elenco dei file utilizzati di recente ha ora una casella di controllo “[x] Solo il modulo corrente” che consente di filtrare l’elenco.
    • I margini degli oggetti sono ora attivati indipendentemente dai Segni di Formattazione.
    • Il colore dei caratteri non stampati e il colore di sfondo dei commenti possono essere personalizzati.
    • Sono stati aggiornati gli elementi predefiniti per gli elenchi non ordinati (noti anche come “bullet”).
    • Miglioramenti significativi ai temi delle applicazioni.

ACCESSIBILITÀ
    • Miglioramento dei livelli di avviso e di errore nella barra laterale dell’accessibilità, con la possibilità di ignorare gli avvisi.
    • Gli elementi dell’interfaccia utente riportano un identificatore accessibile che può essere utilizzato dalle tecnologie assistive.
    • Windows: l’accessibilità viene attivata ogni volta che uno strumento richiede informazioni sul livello di accessibilità e le relazioni accessibili vengono segnalate correttamente.
    • Linux: le posizioni degli elementi dell’interfaccia utente (anche su Wayland) sono riportate correttamente a livello di accessibilità.

LIBRERIE DI SCRIPTFORGE
    • Una raccolta estensibile e robusta di risorse di macro scripting da invocare da script Basic o Python dell’utente.
    • L’intera serie di servizi (tranne quando la funzione incorporata nativa è migliore) è resa disponibile per gli script Python con sintassi e comportamento identici a quelli del Basic.
    • La documentazione in inglese delle librerie ScriptForge è ora parzialmente integrata nelle pagine di aiuto di LibreOffice.

Contributi a LibreOffice 25.2

Un totale di 176 sviluppatori ha contribuito alle nuove funzionalità di LibreOffice 25.2: il 47% dei commit di codice proviene da 50 sviluppatori impiegati da aziende dell’ecosistema – Collabora e allotropia – e da altre organizzazioni, il 31% dai sette sviluppatori di The Document Foundation e il restante 22% dai 119 singoli sviluppatori volontari.

Altri 189 volontari hanno impegnato 771.263 stringhe localizzate in 160 lingue, che rappresentano centinaia di persone che lavorano alle traduzioni. LibreOffice 25.2 è disponibile in 120 lingue, più di ogni altro software desktop, per cui può essere utilizzato da oltre 5,5 miliardi di persone nella lingua madre. Inoltre, oltre 2,4 miliardi di persone parlano una delle 120 lingue come seconda lingua.

LibreOffice per le aziende

Per le implementazioni di livello aziendale, TDF raccomanda vivamente la famiglia di applicazioni LibreOffice Enterprise dei partner dell’ecosistema – per desktop, mobile e cloud – con un’ampia gamma di funzionalità a valore aggiunto dedicate e altri vantaggi come gli SLA: https://www.libreoffice.org/download/libreoffice-in-business/.

Ogni riga di codice sviluppata dalle aziende dell’ecosistema per i clienti aziendali viene condivisa con la comunità nel repository del codice master e migliora la piattaforma LibreOffice Technology. I prodotti basati sulla tecnologia LibreOffice sono disponibili per tutti i principali sistemi operativi desktop (Windows, macOS, Linux e ChromeOS), per le piattaforme mobili (Android e iOS) e per il cloud.

Migrazioni a LibreOffice

La Document Foundation pubblica un protocollo di migrazione per aiutare le aziende a passare dalle suite per ufficio proprietarie a LibreOffice, basato sulla distribuzione di una versione LTS (supporto a lungo termine) ottimizzata per le aziende di LibreOffice, oltre alla consulenza e alla formazione per la migrazione fornite da professionisti certificati che offrono soluzioni a valore aggiunto coerenti con le offerte proprietarie. Riferimento: https://www.libreoffice.org/get-help/professional-support/.

Infatti, la maturità del codice sorgente di LibreOffice, il ricco set di funzionalità, il forte supporto agli standard aperti, l’eccellente compatibilità e le opzioni LTS di partner certificati ne fanno la soluzione ideale per le organizzazioni che vogliono riprendere il controllo dei propri dati e liberarsi dal vendor lock-in.

Disponibilità di LibreOffice 25.2

LibreOffice 25.2 è disponibile all’indirizzo https://www.libreoffice.org/download/. I requisiti minimi per i sistemi operativi proprietari sono Microsoft Windows 7 SP1 e Apple MacOS 10.15. I prodotti basati sulla tecnologia LibreOffice per Android e iOS sono elencati qui: https://www.libreoffice.org/download/android-and-ios/.

Per gli utenti che non hanno bisogno delle ultime funzionalità e preferiscono una versione che è stata sottoposta a un maggior numero di test e di correzioni di bug, The Document Foundation mantiene ancora la famiglia LibreOffice 24.8, che include diversi mesi di correzioni di backporting. La versione attuale è LibreOffice 24.8.4.

Gli utenti di LibreOffice, i sostenitori del software libero e i membri della comunità possono sostenere The Document Foundation con una donazione su https://www.libreoffice.org/donate.

[1] Note di rilascio: https://wiki.documentfoundation.org/ReleaseNotes/25.2 


La mia novità preferita è la possibilità di imporre un livello di zoom ignorando quello salvato nel documento: visto che ricevo e maneggio moltissimi documenti generati da terzi, che ovviamente usano un vasto assortimento di livelli di zoom del tutto inadatti al modo in cui lavoro io (monitor 4K da 120 cm di diagonale), passo parecchio tempo a ridimensionare e reinquadrare documenti. Ora li posso vedere subito con il livello di zoom perfetto (Fit Width). Quest’opzione è nelle impostazioni di LibreOffice sotto LibreOffice Writer – View – Zoom – Use preferred values.

Intelligenza artificiale usata bene: bot etichetta le immagini Mastodon con testo ALT per ipo e non vedenti

L’attuale IA fallisce in molti compiti, ma nel riconoscimento delle immagini se la cava egregiamente. Perché non usarla per rendere Internet più accessibile a tutti, per esempio facendole scrivere automaticamente le descrizioni delle immagini sui social network?

Su Mastodon c’è @altbot@fuzzies.wtf, un bot che fa esattamente questo. È sufficiente seguirlo: fatto questo, se pubblicate un post con un’immagine per la quale non avete già scritto voi un testo alternativo per ipo e non vedenti, il bot passa l’immagine all’IA Gemini, che restituisce in una manciata di secondi una descrizione dell’immagine, che potete includere nel post editandolo.

Per esempio, stamattina ho postato il consueto Gatto Del Giorno anche su Mastodon, come al solito:

Non ho scritto intenzionalmente un testo ALT, e Altbot ha risposto così in una manciata di secondi:

@ildisinformatico Ecco una descrizione alternativa del testo per una persona che non può vedere l’immagine:

Primo piano di un gatto sdraiato sulla schiena, con il viso rivolto verso l’alto. Il gatto ha un manto grigio e marrone chiaro con chiazze più scure, e occhi azzurri intensi. I suoi baffi sono ben visibili. Parte del corpo del gatto è visibile, mostrando la sua pelliccia morbida e chiara.

Fornito da @altbot, generato utilizzando Gemini.

Niente male.

Podcast RSI – Microsoft accusata di leggere i documenti degli utenti di Word per addestrare la sua IA: i fatti fin qui

Questo è il testo della puntata del 25 novembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


[CLIP: brano della versione italiana della sigla iniziale della serie TV Il Prigioniero]

Sta circolando un’accusa pesante che riguarda il popolarissimo software Word di Microsoft: userebbe i testi scritti dagli utenti per addestrare l’intelligenza artificiale dell’azienda. Se l’accusa fosse confermata, le implicazioni in termini di privacy, confidenzialità e diritto d’autore sarebbero estremamente serie.

Questa è la storia di quest’accusa, dei dati che fin qui la avvalorano, e di come eventualmente rimediare. Benvenuti alla puntata del 25 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Le intelligenze artificiali hanno bisogno di dati sui quali addestrarsi. Tanti, tanti dati: più ne hanno, più diventano capaci di fornire risposte utili. Un’intelligenza artificiale che elabora testi, per esempio, deve acquisire non miliardi, ma migliaia di miliardi di parole per funzionare decentemente.

Procurarsi così tanto testo non è facile, e quindi le aziende che sviluppano intelligenze artificiali pescano dove possono: non solo libri digitalizzati ma anche pagine Web, articoli di Wikipedia, post sui social network. E ancora non basta. Secondo le indagini del New York Times [link diretto con paywall; copia su Archive.is], OpenAI, l’azienda che sviluppa ChatGPT, aveva già esaurito nel 2021 ogni fonte di testo in inglese pubblicamente disponibile su Internet.

Per sfamare l’appetito incontenibile della sua intelligenza artificiale, OpenAI ha creato uno strumento di riconoscimento vocale, chiamato Whisper, che trascriveva il parlato dei video di YouTube e quindi produceva nuovi testi sui quali continuare ad addestrare ChatGPT. Whisper ha trascritto oltre un milione di ore di video di YouTube, e dall’addestramento basato su quei testi è nato ChatGPT 4.

Questa stessa trascrizione di massa l’ha fatta anche Google, che inoltre ha cambiato le proprie condizioni di servizio per poter acquisire anche i contenuti dei documenti pubblici scritti su Google Docs, le recensioni dei ristoranti di Google Maps, e altro ancora [New York Times].

Da parte sua, Meta ha avvisato noi utenti che da giugno di quest’anno usa tutto quello che scriviamo pubblicamente su Facebook e Instagram per l’addestramento delle sue intelligenze artificiali, a meno che ciascuno di noi non presenti formale opposizione, come ho raccontato nella puntata del 7 giugno 2024.

Insomma, la fame di dati delle intelligenze artificiali non si placa, e le grandi aziende del settore sono disposte a compromessi legalmente discutibili pur di poter mettere le mani sui dati che servono. Per esempio, la legalità di usare massicciamente i contenuti creati dagli YouTuber senza alcun compenso o riconoscimento è perlomeno controversa. Microsoft e OpenAI sono state portate in tribunale negli Stati Uniti con l’accusa di aver addestrato il loro strumento di intelligenza artificiale Copilot usando milioni di righe di codice di programmazione pubblicate sulla piattaforma GitHub senza il consenso dei creatori di quelle righe di codice e violando la licenza open source adottata da quei creatori [Vice.com].

In parole povere, il boom dell’intelligenza artificiale che stiamo vivendo, e i profitti stratosferici di alcune aziende del settore, si basano in gran parte su un saccheggio senza precedenti della fatica di qualcun altro. E quel qualcun altro, spesso, siamo noi.

In questo scenario è arrivata un’accusa molto specifica che, se confermata, rischia di toccarci molto da vicino. L’accusa è che se scriviamo un testo usando Word di Microsoft, quel testo può essere letto e usato per addestrare le intelligenze artificiali dell’azienda.

Questo vorrebbe dire che qualunque lettera confidenziale, referto medico, articolo di giornale, documentazione aziendale riservata, pubblicazione scientifica sotto embargo sarebbe a rischio di essere ingerita nel ventre senza fondo delle IA, dal quale si è già visto che può essere poi rigurgitata, per errore o per dolo, rendendo pubblici i nostri dati riservati, tant’è vero che il già citato New York Times è in causa con OpenAI e con Microsoft perché nei testi generati da ChatGPT e da Copilot compaiono interi blocchi di testi di articoli della testata, ricopiati pari pari [Harvard Law Review].

Vediamo su cosa si basa quest’accusa.


Il 13 novembre scorso il sito Ilona-andrews.com, gestito da una coppia di scrittori, ha segnalato un problema con la funzione Esperienze connesse di Microsoft Word [Connected Experiences nella versione inglese]. Se non avete mai sentito parlare di questa funzione, siete in ottima e ampia compagnia: è sepolta in una parte poco frequentata della fitta foresta di menu e sottomenu di Word. Nell’articolo che accompagna questo podcast sul sito Attivissimo.me trovate il percorso dettagliato da seguire per trovarla, per Windows e per Mac.

  • Word per Windows (applicazione): File – Opzioni – Centro protezione – Impostazioni Centro protezione – Opzioni della privacy – Impostazioni di privacy – Dati di diagnostica facoltativi [in inglese: File – Options – Trust Center – Trust Center Settings – Privacy Options – Privacy Settings – Optional Connected Experiences]
  • Word per Mac (applicazione): Word – Preferenze – Privacy – Gestisci le esperienze connesse [in inglese: Word – Preferences – Privacy – Manage Connected Experiences]
  • Word su Web: File – Informazioni – Impostazioni privacy
Screenshot da Word per Mac italiano.
Screenshot da Word su web in italiano.

Secondo questa segnalazione di Ilona-andrews.com, ripresa e approfondita anche da Casey Lawrence su Medium.com, Microsoft avrebbe attivato senza troppo clamore in Office questa funzione, che leggerebbe i documenti degli utenti allo scopo di addestrare le sue intelligenze artificiali. Questa funzione è di tipo opt-out, ossia viene attivata automaticamente a meno che l’utente richieda esplicitamente la sua disattivazione.

L’informativa sulla privacy di Microsoft collegata a questa funzione dice testualmente che i dati personali raccolti da Microsoft vengono utilizzati, fra le altre cose, anche per “Pubblicizzare e comunicare offerte all’utente, tra cui inviare comunicazioni promozionali, materiale pubblicitario mirato e presentazioni di offerte pertinenti.” Traduzione: ti bombarderemo di pubblicità sulla base delle cose che scrivi usando Word. E già questo, che è un dato di fatto dichiarato da Microsoft, non è particolarmente gradevole.

Screenshot tratto dall’informativa sulla privacy di Microsoft.

Ma c’è anche un altro passaggio dell’informativa sulla privacy di Microsoft che è molto significativo: “Nell’ambito del nostro impegno per migliorare e sviluppare i nostri prodotti” diceMicrosoft può usare i dati dell’utente per sviluppare ed eseguire il training dei modelli di intelligenza artificiale”.

Sembra abbastanza inequivocabile, ma bisogna capire cosa intende Microsoft con l’espressione “dati dell’utente. Se include i documenti scritti con Word, allora l’accusa è concreta; se invece non li include, ma comprende per esempio le conversazioni fatte con Copilot, allora il problema c’è lo stesso ed è serio ma non così catastroficamente grave come può parere a prima vista.

Secondo un’altra pagina informativa di Microsoft, l’azienda dichiara esplicitamente di usare le “conversazioni testuali e a voce fatte con Copilot”*, con alcune eccezioni: sono esclusi per esempio gli utenti autenticati che hanno meno di 18 anni, i clienti commerciali di Microsoft, e gli utenti europei (Svizzera e Regno Unito compresi).**

* “Except for certain categories of users (see below) or users who have opted out, Microsoft uses data from Bing, MSN, Copilot, and interactions with ads on Microsoft for AI training. This includes anonymous search and news data, interactions with ads, and your voice and text conversations with Copilot [...]”
** “Users in certain countries including: Austria, Belgium, Brazil, Bulgaria, Canada, China, Croatia, Cyprus, the Czech Republic, Denmark, Estonia, Finland, France, Germany, Greece, Hungary, Iceland, Ireland, Israel, Italy, Latvia, Liechtenstein, Lithuania, Luxembourg, Malta, the Netherlands, Norway, Nigeria, Poland, Portugal, Romania, Slovakia, Slovenia, South Korea, Spain, Sweden, Switzerland, the United Kingdom, and Vietnam. This includes the regions of Guadeloupe, French Guiana, Martinique, Mayotte, Reunion Island, Saint-Martin, Azores, Madeira, and the Canary Islands.”

Nella stessa pagina, Microsoft dichiara inoltre che non addestra i propri modelli di intelligenza artificiale sui dati personali presenti nei profili degli account Microsoft o sul contenuto delle mail, e aggiunge che se le conversazioni fatte con l’intelligenza artificiale dell’azienda includono delle immagini, Microsoft rimuove i metadati e gli altri dati personali e sfuoca i volti delle persone raffigurate in quelle immagini. Inoltre rimuove anche i dati che potrebbero rendere identificabile l’utente, come nomi, numeri di telefono, identificativi di dispositivi o account, indirizzi postali e indirizzi di mail, prima di addestrare le proprie intelligenze artificiali.

Secondo le indagini di Medium.com, inoltre, le Esperienze connesse sono attivate per impostazione predefinitaper gli utenti privati, mentre sono automaticamente disattivate per gli utenti delle aziende che usano la crittografia DKE per proteggere file e mail.


In sintesi, la tesi che Microsoft si legga i documenti Word scritti da noi non è confermata per ora da prove concrete, ma di certo l’azienda ammette di usare le interazioni con la sua intelligenza artificiale a scopo pubblicitario, e già questo è piuttosto irritante. Scoprire come si fa per disattivare questo comportamento e a chi si applica è sicuramente un bonus piacevole e un risultato utile di questo allarme.

Ma visto che gli errori possono capitare, visto che i dati teoricamente anonimizzati si possono a volte deanonimizzare, e visto che le aziende spesso cambiano le proprie condizioni d’uso molto discretamente, è comunque opportuno valutare se queste Esperienze connesse vi servono davvero ed è prudente disattivarle se non avete motivo di usarle, naturalmente dopo aver sentito gli addetti ai servizi informatici se lavorate in un’organizzazione. Le istruzioni dettagliate, anche in questo caso, sono su Attivissimo.me.

E se proprio non vi fidate delle dichiarazioni delle aziende e volete stare lontani da questa febbre universale che spinge a infilare dappertutto l’intelligenza artificiale e la raccolta di dati personali, ci sono sempre prodotti alternativi a Word ed Excel, come LibreOffice, che non raccolgono assolutamente nulla e non vogliono avere niente a che fare con l’intelligenza artificiale.

Il problema di fondo, però, rimane: le grandi aziende hanno una disperata fame di dati per le loro intelligenze artificiali, e quindi continueranno a fare di tutto per acquisirli. Ad aprile 2023 Meta, che possiede Facebook, Instagram e WhatsApp, ha addirittura valutato seriamente l’idea di comperare in blocco la grande casa editrice statunitense Simon & Schuster pur di poter accedere ai contenuti testuali di alta qualità costituiti dal suo immenso catalogo di libri sui quali ha i diritti [New York Times].

OpenAI, invece, sta valutando un’altra soluzione: addestrare le intelligenze artificiali usando contenuti generati da altre intelligenze artificiali. In altre parole, su dati sintetici. Poi non sorprendiamoci se queste tecnologie restituiscono spesso dei risultati che non c’entrano nulla con la realtà. Utente avvisato, mezzo salvato.

Fonti aggiuntive

ChatGPT collected our data without permission and is going to make billions off it, Scroll.in (2023)
Panoramica delle esperienze connesse facoltative in Office (versione 30/10/2024)

Il 22 novembre a Edilespo (Lugano) parleremo di IA e robotica nell’edilizia

Venerdì 22 novembre alle 17.30, presso il Centro Esposizioni Lugano, sarò moderatore di una tavola rotonda intitolata Le nuove tecnologie digitali applicate alla progettazione/costruzione: la nuova era dell’intelligenza artificiale e la robotica nell’edilizia, nell’ambito del Salone dell’Edilizia Edilespo.

Per un’ora e un quarto avrò il piacere di moderare esperti d’eccezione e di parlare anche di Robodog, un cane-robot guida per ciechi. Questi sono i partecipanti alla tavola rotonda:

  • Professor Andrea Emilio Rizzoli, direttore dell’Istituto Dalle Molle di studi sull’intelligenza artificiale USI-SUPSI
  • Architetto Loris Dellea, direttore della CAT (Conferenza delle Associazioni Tecniche del Cantone Ticino)
  • Davide Plozza, ricercatore del politecnico di Zurigo e sviluppatore di Robodog
  • Alessandro Marrarosa, rappresentante di Digitalswitzerland
  • Christian Righinetti, esperto UAS (Unmanned Aircraft Systems) di DroneAir

A seguire ci sarà un aperitivo offerto da Securiton SA – Taverne e CAT (Conferenza delle Associazioni Tecniche del Cantone Ticino).

Computer grafica nel 1968. Con la demo che ispirò HAL per “2001: Odissea nello spazio”

Link al video su YouTube

Sembrano immagini da un universo parallelo, ma le immagini mostrate in questo filmato del 1968 (YouTube) sono la realtà di quello che già si faceva nei laboratori della Bell alla fine degli anni Sessanta: grafica digitale, composizione di musica al computer, progettazione virtuale di circuiti elettronici usando uno stilo (o penna ottica come si chiamava all’epoca), simulazioni 3D di orbite spaziali, sintesi vocale, concezione di film generati al computer, e altro ancora. I macchinari di allora erano enormi, lentissimi e costosissimi: oggi abbiamo a disposizione le stesse risorse sui nostri telefonini.

A 10:00 una chicca per gli appassionati di fantascienza: la scena che quasi sicuramente ispirò Stanley Kubrick per la famosa sequenza di 2001: Odissea nello spazio nella quale il computer intelligente HAL (spoiler!) subisce una lobotomia e gli viene chiesto di cantare una canzoncina per segnalare il progressivo degrado delle sue capacità intellettive. La canzoncina, in questo documentario e nel film, è Daisy Bell; nell’edizione italiana venne sostituita con la filastrocca Giro Girotondo. Si perse così il riferimento a queste sperimentazioni della Bell e anche una battuta sottile nel testo della canzoncina, quando HAL dice “I’m half crazy” (sono mezzo matto).

Il documentario si intitola The Incredible Machine ed è datato 1968. I sottotitoli automatici di YouTube sono pieni di errori; non fidatevi di quello che scrivono.

Qui trovate il programma in Perl per far cantare Daisy Bell alla sintesi vocale del Mac.

Secondo la didascalia del video su YouTube, si tratta del sistema informatico Graphic 1 dei Bell Labs, composto da un PDP-5 della Digital Equipment Corporation accoppiato a periferiche come una penna ottica Type 370, una tastiera da telescrivente Teletype Model 33 della Teletype Corporation, e un display incrementale di precisione DEC Type 340 coadiuvato da una memoria buffer RVQ della Ampex capace di immagazzinare 4096 parole (words). La risoluzione sul monitor era 1024×1024 (una foto su Instagram di oggi, per capirci). Ripeto, siamo nel 1968 e questi avevano già monitor con queste caratteristiche. L’output grafico veniva passato a un sistema IBM 7094 da 200 kflop/secondo, collegato a un registratore su microfilm SC 4020 della Stromberg Carlson che, sempre stando alla didascalia, “ci metteva ore a leggere e registrare i dati”. Ma le avvisaglie di tutto quello che conosciamo oggi c’erano già.

Fonte aggiuntiva: Hackaday.

Ci vediamo a Rovereto domattina per parlare di IA?

Domani (25 ottobre) alle 8.30 sarò al Teatro Zandonai, a Rovereto, nell’ambito del Festival Informatici Senza Frontiere, per un incontro pubblico sul tema Intelligenza artificiale: falsi timori, rischi e benefici reali. Tutti gli eventi del Festival sono in presenza e gratuiti; per assicurarvi un posto, iscrivetevi agli appuntamenti sul sito del Festival.

A domani!

2024/10/25. Non segnalo più le Avventurette in auto elettrica semplicemente perché ormai la Dama e io siamo talmente abituati che non pianifichiamo neanche più i viaggi: non sono più avventurette! Siamo partiti da casa con il 100% di carica, fatta comodamente a casa con l’energia solare del tetto fotovoltaico, abbiamo percorso 292 km senza dover fare tappe di ricarica, e siamo arrivati all’albergo a Rovereto con un buon 10% di carica residua, dopo aver consumato 50,8 kWh. All’albergo c’è la colonnina (l’abbiamo scelto apposta) e così abbiamo messo sotto carica l’auto (una Tesla Model S 70 di seconda mano) per ripartire oggi pomeriggio e tornare direttamente al Maniero Digitale. Zero problemi.

Podcast RSI – L’IA ha troppa fame di energia. Come metterla a dieta

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


Una singola domanda a ChatGPT consuma grosso modo la stessa energia elettrica che serve per tenere accesa una lampadina comune per venti minuti e consuma dieci volte più energia di una ricerca in Google. La fame di energia dell’intelligenza artificiale online è sconfinata e preoccupante. Ma ci sono soluzioni che permettono di smorzarla.

Questa è la storia del crescente appetito energetico dei servizi online, dai social network alle intelligenze artificiali, del suo impatto ambientale e di come esiste un modo alternativo per offrire gli stessi servizi con molta meno energia e con molto più rispetto per la nostra privacy. Perché ogni foto, ogni documento, ogni testo che immettiamo in ChatGPT, Gemini, Copilot o altri servizi online di intelligenza artificiale viene archiviato, letto, catalogato, analizzato e schedato dalle grandi aziende del settore.

Benvenuti alla puntata del 30 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Una recente indagine pubblicata da NPR, una rinomata organizzazione indipendente non profit che comprende un migliaio di stazioni radio statunitensi ed è stata fondata dal Congresso degli Stati Uniti, fa il punto della situazione sulla nuova fame di energia dovuta al boom delle intelligenze artificiali.

Quando usiamo un servizio online di intelligenza artificiale, come ChatGPT, Copilot o Gemini, per citare i più diffusi, i complessi calcoli necessari per elaborare e fornirci la risposta non avvengono sul nostro computer, tablet o telefonino, per cui non ci accorgiamo di quanta energia viene consumata per restituirci quella risposta. Il nostro dispositivo non fa altro che prendere la nostra richiesta, inoltrarla via Internet a questi servizi, e ricevere il risultato, facendocelo vedere o ascoltare.

Ma dietro le quinte, le intelligenze artificiali online devono disporre di grandi data center, ossia strutture nelle quali vengono radunati computer appositi, dotati di processori dedicati all’intelligenza artificiale, che hanno dei consumi energetici prodigiosi. Secondo una stima riportata da NPR, una singola richiesta a ChatGPT usa all’incirca la stessa quantità di energia elettrica necessaria per tenere accesa una normale lampadina per una ventina di minuti. Immaginate milioni di persone che interrogano ChatGPT tutto il giorno, e pensate a venti minuti di lampadina accesa per ogni domanda che fanno a questa intelligenza artificiale.

Secondo un’analisi pubblicata dalla banca d’affari Goldman Sachs a maggio 2024, una richiesta fatta a ChatGPT consuma 2,9 wattora di energia elettrica, quasi dieci volte di più di una normale richiesta di ricerca fatta a Google [0,3 wattora] senza interpellare i suoi servizi di intelligenza artificiale. Questa analisi stima che il fabbisogno energetico mondiale dei data center che alimentano la rivoluzione dell’intelligenza artificiale salirà del 160% entro il 2030; serviranno circa 200 terawattora ogni anno solo per i consumi aggiuntivi dovuti all’intelligenza artificiale.

Per fare un paragone, il consumo annuo svizzero complessivo di energia elettrica è stato di 56 terawattora [Admin.ch]. In parole povere: solo per gestire l’intelligenza artificiale servirà un’energia pari a quasi quattro volte quella consumata da tutta la Confederazione.

Questi data center attualmente sono responsabili di circa il 2% di tutti i consumi di energia elettrica, ma entro la fine del decennio probabilmente consumeranno dal 3 al 4%, raddoppiando le loro emissioni di CO2. Goldman Sachs segnala che negli Stati Uniti saranno necessari investimenti per circa 50 miliardi di dollari per aggiungere capacità di produzione di energia per far fronte all’appetito energetico dei data center.

In Europa, sempre secondo l’analisi di Goldman Sachs, la crescente elettrificazione delle attività e l’espansione dei data center potrebbero far crescere il fabbisogno energetico del 40% o più entro il 2033. Entro il 2030, si prevede che la fame di energia di questi data center sarà pari all’intero consumo annuale di Portogallo, Grecia e Paesi Bassi messi insieme. Per stare al passo, la rete elettrica europea avrà bisogno di investimenti per circa 1,6 miliardi di euro nel corso dei prossimi anni.

Queste sono le stime e le previsioni degli esperti, ma ci sono già dei dati molto concreti su cui ragionare. Google e Microsoft hanno pubblicato due confessioni energetiche discrete, poco pubblicizzate, ma molto importanti.


Ai primi di luglio 2024, Google ha messo online il suo nuovo rapporto sulla sostenibilità delle proprie attività. A pagina 31 di questo rapporto si legge un dato molto significativo: l’anno scorso le sue emissioni di gas serra sono aumentate del 48% rispetto al 2019 principalmente a causa degli aumenti dei consumi di energia dei data center e delle emissioni della catena di approvvigionamento”, scrive il rapporto, aggiungendo che “man mano che integriamo ulteriormente l’IA nei nostri prodotti, ridurre le emissioni potrebbe essere impegnativo a causa dei crescenti fabbisogni energetici dovuti alla maggiore intensità dei calcoli legati all’IA” [“In 2023, our total GHG emissions were 14.3 million tCO2e, representing a 13% year-over-year increase and a 48% increase compared to our 2019 target base year. […] As we further integrate AI into our products, reducing emissions may be challenging due to increasing energy demands from the greater intensity of AI compute, and the emissions associated with the expected increases in our technical infrastructure investment.”].

Fin dal 2007, Google aveva dichiarato ogni anno che stava mantenendo una cosiddetta carbon neutralityoperativa, ossia stava compensando le proprie emissioni climalteranti in modo da avere un impatto climatico sostanzialmente nullo. Ma già nella versione 2023 di questo rapporto ha dichiarato invece che non è più così, anche se ambisce a tornare alla neutralità entro il 2030.

Anche Microsoft ammette che l’intelligenza artificiale sta pesando sui suoi sforzi di sostenibilità. Nel suo rapporto apposito, l’azienda scrive che le sue emissioni sono aumentate del 29% rispetto al 2020 a causa della costruzione di nuovi data center, concepiti e ottimizzati specificamente per il carico di lavoro dell’intelligenza artificiale.

E a proposito di costruzione di data center, Bloomberg fa notare che il loro numero è raddoppiato rispetto a nove anni fa: erano 3600 nel 2015, oggi sono oltre 7000, e il loro consumo stimato di energia elettrica equivale a quello di tutta l’Italia.

Distillando questa pioggia di numeri si ottiene un elisir molto amaro: l’attuale passione mondiale per l’uso onnipresente dell’intelligenza artificiale ha un costo energetico e un impatto ambientale poco visibili, ma molto reali, che vanno contro l’esigenza di contenere i consumi per ridurre gli effetti climatici. È facile vedere proteste molto vistose contro i voli in aereo, per esempio, e c’è una tendenza diffusa a rinunciare a volare come scelta di tutela dell’ambiente. Sarebbe ironico se poi chi fa questi gesti passasse la giornata a trastullarsi con ChatGPT perché non si rende conto di quanto consumo energetico ci stia dietro.

Per fare un paragone concreto e facile da ricordare, se quei 2,9 wattora necessari per una singola richiesta a ChatGPT venissero consumati attingendo alla batteria del vostro smartphone, invece che a qualche datacenter dall’altra parte del mondo, il vostro telefonino sarebbe completamente scarico dopo soltanto quattro domande. Se usaste delle normali batterie stilo, ne dovreste buttare via una ogni due domande.


Ognuno di noi può fare la propria parte per contenere questo appetito energetico smisurato, semplicemente scegliendo di non usare servizi basati sull’intelligenza artificiale remota se non è strettamente indispensabile. Ma esiste anche un altro modo per usare l’intelligenza artificiale, che consuma molto, molto meno: si chiama tiny AI, ossia microintelligenza artificiale locale [locally hosted tiny AI].

Si tratta di software di IA che si installano e funzionano su computer molto meno potenti ed energivori di quelli usati dalle grandi aziende informatiche, o addirittura si installano sugli smartphone, e lavorano senza prosciugarne la batteria dopo quattro domande. Hanno nomi come Koala, Alpaca, Llama, H2O-Danube, e sono in grado di generare testi o tradurli, di rispondere a domande su vari temi, di automatizzare la scrittura di un documento, di trascrivere una registrazione o di riconoscere una persona, consumando molta meno energia delle intelligenze artificiali online.

Per esempio, una microintelligenza artificiale può essere installata a bordo di una telecamera di sorveglianza, su un componente elettronico che costa meno di un dollaro e ha un consumo energetico trascurabile: meno dell’energia necessaria per trasmettere la sua immagine a un datacenter remoto tramite la rete telefonica cellulare.

Nella tiny AI, l’elaborazione avviene localmente, sul dispositivo dell’utente, e quindi non ci sono problemi di privacy: i dati restano dove sono e non vengono affidati a nessuno. Bisogna però cambiare modo di pensare e di operare: per tornare all’esempio della telecamera, invece di inviare a qualche datacenter le immagini grezze ricevute dalla telecamera e farle elaborare per poi ricevere il risultato, la tiny AI le elabora sul posto, direttamente a bordo della telecamera, e non le manda a nessuno: se rileva qualcosa di interessante, trasmette al suo proprietario semplicemente l’avviso, non l’intera immagine, con un ulteriore risparmio energetico.

Non si tratta di alternative teoriche: queste microintelligenze sono già in uso, per esempio, negli occhiali smart dotati di riconoscimento vocale e riconoscimento delle immagini. Siccome devono funzionare sempre, anche quando non c’è connessione a Internet, e dispongono di spazi limitatissimi per le batterie, questi oggetti devono per forza di cose ricorrere a un’intelligenza ultracompatta e locale.

Ma allora perché le grandi aziende non usano questa soluzione dappertutto, invece di costruire immensi datacenter? Per due motivi principali. Il primo è tecnico: queste microintelligenze sono brave a fare una sola cosa ciascuna, mentre servizi come Google Gemini o ChatGPT sono in grado di rispondere a richieste di molti tipi differenti e più complesse, che hanno bisogno di attingere a immense quantità di dati. Ma le richieste tipiche fatte dagli utenti a un’intelligenza artificiale sono in gran parte semplici, e potrebbero benissimo essere gestite da una tiny AI. Troppo spesso, insomma, si impugna un martello per schiacciare una zanzara.

Il secondo motivo è poco tecnico e molto commerciale. Se gli utenti si attrezzano con una microintelligenza propria, che oltretutto spesso è gratuita da scaricare e installare, crolla tutto il modello di business attuale, basato sull’idea di convincerci che pagare un abbonamento mensile per avere servizi basati sull’intelligenza artificiale remota sia l’unico modello commerciale possibile.

La scelta, insomma, sta a noi: o diventare semplici cliccatori di app chiavi in mano, che consumano quantità esagerate di energia e creano una dipendenza molto redditizia per le aziende, oppure rimboccarsi un pochino le maniche informatiche e scoprire come attrezzarsi con un’intelligenza artificiale locale, personale, che fa quello che vogliamo noi e non va a raccontare a nessuno i nostri fatti personali. E come bonus non trascurabile, riduce anche il nostro impatto globale su questo fragile pianeta.

Fonti aggiuntive

Ultra-Efficient On-Device Object Detection on AI-Integrated Smart Glasses with TinyissimoYOLO, Arxiv.org, 2023

Tiny VLMs bring AI text plus image vision to the edge, TeachHQ.com, 2024

Tiny AI is the Future of AI, AIBusiness, 2024

The Surprising Rise of “Tiny AI”, Medium, 2024

I test AI chatbots for a living and these are the best ChatGPT alternatives, Tom’s Guide, 2024