Questo è il testo della puntata del 28 aprile 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.
Lo streaming verrà pubblicato qui non appena verrà messo online.
[CLIP: voce di Schmidt che dice “[…] people are planning 10 gigawatt data centers […], an average nuclear power plant in the United States is one gigawatt. How many nuclear power plants can we make in one year while we’re planning this 10 gigawatt data center? […] data centers will require an additional 29 gigawatts of power by 2027 and 67 more gigawatts by 2030”] [Trascrizione integrale su Techpolicy.press; video su YouTube; spezzone dell’intervento su Instagram]
Questa è la voce di Eric Schmidt, ex amministratore delegato di Google, durante un’audizione davanti a una commissione per l’energia della Camera dei rappresentanti degli Stati Uniti, il 9 aprile scorso. Schmidt spiega che sono in corso di progettazione dei data center, vale a dire dei centri di calcolo per supportare l’intelligenza artificiale, che consumeranno 10 gigawatt ciascuno, ossia l’equivalente di dieci centrali nucleari. Il fabbisogno energetico stimato della IA, continua Schmidt, è di 29 gigawatt entro il 2027 e di altri 67 entro il 2030.
La sua domanda su quante centrali nucleari si possano costruire ogni anno per placare questa fame di energia è ovviamente abbastanza retorica, ma il suo intervento solleva una questione molto concreta. Quanta energia che servirebbe altrove stiamo bruciando per l’intelligenza artificiale? E di preciso, cosa stiamo ottenendo in cambio concretamente? Siamo sicuri che ne valga veramente la pena? Perché accanto a risultati interessanti e positivi in alcune nicchie, continuano ad accumularsi gli esempi di stupidità asinina di questa tecnologia e di figuracce da parte delle aziende che la adottano con eccessiva euforia.
Eppure i grandi nomi del settore informatico insistono a includere a forza la IA in tutti i loro prodotti, da Google a WhatsApp a Word, anche se gli utenti non l’hanno chiesta e in alcuni casi proprio non la vogliono, come è appena avvenuto appunto per WhatsApp.
Questa è la storia di alcuni di questi esempi e delle tecniche concrete che si possono adottare per resistere a un’avanzata tecnologica che per alcuni esperti è un’imposizione invadente e insostenibile.
Benvenuti alla puntata del 28 aprile 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Nella puntata del 24 marzo scorso ho già raccontato alcune delle stupidaggini enunciate con elettronica certezza dalle intelligenze artificiali sulle quali si stanno investendo montagne di miliardi. Ho citato per esempio il fatto che secondo la IA di Google, la trippa è kosher o meno a seconda della religione della mucca dalla quale proviene. Ora gli utenti hanno scoperto un’altra bizzarria fuorviante e ingannevole di questo software: se si chiede a Google il significato di un’espressione o di un modo di dire in inglese, il motore di ricerca spesso risponde mettendo in primo piano una spiegazione completamente falsa, inventata dall’intelligenza artificiale, e solo dopo elenca i normali risultati di ricerca.
Ma l’utente medio non ha modo di sapere che la spiegazione è totalmente sbagliata. Si rivolge appunto a Google perché non conosce quel modo di dire e non è un linguista esperto, e quindi tende a fidarsi di quello che Google gli dice. Anche perché glielo dice con enfatica autorevolezza, con tanto di link a fonti, che esistono ma in realtà dicono tutt’altro.
E così secondo Google esisterebbe per esempio in inglese il modo di dire “l’oritteropo abbassa lo sguardo sempre per primo”, che stando alla IA significherebbe che una persona di un certo tipo tende ad arrendersi facilmente se viene sfidata. Sempre Google afferma che in inglese si dice “non puoi leccare due volte un tasso” per indicare che non si può ingannare due volte la stessa persona, e si dice “c’è sempre una mangusta in ogni aula di tribunale” per riferirsi a una strategia legale adottata da alcuni avvocati [Bluesky]. È tutto falso; è tutta un’allucinazione generata dal modo in cui funziona l’intelligenza artificiale.
Un altro modo di dire inglese che non esiste se non nell’energivora fantasia di silicio della IA di Google è “quando l’ape ronza, le fragole cadono”. So che non esiste perché l’ho inventato io pochi minuti fa per questo podcast. Ma se chiedo lumi all’intelligenza artificiale di Google questa frase è un saying, ossia un modo di dire esistente e usato, e rappresenterebbe “l’importanza delle api nell’impollinazione e nella successiva maturazione dei frutti come appunto le fragole”. Lasciamo stare il fatto che la fragola non è un frutto nel senso botanico del termine (se volete sapere perché, la spiegazione è su Wikipedia): quello che conta è che l’utente si rivolge a Google per avere informazioni e invece ne ottiene sistematicamente una bugia che rischia di non saper riconoscere come tale.
Ma quello che conta ancora di più è che quell’utente ora si ritrova in cima ai risultati di ricerca una risposta generata dalla IA, che la voglia o no. E quindi ogni ricerca fatta su Google consuma molta più energia di prima.
È difficile dire quanta, perché ci sono tantissime variabili da considerare, ma il CEO di OpenAI, Sam Altman, ha scritto semiseriamente su X che già solo dire “per favore” e “grazie” a ChatGPT costa alla sua azienda decine di milioni di dollari in energia elettrica per elaborare le risposte a questi gesti di cortesia. Secondo una ricerca del Washington Post, far generare a una IA una cinquantina di mail lunghe 100 parole ciascuna consuma circa 7,5 kWh: quanto basta per fare grosso modo quaranta chilometri in auto elettrica.
L’unico modo pratico per evitare di contribuire a questo spreco di energia indesiderato e spesso inutile è usare un motore di ricerca alternativo privo di intelligenza artificiale o nel quale sia possibile disattivare le funzioni basate su IA, come per esempio DuckDuckGo [istruzioni; link diretto alle impostazioni].
In questo caso, insomma, l’intelligenza artificiale fornisce un disservizio, inganna gli utenti e spreca energia. Ma può anche fare molto di più: per esempio può danneggiare l’azienda che la usa. E se l’azienda in questione è una di quelle legate a doppio filo all’intelligenza artificiale, l’ironia della situazione diventa particolarmente vistosa.
Cursor.com è una delle principali aziende che sta cavalcando la popolarità dell’intelligenza artificiale come assistente per la scrittura rapida di software. Una decina di giorni fa, uno dei clienti di Cursor.com, uno sviluppatore di software, ha notato che non era più possibile collegarsi al sito dell’azienda da più di un dispositivo, cosa che invece prima si poteva fare. Gli sviluppatori lo fanno spessissimo per necessità di lavoro.
Il cliente ha contattato l’assistenza clienti di Cursor.com, e un assistente che si faceva chiamare Sam gli ha risposto via mail che questa situazione era normale e prevista, perché era dettata da una nuova regola legata a esigenze di sicurezza e ora serviva un abbonamento distinto per ciascun dispositivo. Ma la regola non esisteva: se l’era inventata Sam, che come avrete sospettato è un’intelligenza artificiale. Una IA che fra l’altro non dichiarava di essere una macchina e si spacciava per una persona.
Il cliente ha segnalato inizialmente la novità apparente su Reddit, e così molti altri utenti sviluppatori di Cursor.com, indignati per la grave riduzione dell’usabilità del software comportata da questa regola, hanno disdetto i loro abbonamenti, annunciando pubblicamente la loro decisione e spargendo la voce.
Ci sono volute tre ore prima che qualcuno di Cursor.com, una persona in carne e ossa, intervenisse e spiegasse che la nuova regola non esisteva e che si trattava di “una risposta inesatta data da un bot di supporto pilotato dalla IA”. Uno dei cofondatori dell’azienda ha chiesto pubblicamente scusa e il cliente che aveva segnalato inizialmente la situazione è stato rimborsato. Ma resta il fatto che Cursor.com non aveva avvisato gli utenti che l’assistenza clienti di primo livello era fatta da un’intelligenza artificiale e anzi dava alla sua IA un nome di persona. Anche qui, l’intelligenza artificiale veniva imposta agli utenti senza ma e senza se.
È particolarmente ironico che un’azienda che vive di intelligenza artificiale e che fa soldi vendendo strumenti di miglioramento della produttività basati su IA sia stata tradita dal proprio eccesso di fiducia in questa tecnologia, che ha fatto ribellare i suoi utenti chiave, esperti di informatica. E la lezione di fondo, per qualunque azienda, è che esporre verso i clienti un chatbot che genera risposte usando l’intelligenza artificiale comporta un rischio reputazionale altissimo; prima o poi quella IA avrà una cosiddetta allucinazione e produrrà una risposta falsa e dannosa [Ars Technica].
E i campioni in fatto di esposizione al pubblico di intelligenze artificiali sono i motori di ricerca come Google e i servizi conversazionali di IA come ChatGPT, Claude o Perplexity. O perlomeno lo sono stati fino a pochi giorni fa, quando sono stati spodestati dall’introduzione di un servizio di intelligenza artificiale in WhatsApp e altre applicazioni. Nelle prossime settimane, circa due miliardi e mezzo di persone in tutto il mondo si troveranno imposto a forza il servizio di IA di Meta.
Se avete notato un cerchio blu nel vostro WhatsApp, in Facebook Messenger o in Instagram, avete già ricevuto l’intelligenza artificiale di Meta: un chatbot che risponde alle vostre domande usando la IA gestita dall’azienda di Mark Zuckerberg. Come tutte le intelligenze artificiali, genera risposte che possono essere completamente sbagliate ma superficialmente plausibili, e questo Meta lo dice nel lungo messaggio di avviso che compare la prima volta che si avvia Meta AI (si chiama così).
Il problema è che questa intelligenza artificiale di Meta non è disattivabile o rimovibile: è imposta. Certo, Meta dichiara che Meta AI non può leggere le vostre conversazioni, quindi basterebbe ignorarla e far finta che non ci sia. Ma la tentazione è forte, e miliardi di persone che non hanno mai interagito con una IA e non ne conoscono pregi e limiti proveranno a usarla senza leggere le avvertenz,e in molti casi, e crederanno che sia attendibile.
Quelle avvertenze, fra l’altro, sconsigliano di “condividere informazioni, anche sensibili, su di te o altre persone che non vuoi che l’IA conservi e utilizzi”, e dicono che “Meta condivide le informazioni con partner selezionati”. E in una mail separata, che moltissimi non leggeranno, Meta avvisa che userà le informazioni pubbliche degli utenti, “come commenti e post dagli account di persone di almeno 18 anni sulla base degli interessi legittimi.”
In altre parole, qualunque conversazione fatta con questa IA, qualunque domanda di natura medica, qualunque richiesta di informazioni su qualunque persona, argomento, prodotto o servizio verrà digerita dalla IA di Meta e venduta ai pubblicitari. Cosa mai potrebbe andare storto? [BBC]
È vero che Meta specifica, sempre nella mail separata, che ogni utente ha il diritto di opporsi all’uso delle sue informazioni. Ma quanti sapranno di questo diritto? E di questi, quanti lo eserciteranno? E soprattutto, ancora una volta, all’utente viene imposto un servizio di intelligenza artificiale potenzialmente ficcanaso e spetta a lui o lei darsi da fare per non esserne fagocitato.
Lo stesso tipo di adozione forzata si vede in Word e Powerpoint e in generale nei prodotti Microsoft: tutti integrano Copilot, la IA dell’azienda, e gli utenti devono arrabattarsi, spesso con modifiche molto delicate e poco ortodosse di Windows, se non vogliono avere tra i piedi l’onnipresente icona di Copilot. Bisogna per esempio modificare delle voci nel Registro oppure adottare una versione particolare di Windows 10 garantita fino al 2032 [The Register].
La domanda di fondo, dopo questa carrellata di esempi, è molto semplice: se l’intelligenza artificiale generalista è davvero un’invenzione così efficace e utile agli utenti come viene detto dai suoi promotori, perché le aziende sentono il bisogno di imporcela invece di lasciare che siamo noi a scegliere di adottarla perché abbiamo visto che funziona?
Ho provato a fare questa domanda a ChatGPT, e la sua risposta è stata particolarmente azzeccata e rivelatrice: “L’adozione forzata dell’IA” dice ChatGPT “non nasce tanto dal fatto che non funziona, ma piuttosto da dinamiche di potere, controllo del mercato, gestione dell’innovazione e tentativi di plasmare le abitudini degli utenti. Ma la vera prova di efficacia dell’IA sarà quando gli utenti vorranno usarla non perché devono, ma perché vogliono.”
So che in realtà sta semplicemente usando le parole chiave della mia domanda per rispondermi in modo appagante. Ma lo sta facendo dannatamente bene. Resistere alle sue lusinghe di instancabile yesman sarà davvero difficile. Prepariamoci.