Podcast RSI – Quando l’IA non è A: la beffa miliardaria di Builder.ai
Questo è il testo della puntata del 9 giugno 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.
Lo streaming verrà pubblicato qui non appena verrà messo online.
[CLIP: inizio dello spot promozionale di Builder.ai, ancora online su YouTube]
Un’azienda informatica operante nel settore dell’intelligenza artificiale applicata alla programmazione e valutata un miliardo e mezzo di dollari è crollata sotto gli occhi dei suoi investitori, fra i quali spicca Microsoft, perché è emerso che il suo prodotto basato sulla IA era molto I ma poco A: la sua strombazzata “intelligenza artificiale”, infatti, era in realtà quasi interamente costituita da 700 informatici residenti in India, pagati da 8 a 15 dollari l’ora per fingere di essere un software.
Questa è la storia di Builder.ai, che probabilmente è il più grosso flop di questo periodo di delirio di investimenti su qualunque cosa legata all’intelligenza artificiale, ma non è l’unico: è stato stimato che il 40% delle startup che hanno annunciato di avere un prodotto basato sull’intelligenza artificiale in realtà non usano affatto questa tecnologia ma simulano di averla per attirare più capitali. E finalmente comincia a serpeggiare una domanda: quanto di questo boom estenuante dell’intelligenza artificiale è solo marketing o addirittura sconfina nella truffa?
Benvenuti alla puntata del 9 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Builder.ai era una delle grandi speranze legate all’intelligenza artificiale nel Regno Unito. La startup londinese aveva raccolto 450 milioni di dollari di finanziamenti in capitale di rischio, principalmente da Microsoft e dal fondo sovrano di investimento del Qatar, uno dei più grandi del mondo. Il suo prodotto era Natasha, un’intelligenza artificiale che a suo dire permetteva ai clienti di creare app o addirittura interi siti di commercio elettronico semplicemente conversando con lei, senza aver bisogno di sapere nulla di programmazione. Nel 2023, quando Microsoft aveva investito in Builder.ai, uno dei vicepresidenti dello storico colosso del software, Jon Tinter, aveva detto che Builder.ai stava “creando una categoria completamente nuova che dà a tutti il potere di diventare sviluppatori” [GlobeNewsWire, 2023], e Microsoft aveva intenzione di integrare Natasha nel suo onnipresente Teams.
Ma il mese scorso Builder.ai ha presentato istanza di fallimento negli Stati Uniti, con debiti stimati fra i 50 e i 100 milioni di dollari [Courtlistener; Courtlistener], perché le indagini giornalistiche e quelle degli investitori hanno rivelato pratiche di contabilità estremamente sospette e perché è emerso che Natasha non esisteva: era solo una facciata di marketing, per nascondere il fatto poco vendibile che la sua cosiddetta intelligenza artificiale era in realtà costituita da un gruppo di 700 analisti, sviluppatori e programmatori residenti a Delhi, in India, addestrati a fingere di essere una IA, tanto che i dipendenti dicevano scherzosamente che “AI”, l’acronimo inglese che indica l’intelligenza artificiale, stava in realtà per “Another Indian”, ossia “un altro indiano”. I tecnici di Builder.ai si autodefinivano “un call center, ma con un marketing migliore”. Natasha si prendeva il merito e i clienti credevano di interagire con una straordinaria intelligenza artificiale capace di sviluppare app meglio degli esseri umani.
E le cose andavano avanti così da anni, fin dal 2016, quando l’azienda si chiamava Engineering.ai, e sono andate avanti nonostante il fatto che già nel 2019, quindi sei anni fa, le indagini del Wall Street Journal avevano fatto emergere il fatto che la sedicente IA dell’azienda era in realtà la maschera che copriva i volti di sviluppatori in carne e ossa [The Verge; WSJ], anche se il CEO di allora, Sachin Duggal, andava in giro a dire pubblicamente che il lavoro di sviluppo delle app era svolto per più dell’80% dall’intelligenza artificiale [Builder.ai su Facebook, video del 2018].
Sempre nel 2019, il responsabile commerciale di Engineering.ai, Robert Holdheim, aveva fatto causa all’azienda accusandola di esagerare le proprie capacità di intelligenza artificiale per ottenere gli investimenti che le servivano per sviluppare realmente la tecnologia che diceva di avere già [The Verge]. Ma ci sono voluti quasi nove anni perché i nodi arrivassero al pettine, e nel frattempo Builder.ai si è lasciata dietro una scia di investitori prestigiosi che ora si rendono conto di essere stati beffati.
La febbre dell’intelligenza artificiale arde ormai da parecchi anni, e molti investitori si lasciano sedurre dal marketing invece di analizzare la sostanza delle aziende che finanziano. E il caso di Builder.ai non è isolato. Secondo un’analisi della società di investimenti britannica MMC Ventures datata 2019, “le startup che hanno qualche sorta di componente IA possono attirare fino al 50% in più di investimenti rispetto alle altre società di software” ma “si sospetta che il 40% o più di queste startup non usi in realtà nessuna forma di intelligenza artificiale” [The Verge].
Per esempio, ad aprile 2025 è emerso che l’app di shopping Nate, che affermava di permettere agli utenti di completare gli acquisti nei negozi online facendo un solo clic grazie all’intelligenza artificiale, in realtà sfruttava centinaia di lavoratori nelle Filippine, che non facevano altro che completare a mano gli acquisti iniziati dai clienti. Secondo il Dipartimento di Giustizia statunitense, che ha incriminato l’ex CEO dell’azienda che gestiva questa app, il tasso effettivo di automazione di questa app era zero e il CEO ha nascosto intenzionalmente questo fatto agli investitori, dai quali è riuscito a farsi dare oltre 40 milioni di dollari.
Un altro esempio: nel 2023 la Presto Automation, società che offriva un popolare software per automatizzare gli ordini e gli acquisti nelle più importanti catene di fast food, ha ammesso che oltre il 70% degli ordini che a suo dire venivano gestiti dall’intelligenza artificiale erano in realtà presi in carico da lavoratori anche stavolta nelle Filippine [The Verge; Bloomberg]. La società è finita sotto indagine da parte delle autorità statunitensi di vigilanza sui mercati.
Nel 2016 Bloomberg ha segnalato il caso delle persone che lavoravano per dodici ore al giorno fingendo di essere dei chatbot per i servizi di gestione delle agende, come per esempio X.ai e Clara. Nel 2017 è emerso che i gestori di Expensify, una app che dichiarava di usare una “tecnologia di scansione smart” per leggere e digitalizzare ricevute e scontrini, in realtà sfruttava dei lavoratori umani sottopagati, che ovviamente venivano a conoscenza di tutti i dati personali dei clienti. E si potrebbe citare anche Facebook, il cui assistente virtuale per Messenger, denominato M, dal 2015 al 2018 si è appoggiato in realtà a esseri umani per oltre il 70% delle richieste [The Guardian].
In altre parole, l’intelligenza artificiale viene spesso usata come luccicante foglia di fico per coprire il fatto che si vuole semplicemente sfruttare una manodopera più a buon mercato di quella locale.
Non è che quelli che operano nel settore dell’intelligenza artificiale siano tutti truffatori o venditori di fumo: in parte il fenomeno delle IA fittizie è dovuto al fatto che spesso l’intelligenza artificiale sembra funzionare bene durante la fase di test ma fallisce quando viene esposta alle complessità del mondo reale e viene usata su vasta scala. Inoltre procurarsi i dati necessari per l’addestramento di una IA dedicata è molto costoso e richiede molto tempo.
C’è anche il fatto che l’intelligenza artificiale attuale ha ancora molto bisogno di intervento umano, e oltretutto di intervento umano qualificato, che costa, e quindi le promesse di riduzione dei costi spesso si rivelano vane. Per esempio, i social network, nonostante spingano insistentemente per l’adozione di massa delle intelligenze artificiali, non riescono ancora a usarle per moderare automaticamente i contenuti pubblicati dagli utenti e sono tuttora costretti a subappaltare questo compito a esseri umani, anche in questo caso sottopagati, ma siccome ammettere questa situazione non è cool e non fa bene alla quotazione in borsa, si continua a far finta di niente e si cerca di far sembrare che questa tecnologia sia più sofisticata di quanto lo sia realmente.
A questo miraggio della IA come tecnologia magica e affidabile credono in molti, compresi i professionisti di vari settori. Nella puntata precedente di questo podcast ho raccontato alcuni incidenti molto costosi e imbarazzanti che hanno coinvolto per esempio gli avvocati di vari paesi, che si sono affidati alle intelligenze artificiali per preparare le loro cause senza rendersi conto che questi software non sono fonti attendibili perché per natura tendono a inventarsi le risposte ai quesiti degli utenti. Dal Regno Unito arriva un aggiornamento che mostra quanto sia diventato grave e diffuso questo uso scorretto.
L’Alta corte di giustizia dell’Inghilterra e del Galles, un tribunale superiore che vigila sulle corti e i tribunali ordinari, ha rilasciato la settimana scorsa un documento indirizzato a tutti gli operatori di giustizia di sua competenza che è in sostanza una solenne lavata di capo a chi, per professione, dovrebbe sapere benissimo che non si va in tribunale portando fonti cercate rivolgendosi a ChatGPT, Gemini e simili senza verificarle.
Erano già state emanate delle direttive che mettevano in guardia contro i rischi di perdite di tempo e di equivoci derivati dall’uso improprio dell’intelligenza artificiale in campo legale, ma dopo un caso nel quale una causa di risarcimento per danni finanziari ammontanti a ben 89 milioni di sterline (circa 105 milioni di euro) è stata presentata fornendo al tribunale 45 precedenti inesistenti e fabbricati da un’intelligenza artificiale generativa, l’Alta corte ha deciso che a questo punto “è necessario prendere misure pratiche ed efficaci” contro questo fenomeno, come l’ammonimento pubblico dell’avvocato coinvolto, l’imposizione di una sanzione per i costi inutili causati, l’annullamento dell’azione legale e, nei casi più gravi, il processo per oltraggio alla corte o la segnalazione alla polizia [Pivot to AI].
L’aspetto forse più sorprendente, in tutte queste vicende legate all’intelligenza artificiale, è che non sono coinvolte persone qualsiasi, ma professionisti altamente qualificati, sia in campo legale sia in campo finanziario. Tutta gente che teoricamente dovrebbe sapere che prima di investire il proprio denaro (o quello degli altri) bisogna informarsi seriamente e indipendentemente sulla solidità della proposta, senza fidarsi delle patinate presentazioni aziendali, e che altrettanto teoricamente dovrebbe sapere che per fare le ricerche di precedenti legali non si va su Google e si prende per buono qualunque cosa risponda, ma si usano i servizi di ricerca professionali appositi. E invece ci cascano, e continuano a cascarci.
I catastrofisti dell’intelligenza artificiale dipingono spesso scenari inquietanti nei quali le macchine prima o poi acquisiranno un intelletto superiore a quello umano e quindi prenderanno il controllo di tutto. Ma forse non c’è bisogno di far leva sulla superiorità intellettiva. È sufficiente giocare sulla nostra tendenza a credere non a quello che è vero, ma a quello che vorremmo che fosse vero.
Gli investitori superpagati vogliono credere che investire nell’IA li farà diventare ancora più ricchi, e gli avvocati vogliono credere di poter delegare il loro lavoro a un software ottuso e incassare laute parcelle facendo meno fatica. E così l’intelligenza artificiale generativa dei grandi modelli linguistici come ChatGPT, Claude o Gemini, con la sua parlantina scioltissima e le sue risposte apparentemente così autorevoli, diventa l’imbonitore perfetto per rifilare fregature.