Questo è il testo della puntata del 13 aprile 2026 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.
[CLIP: audio di Michael Geoffrey Asia da https://www.youtube.com/watch?v=QH654YPxvEE]
È la voce di Michael Geoffrey Asia, un uomo che vive in Kenya e per cinque anni ha fatto data labeling per lavoro: ha annotato, etichettato e descritto immagini e video da dare in pasto alle intelligenze artificiali per addestrarle.
Ne è uscito distrutto psicologicamente, come tanti uomini e tante donne del suo Paese, perché per questo lavoro ha dovuto descrivere minuziosamente immagini e video raccapriccianti, che mostravano incidenti mortali, uccisioni, abusi, violenze e altri orrori, per ore di fila, in una sorta di moderna Arancia meccanica. Perché un’intelligenza artificiale commerciale come ChatGPT o Gemini, per funzionare, ha bisogno di saper riconoscere anche queste cose, e quindi qualcuno gliele deve mostrare e spiegare in dettaglio.
Questa è la storia del lato oscuro delle IA che tutti usiamo con leggerezza: dietro la luccicante, asettica facciata dei miliardari della Silicon Valley ci sono lavoratori sottopagati e privi di qualunque sostegno psicologico, costretti a vedere cose che nessun essere umano dovrebbe subire. Michael Geoffrey Asia è una delle persone che stanno cercando, con fatica, di contrastare questo sfruttamento.
Benvenuti alla puntata del 13 aprile 2026 del Disinformatico, il podcast mensile della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Il data labeling, o etichettatura dei dati, sembra un argomento tedioso, un dettaglio trascurabile delle tecnologie che stanno alla base delle intelligenze artificiali, ma non è così.
In sintesi, le IA “imparano” (per così dire) a riconoscere gli oggetti del mondo reale perché qualcuno fornisce loro un numero enorme di immagini accuratamente etichettate: questo è un gattino accucciato su un ramo di un albero, questo è un semaforo stradale che segna rosso per i pedoni, queste sono persone in costume da bagno che mangiano un gelato, e così via.
A differenza degli esseri umani, le intelligenze artificiali hanno bisogno di moltissimi esempi prima di riuscire a generalizzare un concetto di oggetto. Un bambino vede un gatto per la prima volta ed è subito in grado di riconoscere qualunque altro gatto in qualunque situazione. Invece per insegnare a un’intelligenza artificiale come riconoscere una persona, per esempio, bisogna mostrarle immagini di bambini e di adulti, in tante posizioni e situazioni differenti, con lineamenti e colori della pelle diversi, con abbigliamenti di ogni sorta, di giorno e di notte, al coperto e all’aperto, eccetera eccetera.
I casi possibili sono molto più numerosi di quello che immaginiamo normalmente: per esempio, una IA potrebbe non riconoscere come persona un uomo che porta un bambino in braccio o sulle spalle, una donna che ha un braccio solo, un tifoso che si è dipinto la faccia con i colori della squadra del cuore, un soccorritore accucciato, un vigile che dirige il traffico, un ragazzo su una sedia a rotelle oppure una donna con il volto insanguinato dopo un incidente notturno.
Un’etichettatura imprecisa o incompleta può avere delle conseguenze reali terribili. Pensiamo per esempio alle auto a guida assistita o autonoma, nelle quali l’intelligenza artificiale deve riconoscere gli oggetti inquadrati dalle telecamere del veicolo per consentire al sistema di guida di decidere correttamente come comportarsi. Davanti all’auto c’è un pedone, o si tratta di un’immagine pubblicitaria sul retro di un furgone? Quella sagoma sull’asfalto è un telo caduto da un camion o è una persona ferita o incosciente? Un errore di riconoscimento potrebbe costare la vita a qualcuno.
Tutto questo lavoro meticoloso di etichettatura deve essere svolto da esseri umani. Non può essere delegato a un’intelligenza artificiale se non in piccolissima parte. E deve continuare nel tempo, perché oltre all’etichettatura delle immagini per l’addestramento delle IA c’è anche quella per la moderazione dei contenuti dei social network. Ogni giorno milioni di utenti irresponsabili tentano di postare immagini inaccettabili sui social, dalle decapitazioni agli abusi su minori alle torture; i filtri automatici e gli utenti possono segnalarle, ma poi qualcuno in carne e ossa deve valutarle professionalmente.
Nel 2024 il Guardian ha segnalato il caso di Mercy, moderatrice di contenuti di Meta (quindi Facebook, Instagram e Threads) presso un’azienda esterna che ha sede a Nairobi. Faceva turni di dieci ore ed era tenuta a risolvere un caso ogni 55 secondi. Un giorno le è capitato un video di un incidente stradale, segnalato come inaccettabile da un utente su Facebook per la sua natura violenta e macabra. Mercy doveva valutare se il video violasse o meno le regole sui contenuti di questo social network. A un certo punto si è accorta che la vittima era suo nonno. I suoi datori di lavoro le hanno concesso una pausa per contattare i membri della sua famiglia, ma poi le hanno detto di proseguire il turno se voleva raggiungere la propria quota giornaliera. Sul suo schermo sono apparsi altri video da moderare: mostravano ancora suo nonno, con altre immagini dell’auto e delle quattro persone morte nell’incidente.
Come Mercy, ci sono ogni giorno migliaia di lavoratori e lavoratrici, in molti Paesi africani, che sono sottoposti a un flusso continuo di immagini orrende di ogni genere: suicidi, torture, stupri. Non possono semplicemente dare un’occhiata a queste immagini: devono descriverle dettagliatamente, in modo che le intelligenze artificiali possano poi riconoscerle e integrarle. E devono guardare ogni video fino in fondo, perché nel finale potrebbe mostrare cose ancora peggiori di quelle che hanno già visto nella sua parte iniziale.
Dietro la magia dell’intelligenza artificiale c’è insomma la sofferenza di chi deve ripulire la fogna della morbosità umana.
So direttamente cosa significa essere esposti a contenuti di questo genere. Negli anni in cui mi sono occupato delle teorie cospirazioniste intorno agli attentati dell’11 settembre 2001 ho dovuto visionare le immagini dei corpi dilaniati di quel giorno: quelli degli occupanti degli aerei dirottati e quelli delle vittime negli edifici colpiti. Tutte persone che, secondo certi complottisti, non esistevano o erano attori e attrici pagati per simulare. Nelle mie perizie informatiche ho visto e analizzato immagini di abusi irriferibili. Come chiunque lavori nel pronto soccorso o nelle forze di polizia, ho assistito a cose che non riesco a dimenticare. L’idea di passare ore ogni giorno ad annotare minuziosamente contenuti di questo tipo per lavoro, al ritmo minimo di cinquecento casi al giorno, è assolutamente inimmaginabile.
Le conseguenze psicologiche su chi lavora nel data labeling e nella moderazione dei contenuti dei social network sono pesantissime. I casi di disturbi post-traumatici da stress non si contano. E il loro ambiente di lavoro è a dir poco orwelliano: uno speciale software sorveglia ogni loro clic, ogni loro gesto. Chi corre via dalla propria scrivania perché non ce la fa più a vedere l’ennesimo video di violenza estrema viene rimproverato perché non ha immesso nel proprio computer il codice che indica che si sta prendendo una pausa.
Chi ha lavorato nel campo della moderazione dei siti pornografici e della classificazione dei loro video per addestrare le intelligenze artificiali specializzate in questi contenuti e per creare partner intimi virtuali o sexbot pilotati dalla IA, ha segnalato una desensibilizzazione che ha avuto ricadute pesanti sulla sua vita intima.
Michael Geoffrey Asia ha inoltre rivelato che dietro molti di questi sexbot ufficialmente controllati da intelligenze artificiali si nascondono persone reali che fingono di essere sofisticate intelligenze artificiali.
Le aziende che si buttano nel mercato dell’IA facendo finta di avere un prodotto maturo e affidabile che in realtà non hanno sono tante. Per esempio, nel 2014 furono presentati numerosi assistenti personali ufficialmente basati su intelligenze artificiali, come X.ai o Clara, ma che in realtà usavano persone che fingevano di essere delle IA che fingevano di essere persone [Bloomberg].
In tempi più recenti, a marzo 2026 Tesla ha ammesso [Wired] che i suoi robotaxi, ufficialmente guidati dall’intelligenza artificiale, dispongono in realtà di operatori remoti che possono (cito) “assumere temporaneamente il controllo diretto del veicolo” (a bassa velocità) se il software di bordo non riesce a risolvere una situazione. Altre aziende che gestiscono flotte analoghe di taxi, come Waymo e Zoox di Amazon, hanno assistenti remoti che non prendono direttamente il volante ma si limitano, si fa per dire, a indicare al veicolo cosa fare. Però questi assistenti remoti umani, nel caso di Waymo, stanno nelle Filippine. E tutte queste aziende sono molto reticenti a fornire dati precisi sul numero di questo interventi manuali, perché questo toglierebbe l’aura di fascino magico intorno ai loro prodotti e rivelerebbe quanto sono in realtà limitate le loro intelligenze artificiali tanto magnificate.
Un’altra conseguenza di questo modo di commercializzare i prodotti inghirlandandoli con la sigla magica “IA” è che molti utenti credono che le loro interazioni con questi software siano private, perché gestite interamente da computer, e i computer non giudicano, non criticano. Ma in realtà l’intervento umano c’è quasi sempre e quindi i video, per esempio, non sono affatto privati: come ho raccontato nella puntata precedente di questo podcast, anche dietro gli attuali occhiali “smart” di Meta ci sono degli operatori umani, che in molti casi vedono le immagini riprese da questi dispositivi e le etichettano. Questi operatori lavorano per aziende come Sama, in Kenya, su incarico di Meta. Sama è una delle aziende di data labeling per le quali ha lavorato Michael Geoffrey Asia.
Asia adesso ha smesso di lavorare per queste società. È segretario generale di un’organizzazione chiamata Data Labelers Association, che cerca di coordinare i lavoratori del settore per ottenere paghe meno da fame, supporto psicologico decente e l’eliminazione degli NDA o non-disclosure agreement, ossia le clausole capestro dei contratti di lavoro del settore che vietano ai dipendenti di rivelare qualunque informazione riguardante le attività aziendali e creano una cultura della paura che genera omertà intorno a questo sfruttamento.
Come nota un’inchiesta giornalistica di 404media uscita poche settimane fa, i data labeler addestrano, affinano e moderano i prodotti generati dagli strumenti di intelligenza artificiale venduti dalle più grandi aziende del mondo, eppure sono paurosamente sottopagati e non hanno beneficiato in alcun modo delle valutazioni sempre più stratosferiche di queste aziende. Ora hanno avviato azioni legali per chiedere parità di diritti invece di trattamenti che sanno di neocolonialismo digitalizzato.
È indubbio che questo lavoro debba essere fatto da qualcuno, ma come dice Asia, cosa c’è di così difficile nel fornire almeno supporto psicologico alle persone che trattano contenuti traumatizzanti? Ad Apple, Meta, Amazon, Microsoft e Google non mancano certo le risorse economiche per farlo.
L’intelligenza artificiale, insomma, non è “uno strumento magico costruito da persone a San Francisco che guadagnano milioni di dollari l’anno e portano le proprie aziende ad avere valutazioni di mercato pazzesche. È una tecnologia estrattiva, come una miniera, che si appoggia sulla fatica brutale di lavoratori sottopagati in tutto il mondo”, dice 404media, e di cui si cerca di non parlare perché le loro sofferenze guasterebbero l’immagine patinata del mondo hi-tech.
Per dirla con Michael Geoffrey Asia: “L’IA non può essere senza gli esseri umani. Non è intelligenza artificiale: è intelligenza africana.”
Ricordiamocene, la prossima volta che Elon Musk o Mark Zuckerberg o Sam Altman annunciano la “loro” nuova innovazione.