È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate
qui sul sito della RSI
(si apre in una finestra/scheda separata) e lo potete scaricare
qui.
Le puntate del Disinformatico sono ascoltabili anche tramite
iTunes,
Google Podcasts,
Spotify
e
feed RSS.
Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.
—
[CLIP: spezzone del finto spot di MrBeast]
L’intelligenza artificiale produce risultati notevolissimi nella generazione e
nel riconoscimento di immagini, nell’analisi di dati e testi e
nell’elaborazione di suoni, come nel caso delle voci sintetiche che sentirete
qua e là in questo podcast, ma non sempre le cose vanno così lisce come viene
raccontato da tanti annunci commerciali pieni di entusiasmo in questo settore.
La voce che avete appena sentito, per esempio, sembra quella di MrBeast, lo
YouTuber più seguito del mondo, ma è in realtà un falso che gli sta causando
parecchi guai. Intanto macOS fa pasticci attivando automaticamente una
funzione che fa comparire fuochi d’artificio e palloncini festosi anche nel
mezzo di riunioni video serissime; gli esperti dimostrano che una delle difese
più gettonate contro le immagini false online è sostanzialmente inutile; e
l’intelligenza artificiale fa dire a Google che le uova si possono
fondere e altre sciocchezze che è meglio conoscere e capire per non
farsi ingannare.
Benvenuti alla puntata del 6 ottobre 2023 del Disinformatico, il
podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie
strane dell’informatica, e in questo caso agli inciampi che l’intelligenza
artificiale subisce quando non viene supervisionata adeguatamente e quando chi
la usa ne è così innamorato che non pensa alle sue conseguenze. Io sono Paolo
Attivissimo.
[SIGLA di apertura]
macOS e i palloncini a sorpresa
“Sono un terapeuta e quindi è poco professionale che mi compaiano
all’improvviso dei palloncini mentre il mio cliente sta parlando di un suo
trauma”.
Scrive
così, in un forum di assistenza tecnica di Zoom, una delle vittime dell’ultimo
aggiornamento di macOS, denominato Sonoma, che ha introdotto le
cosiddette Reazioni automatiche: in pratica, se fate alcuni gesti
specifici con le mani davanti alla telecamera di un Mac recente durante una
videoconferenza o una videochiamata, quei gesti faranno partire
automaticamente delle animazioni sovrapposte alla vostra immagine e inserite
anche dietro di voi grazie all’intelligenza artificiale.
I palloncini di cui si lamenta il terapeuta, per esempio, compaiono se si fa
il gesto di vittoria o di pace, con l’indice e il medio che formano una V e il
palmo rivolto verso l’osservatore.
Tutti i gesti sono elencati in una
pagina apposita
del sito di Apple, ma il problema è che Apple ha deciso che era una buona idea
attivare automaticamente questa nuova funzione a tutti gli utenti,
senza avvisarli, per cui molte persone si sono trovate in imbarazzo, durante
riunioni, consulti medici o altre videochiamate piuttosto delicate, quando
sono comparsi a sorpresa palloncini, coriandoli, fuochi d’artificio, raggi
laser, cuoricini e altre frivolezze facilmente fuori luogo, generate dal
riconoscimento automatico delle immagini di macOS Sonoma.
Oltretutto questi malcapitati utenti non sono riusciti a capire
cosa avesse prodotto questi effetti speciali indesiderati, perché non
si sono resi conto che stavano gesticolando e che a un certo punto le loro
mani avevano assunto una delle posizioni riconosciute automaticamente da
macOS. Anzi, non sapevano nemmeno che Apple avesse attivato questa funzione.
Per evitare gaffe, come quella che è successa a me, fortunatamente in una
videoriunione informale, bisogna cliccare in macOS sull’icona verde a forma di
telecamera che compare sulla barra menu quando un’applicazione sta appunto
usando la telecamera, e poi cliccare sul pulsante verde Reazioni in
modo che diventi grigio.
Sembra insomma che Apple si sia innamorata così tanto di questa nuova funzione
da dimenticarsi una delle regole principali del software: quando si introduce
una novità importante, bisogna avvisare gli utenti e soprattutto renderla
opt-in, ossia lasciarla disattivata e proporla agli utenti anziché imporla a
sorpresa.
Tom Hanks e MrBeast travolti dai deepfake
MrBeast, lo YouTuber più
seguito del pianeta, con 189 milioni di iscritti, è famoso per i suoi video
sempre più costosi, spettacolari e assurdi in cui regala auto o altri beni a
sorpresa oppure offre premi molto ingenti. Qualcuno ha deciso di approfittare
della sua fama creando uno spot pubblicitario su TikTok in cui MrBeast, in
voce e in video, diceva di offrire un iPhone 15 Pro a 10.000 spettatori in
cambio di due dollari.
[CLIP: falso spot di MrBeast]
Lots of people are getting this deepfake scam ad of me… are social media platforms ready to handle the rise of AI deepfakes? This is a serious problem pic.twitter.com/llkhxswQSw
— MrBeast (@MrBeast) October 3, 2023
Ma si trattava di un deepfake
talmente ben fatto che ha superato i controlli di TikTok ed è stato
pubblicato, rimanendo online per alcune ore. Il paradosso è che questo
deepfake è stato realizzato usando l’intelligenza artificiale per
simulare la voce e il volto di MrBeast e anche TikTok usa l’intelligenza
artificiale, insieme a dei moderatori umani, per vagliare le pubblicità. In
altre parole, l’intelligenza artificiale dell’inserzionista disonesto ha
battuto quella di TikTok. Il fatto che MrBeast pubblichi davvero video in cui
fa regali costosi ha reso plausibile l’offerta dello spot fraudolento, e i
controllori umani non si sono fermati a verificare la cosa più elementare,
ossia la fonte dello spot, che non era legata affatto a MrBeast.
Anche il notissimo attore Tom Hanks è stato vittima di un
deepfake pubblicitario fraudolento che promuoveva su Internet
un’assicurazione dentistica usando la sua voce e il suo volto. Le due
celebrità hanno usato i propri
canali
social
per mettere in guardia gli utenti, ma è chiaro, come scrive anche MrBeast, che
“questo è un problema serio”
e che c’è da chiedersi se le piattaforme social siano
“pronte a gestire la crescente diffusione dei deepfake”
ingannevoli, adottando controlli più efficaci, o se hanno intenzione invece di
continuare a scaricare sugli utenti i danni della loro disinvoltura e tenersi
i profitti che ne derivano. Sembra infatti davvero strano che queste aziende
così ipertecnologiche non siano capaci di fare una cosa così semplice come
verificare le credenziali dei loro inserzionisti.
Fonti:
TechCrunch, Gizmodo, Ars Technica.
Il watermarking, “filigrana” contro i falsi dell’IA, non funziona
Una delle soluzioni proposte più spesso per arginare il fenomeno delle
immagini sintetiche indistinguibili da quelle reali è il cosiddetto
watermarking: l’inserimento obbligatorio di indicatori visibili o
comunque rilevabili tramite software in tutte le immagini generate
dall’intelligenza artificiale.
Molte aziende del settore, come Meta, Amazon, Google e OpenAI, hanno
sottoscritto
impegni a usare varie tecnologie, incluso in particolare il watermarking, per contrastare la disinformazione. L’idea di fondo è che le immagini
sintetiche vengano riconosciute e contrassegnate come false in tempo
reale, man mano che vengono generate o pubblicate.
Per esempio, un’immagine sintetica inviata a Instagram per la pubblicazione
verrebbe riconosciuta e modificata dal social network per inserirvi un
indicatore, una sorta di filigrana digitale che verrebbe rilevata dall’app di
Instagram presente sui dispositivi degli utenti. L’app potrebbe così avvisare
gli utenti che stanno guardando un’immagine non reale. A fine agosto scorso,
Google ha presentato
SynthID, un software che promette di fare proprio questo lavoro di identificazione e
marcatura.
Ma gli esperti hanno già
trovato
il modo di rimuovere
facilmente questi indicatori, usando paradossalmente proprio l’intelligenza
artificiale. Una delle loro tecniche consiste nell’aggiungere all’immagine del
cosiddetto rumore digitale casuale per distruggere il watermark
e poi nel ricostruire l’immagine usando metodi ben noti nel settore per
eliminare il rumore aggiunto in precedenza. Nei loro test sono riusciti a
rimuovere con successo uno dei watermark più robusti,
RivaGAN, in oltre il 90%
delle immagini.
Un altro metodo ancora più
insidioso è lo spoofing, in cui un aggressore inietta in un’immagine
reale un indicatore che la contrassegna come sintetica, creando confusione e
danno reputazionale a chi ha realizzato o diffuso l’immagine: in pratica, fa
credere al pubblico che un’immagine vera sia in realtà falsa e che chi l’ha
pubblicata sia un bugiardo.
La conclusione degli addetti ai lavori, insomma, è che nonostante le promesse
dei grandi nomi commerciali di Internet il watermarking
è inaffidabile e rischia di creare più confusione che benefici, rendendo
inutile anche questo tentativo di meccanizzare la fiducia, che sembra essere
un tema ricorrente di questo periodo in informatica. Forse la fiducia va
conquistata usando approcci meno automatizzati ma più collaudati e
comprensibili anche per i non tecnici, come la
provenienza di un’immagine, ossia la reputazione e l’attendibilità di
chi l’ha prodotta e di chi l’ha diffusa e pubblicata.
Fonte aggiuntiva:
Ars Technica.
Secondo Google le uova si possono fondere: l’ha detto Quora, che l’ha letto su ChatGPT
Già da qualche tempo gli esperti avvisano di non usare ChatGPT, Bing Chat e
altre intelligenze artificiali testuali come strumenti per la ricerca di
informazioni, perché tendono a generare risposte fantasiose e inaffidabili a
causa di un problema noto come allucinazione o
confabulazione. Per cercare informazioni attendibili, dicono, bisogna usare i motori di
ricerca. Ma c’è un problema: i motori di ricerca stanno cominciando a
integrare nei loro risultati anche le pseudoinformazioni generate dalle
intelligenze artificiali e stanno quindi perdendo la propria affidabilità.
Uno degli esempi più chiari e comici di questa tendenza è arrivato pochi
giorni fa, quando un utente che si fa chiamare Tyler Glaiel ha
notato
che la risposta breve o
snippet in primo piano di Google alla domanda “è possibile fondere le uova” era
“Sì, si può far fondere un uovo. Il modo più comune è riscaldarlo usando un
fornello o un forno a microonde.”
Giusto per chiarezza e per evitare equivoci, no, le uova non si possono
fondere, come si fonde il cioccolato, il metallo o il ghiaccio
applicando calore. Se si applica del calore a un uovo, la sua struttura
chimica cambia. Se il calore è sufficientemente intenso, l’uovo si
cuoce, non si fonde.
La risposta di Google è quindi sbagliata, e Google l’ha presa da
Quora, un sito molto popolare nel quale
gli utenti pubblicano domande e risposte su qualunque argomento. L’ha presa da
lì perché Quora fa in modo di comparire in cima ai risultati di Google (cioè
fa la cosiddetta search engine optimization o SEO). Ma la
risposta di Quora è clamorosamente sbagliata, perché da qualche tempo Quora
integra nelle risposte fornite dagli utenti anche quelle generate
dall’intelligenza artificiale, e la frase sulla possibilità di
fondere un uovo è stata generata usando ChatGPT, secondo quello che
dichiara Quora.
Ma in realtà Quora non usa la versione più recente di ChatGPT; ne usa una
versione vecchia
che notoriamente produce risultati molto inaffidabili ed è addirittura
sconsigliata dal
produttore, OpenAI.
In altre parole, la risposta sbagliata di Google non è di Google, ma è di
Quora, che a sua volta l’ha presa da ChatGPT.
L’errore ora è stato corretto, ma il metodo usato da Quora e da Google per
fornire risposte alle ricerche degli utenti è pericolosamente inattendibile.
Cosa anche peggiore, molte risposte generate da intelligenze artificiali
vengono lette e assorbite da Google, creando un circolo vizioso che peggiora
l’attendibilità del motore di ricerca.
A volte, fra l’altro, questo circolo vizioso è del tutto involontario: per
esempio, il testo di questo podcast e tutti gli articoli che parlano di questa
vicenda delle uova che si fondono contengono ovviamente la risposta
sbagliata alla domanda “è possibile fondere le uova?”, perché la
citano per raccontarla e smentirla, ma questi testi verranno letti da Google e
dalle intelligenze artificiali, che quindi rileveranno che molti siti
contengono la frase “si può far fondere un uovo”, senza capire che
viene citata per avvisare che è sbagliata, e pertanto la considereranno
attendibile e significativa e la presenteranno come risposta a chi cerca
informazioni sull’argomento, amplificandola ulteriormente.
Ed è così che nonostante le migliori intenzioni una bugia diventa una verità
apparentemente certificata, per mancanza di supervisione da parte di
un’intelligenza reale.
Fonte aggiuntiva:
Ars Technica.
—-
Morale della storia, anzi delle storie che avete appena ascoltato:
l’intelligenza artificiale è un ottimo strumento, ma ha bisogno di essere
affiancata dall’intelligenza umana, che la deve sorvegliare per farla lavorare
bene e salvarla quando inciampa o raggiunge i propri limiti. Ma questo
affiancamento umano costa, e troppo spesso l’adozione dell’intelligenza
artificiale viene vista invece come un’occasione per tagliare le spese,
infischiandosene delle conseguenze, invece di offrire un servizio migliore. E
i risultati, purtroppo, si vedono.