Vai al contenuto

Podcast RSI – Vaccinarsi contro le fake news: il “prebunking”

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate
qui sul sito della RSI
(si apre in una finestra/scheda separata) e lo potete scaricare
qui.

Le puntate del Disinformatico sono ascoltabili anche tramite
iTunes,
Google Podcasts,
Spotify
e
feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

[CLIP: Audio di uno degli attacchi di Hamas]

Il recente attacco di Hamas in Israele ha scatenato una nuova ondata di
disinformazione sui social network, tanto che l’Unione Europea ha inviato una
lettera di monito a X, il social nework un tempo noto come Twitter, avvisando
che la sua mancata rimozione delle fake news su questo terribile tema rischia
di essere in violazione delle leggi europee. Ma tutti i social network sono da
sempre bacino fertile per le informazioni false e pubblicare le smentite
sembra essere inutile.

Due università britanniche, però, propongono un’altra soluzione: la cosiddetta
teoria dell’inoculazione. Una sorta di “vaccinazione” contro le fake
news, un’azione preventiva che permetterebbe alle persone di diventare più
resistenti alla disinformazione in generale e di respingerla, come avviene con
le malattie. Il procedimento che descrivono è semplice e indolore, e si può
eseguire in tanti modi, anche attraverso giochi online e persino tramite un
podcast come questo.

Benvenuti alla puntata del 13 ottobre 2023 del Disinformatico, il
podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie
strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

X e i social non fanno abbastanza contro le fake news

Pochi giorni fa Thierry Breton, Commissario per il mercato interno dell’Unione
Europea, ha inviato una
lettera aperta
a Elon Musk, avvisandolo che il suo social network, noto per anni come Twitter
e ora chiamato X, viene usato per diffondere disinformazione e contenuti
illegali, violenti e terroristici dopo l’attacco di Hamas a Israele e che
nonostante le segnalazioni fatte anche dalle autorità X non ha rimosso
prontamente questi contenuti, come è invece richiesto dalle leggi europee e in
particolare dal Digital Services Act, entrato in vigore a novembre scorso. Una
inadempienza continuata potrebbe portare a sanzioni economiche considerevoli
contro X e anche alla sospensione del servizio in Europa (BBC).

[Bretton ha inviato analoga intimazione a Meta (RSIReuters); dopo la chiusura del podcast ha inviato a X anche richiesta formale in base al DSA]

Questo monito fa il paio con un recente
rapporto dell’Unione Europea
che indica che la disinformazione è più prevalente su X che sugli altri social
network (Ars Technica).

Questa piaga, insomma, continua a diffondersi e le azioni prese fin qui non
sembrano essere state efficaci nel contrastarla. Le notizie false viaggiano
velocissime, ma le loro smentite non riescono a fare altrettanto: il
cosiddetto debunking, ossia la spiegazione pubblica e documentata delle
bugie diffuse dalle fake news, pare poco efficace.

Per citare Jonathan Swift, le falsità volano, mentre la verità le rincorre
zoppicando (“Falsehood flies, and the Truth comes limping after it”,
in
The Examiner, 1710). Se vi ricordavate questa citazione in una forma
differente, qualcosa del tipo
“una bugia fa mezzo giro del mondo nel tempo che ci mette la verità a
infilarsi le scarpe”
, e ve la ricordate attribuita a Mark Twain, confermate involontariamente
questo fenomeno, perché Twain non ha mai detto nulla del genere, come hanno
scoperto gli
esperti di Quote Investigator, ma la falsa attribuzione continua a girare
nonostante la smentita sia pubblicamente disponibile da tempo.

Un recente lavoro delle università britanniche di Cambridge e Bristol propone
invece un approccio preventivo, che consiste nel dare alle persone gli
strumenti per riconoscere facilmente i sintomi tipici dei tentativi di
disinformazione e quindi, in un certo senso, dare loro gli “anticorpi”
digitali necessari per contrastare la malattia della disinformazione. I
ricercatori etichettano questo approccio con un nome molto formale, ossia
teoria dell’inoculazione, attingendo proprio al lessico medico delle
vaccinazioni, ma a volte usano anche un termine più conciso, ossia
prebunking: in pratica, un debunking preventivo.

Il lavoro di queste università è disponibile presso il sito
Inoculation.science, e sulla
rivista Science Advances è stato pubblicato nel 2022 un articolo
scientifico (Psychological inoculation improves resilience against misinformation on
social media
) che spiega come funziona il prebunking e dimostra che è efficace.
Vediamo insieme quali sono i suoi ingredienti e come metterli in pratica.

Il vaccino anti-fake news

La teoria dell’inoculazione psicologica, per citarla con il suo nome
completo, non è una novità: viene già studiata da una sessantina d’anni e si
basa su due componenti fondamentali. Il primo è un preavviso emotivo, che dice
che sta per arrivare un attacco a un’idea alla quale crediamo e ci mette in
guardia; il secondo è una microdose indebolita di disinformazione, che
contiene già una smentita preventiva.

Per esempio, si può diffondere un preavviso emotivo che segnali che ci sono
persone che cercheranno di convincerci che la Terra è piatta e poi si possono
spiegare le prove della rotondità della Terra e indicare quali sono gli errori
di ragionamento dei terrapiattisti.

Il limite di questo approccio è che la smentita è specifica, un po’ come i
vaccini biologici. Questo tipo di inoculazione rende quindi più resistenti a
una singola tesi alternativa. Ma ogni giorno nascono e si diffondono
nuove tesi di complotto, e servirebbe un numero infinito di inoculazioni
psicologiche mirate.

Così, i ricercatori propongono oggi una nuova versione di questo metodo:
invece di tentare di smontare preventivamente ogni singola teoria di complotto
o diceria falsa, suggeriscono di concentrarsi sul riconoscimento delle
tecniche di manipolazione e sulle strategie retoriche usate abitualmente dalla
disinformazione di ogni genere. Questo permette di usare una singola
“vaccinazione” generalista che vale per tutte le situazioni, offrendo una
resistenza ad ampio spettro alle notizie false.

Per mettere alla prova questo approccio, i ricercatori hanno creato dei brevi
video che
presentano cinque tecniche di manipolazione che si incontrano spesso nella
disinformazione.

  • La prima tecnica è il linguaggio emotivo. Le ricerche mostrano che
    l’uso di parole emotivamente cariche aumenta il potenziale di diffusione
    di un messaggio, specialmente se queste parole evocano sentimenti negativi
    come la paura, il disprezzo o l’indignazione. Per esempio, il titolo
    Aumenta la disoccupazione giovanile è
    una descrizione neutra di un fatto e lascia relativamente indifferenti. Ma
    Giovani sempre più angosciati e senza lavoro” ha un impatto
    emotivo molto più forte.

  • La seconda tecnica è l’incoerenza, cioè l’uso di due o più
    argomentazioni che non possono essere tutte vere e si contraddicono. Per
    esempio, i terrapiattisti sostengono che gli scienziati nascondono la
    verità sulla forma della Terra, ma poi citano quegli stessi scienziati
    quando dicono qualcosa che sembra sostenere la teoria della Terra piatta.
    La maggior parte della gente non nota queste incoerenze se non viene
    abituata a cercarle.

  • La terza tecnica di manipolazione usata dalla disinformazione e descritta
    dai ricercatori è la falsa dicotomia o falso dilemma, che
    consiste nel presentare due alternative come se fossero le uniche
    possibili e nascondere il fatto che in realtà quelle alternative non si
    escludono a vicenda e che ci sono anche altre soluzioni. In
    uno dei loro video, i ricercatori citano come esempio Star Wars e
    in particolare Anakin Skywalker e il suo celebre
    “Se non sei con me, sei il mio nemico!”, rivolto al suo mentore e
    maestro Obi-Wan Kenobi [CLIP: Anakin vs Obi-Wan, da La vendetta dei Sith]. È una falsa dicotomia, perché non essere d’accordo
    non vuol dire per forza essere nemici; si può anche criticare una persona
    alla quale si vuole bene. E infatti Obi-Wan risponde perfettamente:
    Soltanto un Sith vive di assoluti”.

  • Al quarto posto delle tecniche adoperate dai seminatori di fake news c’è
    l’indicazione del capro espiatorio: dare la colpa di un problema
    comune a qualcuno, o a un gruppo di persone, che non c’entra nulla. I
    ricercatori citano South Park – Il Film, in cui i genitori
    indignati decidono che i comportamenti antisociali dei loro figli sono
    colpa del Canada [CLIP: brano della canzone Blame Canada tratta dal film], ma la storia e la cronaca sono piene, purtroppo, di
    esempi tragici di questo genere.

  • Quinta, ma non ultima, è la tecnica dell’attacco ad hominem, ossia
    prendere di mira la persona che propone un’argomentazione invece di
    discutere la validità o meno di quello che dice. È un metodo classico, che
    serve per sviare l’attenzione dal vero tema e dirigerla contro un
    individuo. È vero che la credibilità di chi propone un messaggio a volte
    può essere pertinente, come nell’esempio, proposto dai ricercatori, di un
    fabbricante di sigarette che dovesse presentare uno studio che sostiene
    che il fumo non fa male, ma di solito gli attacchi ad hominem si
    concentrano su qualche caratteristica della persona che non c’entra nulla
    con l’argomento, magari un attributo fisico o la sua nazionalità.

Oltre ai video, i ricercatori hanno anche realizzato dei
giochi online che
simulano le attività sui social network e insegnano ai giocatori a riconoscere
queste tecniche di manipolazione. L’obiettivo, insomma, è allenare le persone
a notare i sintomi tipici dei tentativi di influenzarle. La speranza è che se
questi sintomi vengono notati, verranno neutralizzati.

Sembra un’idea interessante, ma funziona davvero?

Risultati del prebunking

I ricercatori hanno messo alla prova la propria teoria in due modi: hanno
presentato a gruppi di soggetti questi video di inoculazione, che mettevano in
guardia contro queste tecniche di manipolazione, oppure dei video neutri, e
poi hanno proposto a questi soggetti degli esempi di post nello stile di
Twitter/X e Facebook. Alcuni di questi post usavano le tecniche segnalate;
altri no. Un esperimento analogo è stato realizzato anche su YouTube, con una
campagna pubblicitaria ad ampio raggio che ha raggiunto oltre cinque milioni
di persone.

I dati di entrambi i test indicano che chi è stato inoculato contro le
tecniche di disinformazione migliora la propria capacità di riconoscere le
situazioni che usano queste tecniche, diventa più abile nel distinguere i
contenuti affidabili da quelli inattendibili e tende a condividere meno
contenuti ingannevoli rispetto a chi non ha ricevuto questa inoculazione.

Nell’esperimento fatto su YouTube, quindi in condizioni meno da laboratorio e
più vicine alla realtà dei social network, il riconoscimento delle tecniche è
aumentato in media del 5%; non è tantissimo, ma i ricercatori notano che il
costo di una campagna di inoculazione contro le fake news fatta in questo modo
è modestissimo (circa 5 centesimi per ogni visualizzazione del video), per cui
sembra che valga la pena di fare l’investimento, soprattutto se si riesce a
convincere i social network a sostenere almeno in parte i costi di una
campagna socialmente utile.

Il prebunking fatto sui sintomi generici della disinformazione, invece
di affrontare le singole teorie, ha anche un altro vantaggio importante oltre
al suo ampio spettro di efficacia: evita di prendere di petto una visione del
mondo emotivamente radicata e di creare una situazione di rifiuto e chiusura.

Soprattutto nelle tesi complottiste, infatti, la credenza non si basa solo
sulle informazioni false, ma si fonda anche sulle emozioni legate a quelle
informazioni e al senso di appartenenza a un gruppo che condivide quella
credenza e quelle emozioni. Chiunque abbia un amico o un familiare rapito
dalle tesi di cospirazione si riconosce esattamente in questa descrizione.
Cercare di smontare una situazione del genere correggendo solo le informazioni
sbagliate non funziona, perché la correzione diretta viene vista come un
attacco frontale al proprio sistema di valori e quindi viene respinta in
blocco. Un prebunking indiretto, nel quale ci si limita a far notare
certe incongruenze di contorno, ha più possibilità di fare lentamente breccia.

Dato che è molto difficile sradicare credenze basate sulla disinformazione, la
ricerca si sta insomma orientando verso metodi che aiutino le persone a
resistere alla disinformazione in partenza, preventivamente, e questo
approccio di inoculazione, ispirato dalla medicina e mirato a far crescere
nelle persone gli “anticorpi mentali” generalisti che permettano di
riconoscere e neutralizzare i tentativi di manipolazione emotiva più diffusi,
sembra una strada promettente contro le teorie complottiste e le forme di
disinformazione presenti e future.

Resta ancora da capire quali siano i canali e i messaggeri più efficaci per la
comunicazione di questi anticorpi, quanto duri l’effetto dell’inoculazione e
se ci sia un effetto anche su chi è già stato colpito dal virus della
disinformazione. Ma questo approccio sicuramente costa poco, la prima dose
l’avete già ricevuta tramite questo podcast, e l’unico effetto collaterale è
un’opinione pubblica che si fa manipolare meno facilmente. Tutto sommato,
sembra un rischio accettabile.

0 0 voti
Valutazione dell'articolo
Iscriviti
Notificami
guest

0 Commenti
Feedback in linea
Visualizza tutti i commenti
0
Esprimete la vostra opinione commentando.x