Vai al contenuto
Come generare immagini sintetiche di qualità senza avere computer superpotenti: Google Colab

Come generare immagini sintetiche di qualità senza avere computer superpotenti: Google Colab

Uno dei limiti della generazione di immagini attraverso software basati
sull’intelligenza artificiale è la necessità di disporre di schede grafiche
molto potenti e di RAM in abbondanza. Questi software, infatti, hanno una fame
eccezionale di prestazioni, e comprensibilmente molti (me compreso) non se la
sentono di investire qualche centinaio di euro (o più) per attrezzarsi
specificamente a questo scopo.

C’è però un’alternativa che non richiede potenza di calcolo locale
dell’utente. Si chiama Google Colaboratory, abbreviato in Colab, e
consente di usare gratuitamente (ma a
certe condizioni e con certe restrizioni) le potenti risorse hardware di Google per eseguire codice Python e vederne
i risultati dentro una finestra del proprio browser.

Questo permette, per esempio, di eseguire su qualunque computer dotato di
browser un generatore di immagini noto come
Fooocus (si scrive proprio così, con tre O), gratuito e
open source (licenza GPL-3.0) e relativamente più semplice da
usare rispetto alle alternative, ottenendo tempi di generazione fulminei,
misurabili in manciate di secondi. Con tempi di risposta del genere è
possibile imparare molto in fretta come funzionano questi software e capire
come costruire bene i complessi prompt (descrizioni) che dicono al
software che genere di immagine produrre.

Per usare Fooocus in Colab è sufficiente andare a questo indirizzo con un
browser e con un normale account Google:

https://colab.research.google.com/github/lllyasviel/Fooocus/blob/main/fooocus_colab.ipynb

Cliccate su Connect in alto a destra e attendete qualche istante:
dovrebbe comparire l’indicazione T4. Se non compare, cliccate su
Runtime – Change runtime type e scegliete Python 3 e
T4 GPU.

Fatto questo, cliccate sull’icona Play a sinistra, ignorate pure eventuali
avvisi a proposito di qualcosa “not authored by Google” e cliccate su
Run anyway. A questo punto dovete aspettare che il software venga
installato sulla macchina remota che state utilizzando.

Alla fine dell’installazione otterrete una lunga serie di messaggi, uno dei
quali include una riga simile alla seguente:

Running on public URL: https://[numero].gradio.live

Questo è un link temporaneo che dura 72 ore: cliccandovi sopra accedete all’interfaccia di Fooocus. Qui potete sbizzarrirvi a immettere prompt e
variare i parametri per generare quasi tutto quello che volete. Ho
scritto quasi perché ci sono alcune restrizioni su certi tipi di
contenuti facilmente intuibili. Non dimenticate che quello che generate qui è
da considerare sorvegliato.

Per salvare le immagini generate è sufficiente trascinarle dalla finestra del
browser al proprio desktop o file manager locale. Per dare un’immagine in
pasto a al generatore si fa il contrario.

Se una generazione dà errore per qualunque motivo, scegliete
Runtime – Restart session and run all, aspettate la reinstallazione e
poi cliccate sul link alla nuova interfaccia web.

Queste, per esempio, sono due immagini generate in questo modo con il semplice
prompt
“A handsome Italian male astronaut in a heroic pose, wearing a sci-fi
spacesuit, inside a futuristic space station with large windows. The Earth
can be seen through the windows.”

Tempo richiesto: 71 secondi (le soluzioni a pagamento di Colab offrono prestazioni ancora maggiori e altri vantaggi).

Niente male. Però sarebbe bello che un astronauta italiano portasse la bandiera del suo paese, per cui si può correggere l’immagine dandola in pasto a Fooocus e facendo quello che si chiama inpainting: si attivano le opzioni Input Image e Advanced, si trascina l’immagine da correggere su Inpaint or Outpaint, come Method si scegliere Modify Content, nel prompt si scrive qualcosa del tipo A rectangular Italian flag shoulder patch (le parole esatte sono importantissime), in Inpaint Additional Prompt si specifica replace red area with Italian flag patch o qualcosa di analogo, e infine si clicca su Generate. Volendo, nella scheda Settings si può chiedere di generare varie versioni in una sola sessione, cambiando il valore di Image number.

Con tempi di elaborazione dell’ordine del minuto scarso e la possibilità di generare varianti multiple in un colpo solo, è facile procedere per tentativi fino a ottenere l’effetto desiderato o qualcosa che gli si avvicina molto.

Un altro esempio di fotoritocco basato sull’inpainting riguarda questa foto, in cui la modella ha un viso molto grazioso ma un po’ asimmetrico: in particolare, il suo occhio sinistro è più piccolo di quello destro. Siamo quasi tutti asimmetrici in viso, ma qui si nota parecchio, per cui sarebbe utile correggere questa situazione.

Invece di doversi rivolgere a un fotoritoccatore professionista, è sufficiente ordinare a Fooocus improve symmetrical eyes e fargli produrre qualche variante, scegliendo poi la migliore.

Notate, fra l’altro, la bellezza della composizione, la luce perfettamente diffusa sul volto della modella nonostante la fonte principale di luce sia la finestra alle sue spalle, l’uso della profondità di campo ridotta che fa spiccare la spalla sinistra e il viso rispetto allo sfondo (la spalla destra è già fuori fuoco). È una gran bella foto, a prescindere dal soggetto. Ma…

…se non vi dicessi che è sintetica anche nella versione iniziale, ve ne accorgereste? Più in generale, guardandola sullo schermo del telefonino, quanti si accorgeranno della finzione? Considerato quanto sono ritoccate anche le foto delle modelle reali, ha importanza?

Queste immagini le ho generate io con qualche settimana di studio e di prove nei ritagli di tempo; un professionista sa fare sicuramente di meglio (e già vedo circolare i primi esempi di modelle fotorealistiche che si muovono e ballano e fanno… beh, altre cose), ma questa professione (il prompt engineer) deve ancora nascere e formarsi.

Se fossi un fotografo o una modella, comincerei a preoccuparmi del mio lavoro: questa tecnica elimina i costi di viaggio, vitto e alloggio, il noleggio delle location, i costumi, il trucco, l’acconciatura. Anche perché a questa modella virtuale si possono far indossare, per esempio, i gioielli di un intero catalogo. Ecco un piccolo esempio, sempre fatto da me in una decina di minuti usando Colab e un pizzico di fotoritocco digitale tradizionale:

Ne vedremo delle belle.

Indiana Jones and the Dial of Destiny: il primo trailer

Indiana Jones and the Dial of Destiny: il primo trailer

Era meglio intitolarlo “Indiana Jones and the Digital Deaging” :-). Uscirà il 30 giugno 2023.

Nell’attesa, guardate come le reti neurali automatizzano il procedimento di alterazione dell‘età di un attore in modo impressionante e senza richiedere protesi, motion capture e un esercito di animatori digitali. Non sto dicendo che sia questa la tecnica usata per ringiovanire Harrison Ford; è solo un esempio del progresso straordinario di queste tecnologie.

I dettagli sono su Ars Technica.

Remini, l’app che falsifica i volti e genera mostri e imbarazzi

Le app che migliorano e correggono le fotografie sono molto belle e utili, ma se vengono usate senza le giuste attenzioni possono anche causare disastri e imbarazzi. Lo testimonia un curioso incidente che ha colpito pochi giorni fa Matteo Salvini, leader della Lega in Italia, quando ha pubblicato su Twitter una foto nella quale mostra un gruppo di persone del suo partito, ritratte con la mascherina sul volto dato che l’immagine è stata scattata al chiuso nei giorni scorsi. Ne ho già scritto qui a caldo, ma riassumo la vicenda per una riflessione aggiuntiva.

Ingrandendo la foto, molti internauti si sono accorti che le mascherine avevano delle anomalie stranissime: sembrava che si vedessero le bocche delle persone in trasparenza, attraverso le mascherine. È partita subito l’accusa di fotomontaggio, ipotizzando che le mascherine fossero state aggiunte con un programma di fotoritocco, e confesso di aver sospettato anch’io inizialmente una manipolazione di questo genere.

Ma c’era qualcosa che non quadrava: le bocche erano deformate e mostruose, incompatibili con le parti visibili dei volti. Nemmeno il più pasticcione dei fotoritoccatori avrebbe commesso un errore madornale del genere.

Matteo Salvini ha poi pubblicato un tweet nel quale ha dichiarato che le anomalie erano state causate da un imprecisato “filtro nitidezza” usato per migliorare la fotografia originale.

La giustificazione è avvalorata dal fatto che anche il ritratto stampato di Salvini che si vede sullo sfondo della foto ha subìto una deformazione bizzarra: al suo naso sono state infatti aggiunte quelle che sembrano essere due narici supplementari laterali.

Secondo gli esperti e gli utenti abituali di app per il miglioramento delle fotografie, il “filtro nitidezza” in questione è REMINI, dell’azienda italiana Bending Spoons, che ha oltre un milione e mezzo di scaricamenti su Google Play e ottime recensioni nell’App Store di Apple.

Questa app, come tante del suo genere, non si limita a correggere i colori o a rendere più nitidi i contorni con semplici operazioni matematiche sui dati, ma usa tecniche di intelligenza artificiale per ricostruire parti dell’immagine. E la ricostruzione, in questo caso, è arrivata addirittura a inventarsi bocche inesistenti e narici impossibili.

È insomma importantissimo fare molta attenzione all’uso di questi filtri molto avanzati, perché rischiano di creare dei falsi, introducendo dettagli che in realtà non esistono ed esponendo chi li usa all’accusa di pubblicare foto truccate. Soprattutto nel caso di personaggi pubblici, un uso errato di questi filtri può causare polemiche e perdite di credibilità molto gravi e potenzialmente irrimediabili.

Le conseguenze di un uso sconsiderato ed eccessivamente fiducioso di queste tecnologie di elaborazione delle immagini possono essere anche ben peggiori di un semplice imbarazzo mediatico come quello occorso a Salvini. 

Se queste tecniche di filtraggio venissero introdotte incautamente nei processi, per esempio, potrebbero ricostruire erroneamente il volto di una persona in una fotografia, documentarne apparentemente la presenza sul luogo del reato e quindi portare alla sua incriminazione. 

Qualcosa di simile è già accaduto con i sistemi di intelligenza artificiale applicati al riconoscimento facciale: il New York Times segnala il caso di un uomo, Nijeer Parks, che nel 2019 è stato accusato di furto e di tentato investimento di un poliziotto perché il software di riconoscimento facciale usato dalla polizia lo aveva “riconosciuto” in un’immagine presente sulla patente falsa esibita dal vero ladro e investitore, che si era poi dileguato. Il signor Parks si trovava in realtà a una cinquantina di chilometri di distanza dal luogo dei reati. È il terzo caso del suo genere.

L’accusa è stata poi annullata, ma non prima che il signor Parks venisse arrestato e incarcerato per dieci giorni senza cauzione e restasse a rischio di processo e pena detentiva per altri mesi, con tutti i disagi che questo comporta.

Fate insomma attenzione nell’usare questi filtri di cosiddetta “intelligenza artificiale”, perché sono molto meno intelligenti di quello che si può pensare. E come tante persone poco intelligenti, spesso quando non sanno come risolvere correttamente un problema si inventano una bugia, sperando che nessuno se ne accorga.

Ritoccare facilmente le foto gratis e senza installare app con Cleanup.pictures

Ultimo aggiornamento: 2022/01/21 9:30.

Capita spesso, dopo aver scattato una foto, di accorgersi troppo tardi che c’è
un oggetto o una persona che non si voleva inquadrare o c’è una macchia, una
ruga o una scritta che distrae troppo, oppure ancora c’è il classico turista
che passa davanti nel momento sbagliato e rovina l’inquadratura. 

Eliminare questi difetti con il fotoritocco, però, richiede tempo, talento e
programmi appositi, e i risultati sono spesso deludenti e molto vistosi.

C’è però un sito che promette di rendere molto più facile questo tipo di
fotoritocco senza alcun bisogno di installare software: si chiama
Cleanup.pictures e lo si può provare
gratuitamente.

Il procedimento è molto semplice: si visita il sito con un browser qualsiasi e
si trascina sull’apposita area l’immagine che si vuole ritoccare. Fatto
questo, si prende il pennello virtuale offerto dal sito e lo si passa
rapidamente sopra l’area che si vuole sistemare: non c’è bisogno di seguire
con precisione dei contorni e anzi conviene pennellare un po’ al di fuori dei
bordi dell’elemento da eliminare.

Per rimuovere una persona da una foto di gruppo, per esempio, bastano davvero
pochi secondi anche a un imbranato come me, come mostro in questa
foto stock

La tecnica utilizzata ha un nome complicatissimo:
Large Mask Inpainting with Fourier Convolutions (PDF). I ricercatori che l’hanno sviluppata la chiamano più concisamente
LaMa. In pratica, l’inpainting consiste nel ricostruire le zone
mancanti di un’immagine (per esempio lo sfondo dietro una persona rimossa)
usando gli elementi adiacenti in maniera intelligente, adoperando in questo
caso le cosiddette convoluzioni di Fourier

Cancellare un oggetto posato su un tavolo, per esempio, richiede che al posto
dell’oggetto venga ricostruita correttamente la trama della superficie del
tavolo stesso.

Ecco un esempio veloce di cancellazione di un oggetto con ricostruzione dello sfondo: notate quanto è approssimativa la mia selezione dell’oggetto. Il cartello di divieto di sosta viene un po’ distorto, e l’ombra della colonnina non viene rimossa, ma considerato che ci ho messo letteralmente dieci secondi non è malaccio.

Cleanup.pictures si basa su software open source, quindi liberamente
ispezionabile, riutilizzabile e modificabile:
lo trovate su GitHub. Potete
insomma crearvi la vostra copia gratuita oppure usare quella già pronta sul
sito omonimo, che offre una versione a pagamento che produce risultati a
maggiore risoluzione. 

Attenzione, però, alla riservatezza delle immagini che caricate: ho contattato
i responsabili del sito per sapere se le foto ritoccate vengono inviate al
sito o se restano sui nostri computer, visto che c’è un traffico di dati con
il sito (il servizio non funziona offline) e al momento non ho ancora ricevuto
risposta. Prudenza, quindi, e buon divertimento. 

2022/01/21 9:30. La risposta è arrivata: Cyril Diagne, che gestisce Cleanup.pictures, dichiara che le foto non vengono conservate e vengono cancellate immediatamente dalla memoria dopo l’elaborazione.

Osama, nuova foto, nuovo fake [UPD 22:25]

Osama, nuova foto, nuovo fake [UPD 22:25]

L’articolo è stato aggiornato dopo la pubblicazione iniziale.

Questa è la foto che campeggia in questo articolo de L’Unità e questo del Corriere della Sera, entrambi con la data di oggi (3 maggio 2011).

L’articolo de L’Unità scrive in proposito quanto segue: “una nuova presunta foto che ritrarrebbe Osama bin Laden morto pochi minuti dopo il raid condotto dalle forze statunitensi in Pakistan è stata pubblicata online da un sito web, mentre il link viene rilanciato su Twitter dagli hacker di Anonymous. L’autenticità dell’immagine non è verificabile. ISi tratta di un’immagine notturna in cui il leader di al Qaida giace a terra con una ferita sopra l’occhio destro. Il corpo sembra sorretto da un soldato Usa. In Italia è stata rilanciata dall’Ansa. Ma la ferita sulla testa di Osama Bin Laden sembra contraddire le ricostruzioni del blitz, è a destra mentre doveva essere a sinistra”.

Il lancio dell’ANSA è questo. Però è inutile nascondersi dietro alla foglia di fico del solito “la pubblico perché fa audience, tanto dico che non è verificabile”. Santo cielo, gente, e fatela verificare una buona volta. Gli esperti ci sono. Pagateli.

In attesa che ANSA, Corriere o L’Unità aprano il portafogli, i lettori di questo blog hanno già fatto un lavoro egregio. Gratis. Guardate infatti quest’immagine, segnalatami da Gian_Ibanez, e ditemi se non notate qualche bizzarra somiglianza:

Confrontiamo:

La fonte di quest’immagine è Liveleak. Che ne dite, riusciamo a scoprire anche da che film è tratto questo nuovo fake?

22:25. Risolto: la fonte è il film Black Hawk Down. Lo spiegone è già su Repubblica, che cita Vanity Fair italiano come scopritore: una correttezza rara e apprezzata. Finché i mastini del copyright non intervengono, potete vedere la scena del film a 12:47 qui su Youtube.

—-

2020/01/09. Rivisitando questo articolo in occasione di un altro scivolone giornalistico-bellico, mi rammarico di non aver catturato degli screenshot degli articoli originali di Unità, Corriere e ANSA, che sono stati prontamente corretti per cancellare le tracce delle figuracce. Anche Archive.org ne conserva solo copie risalenti ai giorni successivi, quando erano stati riscritti (Unità su Archive.org; Corriere su Archive.org).

Estrarre le immagini ad alta risoluzione da un post Instagram. Anche dai post privati eliminati

Estrarre le immagini ad alta risoluzione da un post Instagram. Anche dai post privati eliminati

Ultimo aggiornamento: 2019/05/04 14:15.

1. Prendete il post Instagram che vi interessa: per esempio questo, per i fan di Battlestar Galactica. La seconda immagine del post mostra un Cylon Numero 6 che forse non tutti conoscono, risalente al 1993.

2. Attivate l’Inspector di Firefox (Tools – Web Developer – Inspector oppure Ctrl-Shift-C).

3. Nella casella di ricerca HTML, immettete srcset. Vengono evidenziati dei blocchi di codice che contengono due cose interessanti: la descrizione auto-generata dell’immagine (in questo caso, “Image may contain: 1 person, text”) e, subito dopo srcset=”, l’URL dell’immagine ad alta risoluzione originale.

4. Un doppio clic sull’URL fa espandere l’HTML, rivelando una serie di URL a varie risoluzioni. Quello che vi serve è quello con la risoluzione massima disponibile, che è facilmente riconoscibile esaminando la struttura dell’URL stesso: in questo caso, spicca un 1080×1080 (in altri casi basta cercare l’immagine JPG il cui nome termina con “_n”). L’URL è insomma questo, nel caso specifico:

https://scontent-frx5-1.cdninstagram.com/vp/de7b4900d552188908a47b3782af3589/5D534299/t51.2885-15/e35/p1080x1080/52474748_300866893935728_5397041778026138900_n.jpg?_nc_ht=scontent-frx5-1.cdninstagram.com

È necessario includere anche la parte dopo il punto interrogativo, altrimenti si ottiene un errore URL signature mismatch.

5. Aprendo questo URL ottenete l’immagine alla massima risoluzione, decisamente più nitida di un semplice screenshot e ottimale per analisi di fotoritocco o per ricerche di datazione in Tineye e simili.

Dai commenti mi segnalano che è possibile anche fare un semplice clic destro per salvare l’intero post e poi sfogliare i suoi vari file per estrarre l‘immagine e buttar via tutto il resto. Non è elegante, ma funziona. C’è anche Instantgram, un bookmarklet che consente di scaricare le immagini di Instagram (nel caso di post con immagini multiple, si visualizza l’immagine desiderata e poi si attiva Instantgram).

Tuttavia questi metodi non consentono di recuperare immagini da post eliminati. Invece L’URL che estraggo con il metodo lungo che ho descritto sopra lo permette: infatti rimane attivo anche dopo che è stato cancellato il post.

Per esempio, ho pubblicato e poi eliminato questo post nel mio account Instagram:

Estraendo l’immagine ad alta risoluzione prima di eliminare il post ho ottenuto questo URL:

https://scontent-frx5-1.cdninstagram.com/vp/4b79b5c6dc5343dc851143f7f03f94ce/5D6DD814/t51.2885-15/e35/58689490_502499683825881_6184082361658028207_n.jpg?_nc_ht=scontent-frx5-1.cdninstagram.com 

Quest’URL è tuttora attivo, nonostante io abbia eliminato il post alcune ore fa. Questo indica che le foto eliminate da Instagram non vengono realmente eliminate e persistono, almeno temporaneamente, nel CDN di Instagram anche dopo l’eliminazione del post che le contiene.

Questo può essere utile per esempio per dimostrare che una foto è stata davvero postata su Instagram anche dopo che è stata eliminata. Sospetto inoltre che anche le foto “private” su Instagram abbiano un URL accessibile a chiunque. Qualcuno vuole provare?

2019/05/04 14:15. Un lettore, Manuel, ha provato e conferma che le foto degli account privati sono accessibili:

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.

Harrison Ford in “Solo”? Con Deepfakes si può

Harrison Ford in “Solo”? Con Deepfakes si può

Sul canale Youtube derpfakes è uscita questa demo nella quale il giovane Harrison Ford prende il posto di Alden Ehrenreich. Considerato che è fatto senza il dispiego di mezzi di Hollywood ma da un semplice appassionato, il risultato è davvero notevole.

Antibufala mini: decollo Shuttle “visto dalla Stazione Spaziale”

Antibufala mini: decollo Shuttle “visto dalla Stazione Spaziale”

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi piace, potete farne una anche voi per incoraggiarmi a scrivere ancora.

English summary: The picture below is often presented as a “view of Space Shuttle Atlantis from the International Space Station”. It wasn’t taken from the ISS, but from a NASA plane. This version is cropped and artificially blurred. The original is shown further below.

Sono un po’ stufo di vedere questa foto falsa spacciata per un decollo dello Shuttle ripreso dallo spazio, specificamente dalla Stazione Spaziale Internazionale, per cui la sbufalo rapidamente qui, in modo da avere un riferimento rapido per la prossima volta che mi ricapiterà d’incontrarla.

La foto è questa:

L’effetto sfuocato (tilt-shift) è stato aggiunto e non ha alcun senso logico, dato che se fosse davvero una foto scattata dallo spazio, quindi da grandissima distanza, anche lo sfondo sarebbe a fuoco.

In ogni caso, la foto non è stata scattata dallo spazio, ma da un aereo, specificamente un WB-57F della NASA, in grado di volare ad altissima quota (20 km e oltre), che veniva usato per riprendere e documentare i decolli Shuttle.

La versione originale e integrale dell’immagine (KSC-06PD-2466) è datata 9 settembre 2006 e rappresenta il decollo dello Shuttle Atlantis all’inizio della missione STS-115. La foto è opera di Robert Rivers.

Se vi piacciono le foto di questo genere, ne ho qualcuna per voi (anche su Space.com e APOD).


Fonti: Colorado.edu, Karmadecay, Snopes.com.

Come si riconosce un video Deepfake? A occhio

Come si riconosce un video Deepfake? A occhio

Sì, è Nicolas Cage nei Predatori
dell’Arca Perduta
(deepfake).

La tecnologia di manipolazione deepfake, che consente di sostituire i volti nei video in maniera quasi completamente automatica, crea una certa inquietudine perché quando è usata bene consente di ottenere risultati estremamente credibili con un impegno di risorse tecniche molto modesto (basta un computer domestico).

L’idea che ci si possa trovare circondati da video falsi indistinguibili dagli originali ha ovviamente delle forti implicazioni in molti campi, dalla politica al giornalismo alla documentazione storica alle indagini giudiziarie. Ma la ricerca scientifica corre veloce anche nel settore dello smascheramento di questi falsi, proponendo tecniche di analisi e identificazione sempre più ingegnose.

Tre ricercatori della State University of New York hanno pubblicato una di queste tecniche nel paper In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking, che suggerisce di esaminare matematicamente il movimento delle palpebre nei video per capire se è naturale o no e quindi rivelare eventuali falsificazioni.

Le persone sbattono le palpebre in media circa 17 volte al minuto: questa cadenza aumenta durante una conversazione e diminuisce durante la lettura. Ma gli attuali software di generazione dei deepfake non tengono conto di questo fenomeno, per cui una cadenza errata, misurata da un apposito software, rivela la manipolazione.

Secondo i ricercatori, fra l’altro, migliorare i deepfake per includere la cadenza corretta non è facile, perché i dataset usati per “addestrare” questi programmi di solito non contengono immagini dei volti-bersaglio con gli occhi chiusi. I falsificatori dovranno quindi inventarsi un modo per aggiungere il movimento corretto delle palpebre. La gara fra falsificatori e smascheratori non conosce soste.

Mascherare le foto non basta più: il caso della presunta “escort” ticinese [UPD 18:40]

Mascherare le foto non basta più: il caso della presunta “escort” ticinese [UPD 18:40]

Per tutelare la privacy non basta più oscurare i volti nelle fotografie. Stamattina Tio.ch ha pubblicato la storia (uscita anche in prima pagina sul giornale gratuito 20minuti di oggi) di una donna del Luganese che dice che le sue foto provocanti “sono finite in un sito internazionale di escort. La ragazza ha giurato a 20minuti di non saperne nulla e ha riferito di essere vittima di hacker” che “hanno creato questa falsa identità” e ora è in corso una lotta “per far cancellare questi siti”.

Al momento in cui scrivo, l’articolo è corredato da una di queste fotografie della donna, con il volto debitamente oscurato in modo da renderlo in teoria irriconoscibile (qui sopra ne vedete un frammento). Idem dicasi per la foto pubblicata su 20minuti. Gli articoli non fanno nomi o usano pseudonimi. È quindi salvo l’anonimato della sedicente vittima? Secondo le usanze del giornalismo sì.

Ma siamo nell’era di Internet e dei motori di ricerca per immagini. In due minuti ho trovato la foto non mascherata, il sito internazionale di escort in questione e il probabile numero di cellulare della donna. Tutti questi dati, insieme agli altri che ho raccolto con un uso ragionato degli strumenti online e che per ora non pubblico, mi hanno permesso di aggirare il mascheramento della foto. Inoltre sembrano indicare che gli hacker abbiano ben poco a che fare con la pubblicazione delle foto intime della donna in un sito di escort e che il lavoro di fotoritocco estetico sia davvero encomiabile. Caveat emptor.

Ho scritto a Tio.ch alcune ore fa invitando a rimuovere la fotografia per evitare riconoscimenti analoghi al mio e ho contattato la donna via mail per avere chiarimenti. Per ora tutto tace [v. aggiornamenti qui sotto]. In attesa di chiarire la situazione, non pubblicherò commenti che rivelino dettagli sull’identità della persona in questione. Non è importante la storia in sé, che è solo gossip locale: quello che conta è la dimostrazione del concetto che le regole tradizionali di tutela della privacy non bastano più. Utenti e giornalisti farebbero bene a tenerlo presente per evitare danni, disagi e imbarazzi.

Aggiornamenti

18:40. Sono stato contattato dalla redazione di Tio.ch, che ha chiarito riservatamente molti aspetti della vicenda, che risulta molto più intricata di quanto sembrasse inizialmente (ma non è il caso di entrare qui nei dettagli). Fra l’altro, chiarisco che non intendevo criticare Tio.ch per il suo operato, che è pienamente in linea con le prassi consolidate e ritenute sufficienti, ma volevo semplicemente segnalare un problema nuovo.