Vai al contenuto

Remini, l’app che falsifica i volti e genera mostri e imbarazzi

Le app che migliorano e correggono le fotografie sono molto belle e utili, ma se vengono usate senza le giuste attenzioni possono anche causare disastri e imbarazzi. Lo testimonia un curioso incidente che ha colpito pochi giorni fa Matteo Salvini, leader della Lega in Italia, quando ha pubblicato su Twitter una foto nella quale mostra un gruppo di persone del suo partito, ritratte con la mascherina sul volto dato che l’immagine è stata scattata al chiuso nei giorni scorsi. Ne ho già scritto qui a caldo, ma riassumo la vicenda per una riflessione aggiuntiva.

Ingrandendo la foto, molti internauti si sono accorti che le mascherine avevano delle anomalie stranissime: sembrava che si vedessero le bocche delle persone in trasparenza, attraverso le mascherine. È partita subito l’accusa di fotomontaggio, ipotizzando che le mascherine fossero state aggiunte con un programma di fotoritocco, e confesso di aver sospettato anch’io inizialmente una manipolazione di questo genere.

Ma c’era qualcosa che non quadrava: le bocche erano deformate e mostruose, incompatibili con le parti visibili dei volti. Nemmeno il più pasticcione dei fotoritoccatori avrebbe commesso un errore madornale del genere.

Matteo Salvini ha poi pubblicato un tweet nel quale ha dichiarato che le anomalie erano state causate da un imprecisato “filtro nitidezza” usato per migliorare la fotografia originale.

La giustificazione è avvalorata dal fatto che anche il ritratto stampato di Salvini che si vede sullo sfondo della foto ha subìto una deformazione bizzarra: al suo naso sono state infatti aggiunte quelle che sembrano essere due narici supplementari laterali.

Secondo gli esperti e gli utenti abituali di app per il miglioramento delle fotografie, il “filtro nitidezza” in questione è REMINI, dell’azienda italiana Bending Spoons, che ha oltre un milione e mezzo di scaricamenti su Google Play e ottime recensioni nell’App Store di Apple.

Questa app, come tante del suo genere, non si limita a correggere i colori o a rendere più nitidi i contorni con semplici operazioni matematiche sui dati, ma usa tecniche di intelligenza artificiale per ricostruire parti dell’immagine. E la ricostruzione, in questo caso, è arrivata addirittura a inventarsi bocche inesistenti e narici impossibili.

È insomma importantissimo fare molta attenzione all’uso di questi filtri molto avanzati, perché rischiano di creare dei falsi, introducendo dettagli che in realtà non esistono ed esponendo chi li usa all’accusa di pubblicare foto truccate. Soprattutto nel caso di personaggi pubblici, un uso errato di questi filtri può causare polemiche e perdite di credibilità molto gravi e potenzialmente irrimediabili.

Le conseguenze di un uso sconsiderato ed eccessivamente fiducioso di queste tecnologie di elaborazione delle immagini possono essere anche ben peggiori di un semplice imbarazzo mediatico come quello occorso a Salvini. 

Se queste tecniche di filtraggio venissero introdotte incautamente nei processi, per esempio, potrebbero ricostruire erroneamente il volto di una persona in una fotografia, documentarne apparentemente la presenza sul luogo del reato e quindi portare alla sua incriminazione. 

Qualcosa di simile è già accaduto con i sistemi di intelligenza artificiale applicati al riconoscimento facciale: il New York Times segnala il caso di un uomo, Nijeer Parks, che nel 2019 è stato accusato di furto e di tentato investimento di un poliziotto perché il software di riconoscimento facciale usato dalla polizia lo aveva “riconosciuto” in un’immagine presente sulla patente falsa esibita dal vero ladro e investitore, che si era poi dileguato. Il signor Parks si trovava in realtà a una cinquantina di chilometri di distanza dal luogo dei reati. È il terzo caso del suo genere.

L’accusa è stata poi annullata, ma non prima che il signor Parks venisse arrestato e incarcerato per dieci giorni senza cauzione e restasse a rischio di processo e pena detentiva per altri mesi, con tutti i disagi che questo comporta.

Fate insomma attenzione nell’usare questi filtri di cosiddetta “intelligenza artificiale”, perché sono molto meno intelligenti di quello che si può pensare. E come tante persone poco intelligenti, spesso quando non sanno come risolvere correttamente un problema si inventano una bugia, sperando che nessuno se ne accorga.

Riconoscimento facciale senza computer: il test per sapere se siete super-riconoscitori

“Non dimentico mai una faccia” sembra la classica battuta da film di
serie B, ma per alcune persone è una realtà. Esistono infatti i cosiddetti
super-riconoscitori, ossia individui che hanno una capacità eccezionale
di riconoscere e ricordare i volti delle persone, arrivando a identificarle
anche in immagini sgranate e confuse in mezzo a una folla. 

Si parla spesso dei sistemi informatici di riconoscimento facciale, visti a
volte come minaccia che consente la sorveglianza automatica di massa e a volte
come strumento potentissimo per rintracciare terroristi e altri criminali
nelle immagini delle telecamere di sorveglianza, ma si parla molto meno di
questi super-riconoscitori, che sono in sostanza dei sistemi di riconoscimento
facciale biologici e hanno prestazioni superiori a quelle dei sistemi
elettronici. Sono, in pratica, la versione reale dei mentat, i computer
umani resi celebri nella fantascienza dalla saga letteraria e cinematografica
Dune di Frank Herbert.

Yenny Seo, di Melbourne, è
uno di questi “computer umani”: è una super-riconoscitrice. In una recente
intervista per il Guardian, ha raccontato di essersi accorta di questa sua capacità superiore alla
media sin da bambina e di averla messa in pratica con molta cautela per non
inquietare le persone.

Una volta, ha detto al Guardian, ha usato il proprio talento per
consentire di acciuffare un taccheggiatore seriale che rubava spesso nel
negozio dove lei lavorava durante gli studi universitari. Le telecamere di
sorveglianza avevano ripreso delle immagini del ladro, ma erano di pessima
qualità. Furono mostrate comunque al personale del negozio e quindi anche a
Yenny. Quando il ladro entrò di nuovo nel negozio, Yenny lo riconobbe subito e
allertò l’addetto alla sicurezza.

Questa capacità di riconoscimento facciale viene usata da tempo dalle forze
dell’ordine di vari paesi, che reclutano le persone che la manifestano. La
polizia di Londra, per esempio, ha una squadra speciale che esamina le riprese
delle scene dei crimini e l’ha usata nelle indagini per rintracciare gli
autori di un avvelenamento di una ex spia russa avvenuto a Salisbury, nel
Regno Unito, nel 2018. Yenny Seo al momento non fa parte di questi gruppi.

Si sapeva da sempre che ci sono persone più o meno brave nel riconoscere i
volti, e che esiste la
prosopagnosia, ossia l’incapacità totale o parziale di identificare un viso o di
distinguerne uno da un altro; il fenomeno opposto, vale a dire il
super-riconoscimento, è emerso grazie a Internet.

Nel 2017 un gruppo di ricercatori della University of New South Wales, in
Australia, che studiava la prosopagnosia, si è accorto che esisteva un 1-2%
della popolazione che aveva una capacità eccezionale di riconoscimento
facciale ed era in grado di memorizzare volti non familiari anche dopo
averli visti solo per qualche istante. 

Questa scoperta è stata possibile grazie allo
strumento di test online che i
ricercatori hanno pubblicato, invitando le persone di tutto il mondo a
provarlo.

Le cause di questa capacità straordinaria sono ancora tutte da capire, ma se
volete sapere se siete dei super-riconoscitori potete usare ancora adesso
questo strumento. Vi verrà
mostrata una prima serie di volti da memorizzare e poi una seconda serie:
dovrete dire quali volti avete già visto e quali no. Yenny Seo è stata
scoperta sfruttando proprio questo test, che è già stato utilizzato da oltre
100.000 persone. Yenny è tuttora tra le prime cinquanta in classifica.

Se siete come me e vi piazzate in fondo alla graduatoria, consolatevi: almeno
la prossima volta che incontrate qualcuno che dovreste conoscere ma non
riconoscete potrete scusarvi dicendo che non è pigrizia o disinteresse, è che
siete fatti così… e lo certifica pure un test medico.

Il riconoscimento facciale va in tilt con le mascherine; aggiornamenti in arrivo

Il riconoscimento facciale va in tilt con le mascherine; aggiornamenti in arrivo

La pandemia sta portando molte persone a indossare mascherine sul volto, e una delle conseguenze tecnologiche inattese di questa nuova pratica è che gli smartphone dotati di sistemi di riconoscimento facciale vanno in tilt, perché devono gestire due aspetti molto differenti dello stesso volto (con e senza mascherina).

Un parziale rimedio potrebbe essere l’impostazione del volto alternativo, ma i test informali danno un tasso di errore piuttosto alto, probabilmente perché il software si aspetta che il volto abbia comunque una bocca di qualche genere, e la bocca è uno degli elementi di biometria usati per il riconoscimento facciale.

Certo, son problemi da primo mondo, ma almeno questi piccoli disagi hanno una soluzione. I possessori di iPhone, infatti, probabilmente riceveranno presto un rimedio sotto forma di aggiornamento di iOS: la versione beta (sperimentale) di iOS 13.5 include un nuovo comportamento di FaceID che gestisce un po’ meglio l’uso di mascherine.

Neanche Apple è in grado di indovinare cosa c’è sotto una mascherina, per cui il rimedio è semplicemente un accesso più veloce al PIN.

Nella versione attuale di iOS, alzare il telefonino al volto per tentare di sbloccarlo con il riconoscimento facciale quando si indossa una mascherina fa vibrare l’iPhone e poi, dopo qualche secondo di tentativi falliti, iOS chiede di far scorrere un dito sullo schermo dal basso verso l’alto per poi digitare il PIN.

Nella versione 13.5 beta, invece, è possibile impostare facoltativamente iOS in modo da saltare direttamente un passaggio, andando direttamente allo scorrimento del dito sullo schermo per sbloccare il telefono con il PIN, senza aspettare che il riconoscimento facciale fallisca.

Non si sa ancora quando verrà rilasciato questo aggiornamento, che includerà anche le funzioni di supporto alle app di tracciamento dei contatti contro la pandemia, ma dovrebbe essere questione di giorni.

È importante resistere alla tentazione di non usare un PIN e di lasciare il telefonino perennemente sbloccato, ma è un rischio di sicurezza altissimo in caso di furto o smarrimento.

Nel frattempo chi è rimasto ai sensori di impronte digitali come sistema di sblocco degli smartphone gioisce. Perlomeno fino al momento in cui si mette i guanti.

Fonte: Ars Technica.

Smartphone Pixel 4 si sblocca anche a occhi chiusi

Smartphone Pixel 4 si sblocca anche a occhi chiusi

Visto che la notizia del Samsung S10 sbloccabile troppo facilmente si è rivelata una bufala, segnalo con un pizzico di cautela quest’altra notizia riguardante sistemi di sblocco biometrici.

Sono state pubblicate segnalazioni secondo le quali il Pixel 4, uno degli smartphone di punta di Google, avrebbe un sensore di riconoscimento facciale con un difetto fondamentale: funzionerebbe anche quando l’utente ha gli occhi chiusi.

Questo sensore usa un sistema di machine learning per riconoscere il volto del proprietario e non ha altri sistemi biometrici di accesso (nessun sensore d’impronta). Il software del sensore non controlla se l’utente ha gli occhi aperti o meno, e questo significa che il telefono può essere sbloccato da malintenzionati, bambini o partner ficcanaso semplicemente puntandolo verso il viso del proprietario mentre dorme o è incosciente.

Google ha confermato questa caratteristica nelle pagine di supporto dello smartphone (“Your phone can also be unlocked by someone else if it’s held up to your face, even if your eyes are closed”) e raccomanda di attivare il lockdown nelle situazioni non sicure.

La cosa curiosa è che le immagini del Pixel 4 circolate prima del lancio ufficiale del prodotto includevano un’impostazione etichettata “Richiedi che gli occhi siano aperti” nel menu del riconoscimento facciale, ma quest’opzione non risulta presente nei modelli messi in vendita.

Secondo Amazon, due legislatori americani su dieci sono criminali. Le gioie del riconoscimento facciale

Secondo Amazon, due legislatori americani su dieci sono criminali. Le gioie del riconoscimento facciale

Sono sempre più numerosi i governi che spingono per l’introduzione del riconoscimento facciale come strumento di sorveglianza e lotta al crimine, ma è importante capire bene la reale affidabilità di questi sistemi, specialmente se non vengono configurati rispettando attentamente le raccomandazioni dei produttori.

Di recente la ACLU, un’associazione statunitense che si batte per la difesa dei diritti civili, ha dato una dimostrazione molto efficace dei limiti di affidabilità del sistema Rekognition di Amazon. Al sistema sono state date in pasto 120 immagini di legislatori californiani, per confrontarle con 25.000 foto segnaletiche di criminali. Rekognition ha trovato 26 corrispondenze. Tutte errate.

I legislatori, che sono chiamati proprio in questo periodo a legiferare sul riconoscimento facciale, ci possono ridere sopra: ma una persona che cerca lavoro e viene erroneamente identificata come un criminale ride molto meno.

Amazon ha contestato i risultati di questa dimostrazione, dicendo che se Rekognition viene usato “usando la soglia raccomandata di certezza del 99% e nell’ambito di una decisione guidata da esseri umani”, funziona adeguatamente. Il test della ACLU, invece, aveva usato una soglia dell’80%. Che però, nota l’associazione, è l’impostazione predefinita del software, ed è comunque piuttosto alta.

Quello che è certo è che senza un’impostazione corretta e scelta caso per caso, il rischio di falsi positivi che possono rovinare una vita è alto. Conviene quindi dare a questi sistemi di riconoscimento facciale una certa tara, altrimenti c’è il rischio che chi li usa li scambi per oracoli infallibili.

Apple, FaceID battuto da un paio di occhiali

Apple, FaceID battuto da un paio di occhiali

Alla conferenza di sicurezza Black Hat di Las Vegas, dei ricercatori della Tencent hanno scoperto e reso pubblica una tecnica che consente di eludere, in certe condizioni, il sistema di riconoscimento facciale FaceID di Apple: mettere alla vittima un paio di occhiali leggermente modificati.

Normalmente FaceID verifica che il proprietario dello smartphone abbia gli occhi aperti, e quindi non stia dormendo, per evitare che qualcuno possa sbloccare il telefonino semplicemente puntandolo sul viso del proprietario appisolato.

Ma questo controllo viene semplificato parecchio se il proprietario indossa occhiali. In questo caso, spiegano i ricercatori, i sensori dello smartphone non estraggono informazioni di tridimensionalità dall’area dell’occhio. Questi sensori, inoltre, si limitano a cercare in quella zona un’area nera (l’occhio) con un punto bianco (l’iride) al centro.

Il risultato è che i ricercatori hanno mostrato che FaceID si può sbloccare mettendo sul viso della vittima un paio di occhiali sulle cui lenti sono stati applicati dei rettangoli di nastro adesivo nero al centro dei quali c’è un pezzetto di nastro adesivo bianco. Lo sblocco consente pieno accesso al contenuto dello smartphone, esattamente come se fosse stato sbloccato dal proprietario.

Può sembrare che questo tipo di vulnerabilità sia sfruttabile solo in circostanze piuttosto estreme: la vittima deve essere in stato di incoscienza tale da non accorgersi che qualcuno le sta mettendo in faccia degli occhiali. Ma ci sono situazioni abbastanza normali nelle quali questo succede, per esempio in seguito a consumo eccessivo di alcolici o all’assunzione di alcuni farmaci o semplicemente perché si ha il sonno pesante.

Il rimedio è piuttosto semplice: se vi aspettate di potervi trovare in una situazione del genere, spegnete completamente lo smartphone o disabilitate lo sblocco tramite riconoscimento facciale.

Il riconoscimento facciale dei computer HP è un po’ poco selettivo?

Matt Carthy, un membro irlandese del Parlamento Europeo, ha raccontato pochi giorni fa di aver scoperto con sorpresa il motivo per cui la batteria del suo laptop si scaricava così tanto ogni volta che lo lasciava a casa.

Il laptop era protetto, si fa per dire, da un software di riconoscimento facciale (probabilmente Windows Hello) e si sarebbe dovuto sbloccare soltanto con il volto del proprietario. Invece veniva regolarmente sbloccato di nascosto dai figli dell’europarlamentare usando, a quanto pare, una tecnica piuttosto astuta.

Visto che le elezioni europee sono imminenti, Carthy aveva in casa dei volantini elettorali. Sui quali c’era una nitidissima foto del suo volto. I figli, dice, hanno messo uno di questi volantini davanti alla telecamera del laptop, sbloccandolo.

Adesso Carthy, come nota nel suo tweet, non è sicuro se essere orgoglioso dell’ingegno dimostrato dai figli o preoccupato per la loro malizia.

L’europarlamentare non ha specificato il modello esatto di laptop HP e non ha fornito altre informazioni sulla sua scoperta, e c’è chi obietta che il riconoscimento facciale dei laptop HP usa gli infrarossi e quindi non dovrebbe farsi beffare da una fotografia. Ma in ogni caso è un incidente divertente che permette di ripassare una regola spesso dimenticata: usare il volto o l’impronta digitale come chiave magica per sbloccare un dispositivo significa usare delle informazioni che sono tutt’altro che segrete.

Va benissimo usarle in circostanze normali, ma quando ci si allontana da un dispositivo protetto dal riconoscimento facciale è meglio che intervenga un altro sistema di blocco più robusto e facile da tenere segreto, come una password lunga e complessa. Gli aggressori si nascondono nei luoghi più impensati.

Intelligenza artificiale rende tridimensionale una foto 2D

Intelligenza artificiale rende tridimensionale una foto 2D

Si parla molto, ultimamente, di riconoscimento facciale e di analisi dei volti tramite sistemi di intelligenza artificiale: di solito in toni distopici, evocando il timore di sorveglianze automatiche inesorabili. Ma stavolta segnalo un caso di intelligenza artificiale decisamente positivo e innocuo: una pagina Web alla quale si può dare in pasto una qualunque foto che mostri il volto di una persona e ottenerne in pochi istanti una versione tridimensionale, come mostrato qui sotto:

È sufficiente visitare questa pagina dell’Università di Nottingham, nel Regno Unito e dargli una propria foto oppure scegliere una di quelle predefinite: in pochi istanti verrà generata una versione 3D del viso (esclusi i capelli).

Il software non si limita ad applicare la foto a un modello generico di volto 3D: se provate la foto predefinita della donna che ha la bocca spalancata, la rende tridimensionale in modo corretto.

Funziona anche con le foto scattate di profilo, ma non con quelle nelle quali il volto è sottosopra, e (pecca gravissima) non funziona con i volti di gattini.

Non fermatevi alle foto
preimpostate, che potrebbero essere state precalcolate e ritoccate:
usate una foto scelta da voi.

Il software è liberamente scaricabile e si basa su questa ricerca. Buon divertimento.

Tumblr, l'epic fail dell’“intelligenza artificiale” continua e peggiora

Tumblr, l’epic fail dell’“intelligenza artificiale” continua e peggiora

Tumblr ha mantenuto la parola e dal 17 dicembre scorso non accetta più contenuti ritenuti “per adulti, compresi i contenuti sessuali espliciti e la nudità (con alcune eccezioni)”, dichiarando di voler diventare così “un Tumblr migliore e più positivo”. Ha iniziato a nascondere i contenuti di questo genere e ha eliminato il pulsante che consente agli utenti di chiedere un riesame della valutazione.

C’è un piccolo problema in questa transizione: per valutare l’enorme massa di contenuti pubblicati dagli utenti, Tumblr ha deciso di utilizzare una sorta di intelligenza artificiale: “Ci affidiamo a strumenti automatizzati per identificare i contenuti per adulti e gli esseri umani per aiutare ad addestrare e tenere sotto controllo i nostri sistemi. Sappiamo che ci saranno errori“, scrive Tumblr. Mai parole finali furono più profetiche.

Gli “strumenti automatizzati” di Tumblr sono diventati la barzelletta di Internet, bloccando di tutto, comprese immagini religiose e persino i post che prendono in giro i suoi errori di riconoscimento in una sorta di Inception ricorsiva, come nota Boingboing (l’errore è stato poi corretto grazie all’intervento manuale di un moderatore):

Forse l’errore più comico è che Tumblr segnala come inaccettabili anche gli esempi di immagini che Tumblr stesso ha creato per mostrare cosa è accettabile e cosa non lo è:

Infatti, puntualmente i prodigiosi “sistemi automatizzati” di Tumblr hanno immediatamente bloccato queste immagini:

Mentre l’ilarità continua, casi come questo possono servire da promemoria ben più serio per tutti quelli che periodicamente partoriscono l‘idea di affidare la sorveglianza dei contenuti e delle persone ai sistemi di riconoscimento automatico. Senza un esercito di esseri umani addestrati a valutare i singoli casi e un modo di contestare gli inevitabili errori, questi sistemi rischiano di essere un autogol formidabile.

Riconoscimento facciale in Cina e controllo sociale

Riconoscimento facciale in Cina e controllo sociale

La recente trasmissione della RSI Dataland ha raccontato il sistema di controllo sociale automatizzato adottato in alcune città della Cina, dove telecamere dotate di riconoscimento facciale identificano chi attraversa le strisce pedonali quando ha il semaforo rosso. Il volto e il nome della persona vengono mostrati istantaneamente su un megaschermo.

A Shenzhen, per esempio, chi viene colto a commettere ripetutamente questo comportamento vietato viene punito perdendo punti nel proprio “credito sociale”: perde l’accesso a prestiti, non può prendere un aereo o un treno ad alta velocità, e altro ancora. No, non è una puntata di Black Mirror: questa è la realtà resa possibile dai costi bassissimi dei sistemi di sorveglianza di massa.

Gli amanti dell’ordine sociale potrebbero dire “Beh, ma dove sta il problema? Basta rispettare la legge.” Ma cosa succede quando questi sistemi automatizzazi sbagliano e riconoscono una persona che non c‘entra nulla?

È successo proprio questo, secondo quanto riporta il South China Morning Post: nella città portuale di Ningbo, il sistema ha colto in fallo la signora Dong Mingzhu, perché ne ha riconosciuto il volto, e l‘ha denunciata pubblicamente facendo comparire il suo volto e il suo nome sul megaschermo della vergogna.

Ma Dong Mingzhu non aveva affatto attraversato le strisce col rosso: il suo volto era presente nella pubblicità sulla fiancata di un autobus che transitava sul passaggio pedonale. La signora, infatti, è una notissima imprenditrice che dirige una grande azienda di impianti per l’aria condizionata.

La polizia locale si è prontamente scusata e ha detto che il sistema è stato completamente aggiornato. La signora Dong ha orwellianamente ringraziato la polizia per il proprio lavoro e invitato la popolazione a rispettare le regole del traffico. Ma viene da chiedersi cosa sarebbe successo se la persona erroneamente riconosciuta non fosse stata una celebrità capace di far sentire la propria voce.

Fonte: Naked Security.