Vai al contenuto
Alexa fa parlare i morti

Alexa fa parlare i morti

Questo articolo è disponibile anche in versione podcast audio.

C’è una puntata della celebre serie distopica Black Mirror, intitolata
Be Right Back
(Torna da me nella versione italiana), nella quale una donna subisce la
perdita drammatica del proprio partner in un incidente.

Al funerale, un’amica le parla di un servizio online che raccoglie tutte le
informazioni pubblicate sui social network dal defunto e tutti i suoi messaggi
vocali e video e da lì crea un avatar che sullo schermo dello smartphone parla
esattamente come lui e ha il suo stesso aspetto. 

Inizialmente inorridita, la donna rifiuta, ma poi… succedono cose che non
racconto per non guastare la storia a chi non ha ancora visto questa puntata.

Dovrebbe essere chiaro a tutti che le storie di Black Mirror sono
esempi di cosa non
fare con la tecnologia, ma a quanto pare qualcuno ad Amazon ha scambiato
questa serie per un manuale di istruzioni.

Pochi giorni fa, infatti, Rohit Prasad, capo ricercatore dell’intelligenza
artificiale di Alexa, il celebre assistente vocale di Amazon, ha presentato in
una conferenza pubblica una versione di Alexa che è in grado di imitare le
voci delle persone, e l’esempio che fa sembra proprio preso di peso da
Black Mirror.

“In questi tempi di pandemia perdurante” dice
“così tanti di noi hanno perduto qualcuno che amiamo. Anche se
l’intelligenza artificiale non può eliminare quel dolore della perdita, può
certamente far durare i loro ricordi.”

A questo punto Prasad mostra un video nel quale un giovane ragazzo chiede ad
Alexa di fare in modo che la nonna, che non c’è più, gli finisca di leggere
Il Mago di Oz.

Alexa risponde “OK” con la sua solita voce, ma poi cambia tono e recita
con la voce della nonna del ragazzo.

Il video è già posizionato al momento giusto, a 1:02:38.

Già così la cosa può evocare sentimenti contrastanti, ma quello che dice poi
Prasad è ancora più inquietante: la voce della nonna è stata ricreata partendo
da meno di un minuto di una sua conversazione. Non servono più ampi e
lunghi campioni di voce registrati accuratamente in uno studio.

Si potrebbe discutere sull’impatto emotivo di questa nuova tecnologia e
chiedersi se sentire per casa la voce di una persona amata che non c’è più,
ricreata artificialmente da un programma, sia davvero una consolazione o una
forma di prolugamento del dolore. Ma c’è una questione molto più concreta, che
va affrontata subito, mentre questa capacità di imitazione non è ancora
disponibile al pubblico: se è possibile imitare facilmente la voce di una
persona in questo modo per ricrearne la presenza, allora è possibile farlo,
per esempio, anche per sbloccare il suo smartphone bloccato dal riconoscimento
vocale o per scavalcare le cosiddette password vocali usate da alcune banche e
persino dal Fisco britannico, che fino a pochi anni fa
chiedeva
ai contribuenti di identificarsi al telefono dicendo la frase
“my voice is my password”, ossia
“la mia voce è la mia password”.

No, non funziona così. Se la tua voce la possono imitare tutti, la tua
password è di tutti.

Il problema è che Amazon non è l’unica azienda in grado di replicare
realisticamente la voce di una persona specifica, la potenza di calcolo e il
campione audio necessari diventano sempre più piccoli, e non sembra esserci
alcun modo di impedire a malintenzionati di registrare la nostra voce. 

Forse è il caso di cominciare a smettere di usare sistemi di sicurezza basati
sul riconoscimento vocale. E magari di passare del tempo a chiacchierare con
la nonna, finché si può. 

Fonti aggiuntive:
Graham Cluley,
Ars Technica,
The Register.

Alexa prega con te, ma solo se la paghi: occhio agli acquisti vocali

Alexa prega con te, ma solo se la paghi: occhio agli acquisti vocali

Questo articolo è disponibile anche in versione podcast.

Con tutti questi malware in giro, c’è quasi da dire le preghiere ogni volta
che si sta per aprire un allegato. Il guaio è che in informatica anche la
preghiera può nascondere un raggiro.

Lo sa bene Patricia Collinson, una devota ottantasettenne che vive a Hastings,
nel Regno Unito, e si è trovata involontariamente al centro di un inganno
informatico decisamente insolito. La figlia le ha regalato un assistente
vocale, un altoparlante Alexa di Amazon, e la signora ha iniziato a usarlo con
entusiasmo, soprattutto quando ha scoperto che poteva chiedere ad Alexa,
semplicemente parlando, di recitare una preghiera con lei, specificamente
l’Ave Maria.

Quasi tutte le mattine la signora Collinson si sedeva in poltrona e parlava ad
Alexa come se fosse una persona, dicendole
“Buongiorno Alexa, puoi recitare per favore l’Ave Maria?”, e Alexa
eseguiva prontamente la richiesta.

Ma l’entusiasmo della signora è passato ben presto quando si è accorta, grazie
alla figlia, che la solerte Alexa recitava l’Ave Maria solo per soldi. Infatti
la signora, senza rendersene conto, si era abbonata a un servizio a pagamento
semplicemente parlando ad Alexa.

La figlia, alla quale era intestato l’account di Alexa, se ne è accorta quando
ha ricevuto una mail dalla ditta statunitense Catholic Prayers che la
informava dell’attivazione di un abbonamento a pagamento sull’Alexa che lei
aveva regalato alla madre. Due sterline al mese, quindi non certo un salasso,
ma restava il problema che la signora Collinson aveva attivato un contratto di
addebito permanente a un servizio semplicemente con la voce, senza nessuna
delle normali conferme visive o cartacee che esistono negli acquisti normali.

Questa situazione potenzialmente ingannevole è stata confermata da Amazon al
figlio della signora Collinson, che l’ha
documentata
per il giornale britannico The Guardian dove lavora: si possono fare
acquisti a voce, ha confermato Amazon,
“dicendo di sì a un messaggio di offerta di un prodotto, generato quando un
cliente richiede direttamente il prodotto o quando il cliente risponde
positivamente a un suggerimento proattivo all’interno della skill”
. Le skill sono, in sostanza, l’equivalente vocale delle app. 

[nel podcast qui c’è l’audio di Alexa che offre di acquistare a voce, tratto da
Voice Technology di Alessio Pomaro]

La ditta Catholic Prayers, contattata, ha ipotizzato che la signora non si sia
resa conto che Alexa la stava avvisando che il servizio di preghiera era a
pagamento e abbia risposto di sì a questo avviso. La ditta, fra l’altro, dice
di avere circa 10.000 utenti al mese. Viene da chiedersi se esistono davvero
diecimila persone consapevolmente disposte a pagare due sterline al mese per
farsi dire da un altoparlante una preghiera che possono sentire gratis (per
esempio tramite l’assistente vocale di Google) o se si tratta almeno in parte
di persone che sono cadute nello stesso equivoco della signora Collinson.

Dato che questi assistenti vocali vengono regalati sempre più spesso a persone
che non hanno competenze informatiche e non sanno cosa sia una skill o
che si possano generare degli addebiti semplicemente parlando, è importante
che chi fa questi regali sia ben consapevole di queste funzioni, per evitare
addebiti indesiderati, e sappia come disabilitarle.

Per impedire acquisti accidentali fatti a voce con un dispositivo Alexa si può
entrare nell’account che lo gestisce e selezionare, nelle impostazioni, la
sezione
Acquisti tramite voce. Qui si può scegliere se disattivarla completamente oppure se proteggerla
con un codice segreto di quattro cifre che dovrà essere detto ad Alexa per
confermare l’intenzione di acquisto. In questo modo, solo chi conosce questo
codice potrà fare acquisti. Ovviamente, se il codice viene detto in presenza
di altre persone non sarà più segreto.

Viene da chiedersi quanti utenti di questi assistenti vocali siano a
conoscenza di queste funzioni di acquisto automatico e sappiano come
impostarle correttamente. Nel frattempo, Amazon segnala con entusiasmo sulle
proprie
pagine promozionali
che ci sono sviluppatori che hanno guadagnato
25.000 dollari in soli sei mesi
vendendo agli utenti Alexa la funzione che consente all’assistente vocale di
dire “Buona notte” e una frase di conforto. E lasciando da parte un
momento la questione degli addebiti non intenzionali, fa tristezza pensare che
ci siano persone così sole da essere disposte a pagare per farsi dire una
preghiera o la buonanotte da una macchina.

Alexa, riconoscimento vocale offline in arrivo

Alexa, riconoscimento vocale offline in arrivo

Mentre mancano prove di un ascolto generalizzato delle nostre conversazioni da parte degli smartphone, sappiamo invece con certezza che parte delle nostre conversazioni viene carpita dagli assistenti vocali, come Alexa, Cortana, Siri o l’Assistente Google. 

Il funzionamento di questi assistenti vocali, infatti, prevede esplicitamente che vengano registrati e trasmessi alle rispettive case produttrici tutti i suoni ambientali captati dai loro microfoni appena prima e appena dopo che è stata pronunciata la wake word o parola di attivazione (“Alexa” o “OK, Google”, eccetera): i comandi, infatti, vengono interpretati dai computer remoti di queste case produttrici, non dal dispositivo locale.

A volte questi assistenti credono di aver sentito la wake word quando in realtà è stato detto qualcos’altro e quindi può capitare che prendano degli spezzoni di conversazione privata e li mandino a Google, Amazon, Microsoft o Apple, dove possono essere archiviati e ascoltati da alcuni dipendenti di queste aziende (se la cosa non vi piace, potete chiedere l’eliminazione delle registrazioni). Ma a parte questi incidenti, non effettuano intercettazioni generalizzate e di massa.

Anche così, comprensibilmente molti utenti non vogliono correre il rischio di avere orecchie indiscrete in casa, per esempio nei momenti intimi o durante incontri professionali confidenziali, per cui rifiutano di installare Alexa e simili in casa o in ufficio. 

Però un assistente vocale è spesso molto comodo. I problemi di riservatezza e sorveglianza sparirebbero ce ne fosse uno che fa il riconoscimento vocale in locale, senza mandare spezzoni della nostra voce a nessuno e cancellandoli automaticamente dal dispositivo dopo che sono stati usati. Amazon ha presentato proprio questa possibilità pochi giorni fa: sarà disponibile “prossimamente”, perlomeno per gli utenti statunitensi (video, a 00:4:50).

Purtroppo questa opzione riguarda soltanto i dispositivi più recenti di Amazon, dotati di processore AZ1 Neural Edge e quindi è disponibile soltanto sugli Echo di quarta generazione, sull’Echo Show 10 e sui dispositivi futuri. Non sarà disponibile sui dispositivi precedenti.

È comunque un buon segno: la privacy aumenta e in più i tempi di risposta diventano più brevi grazie al fatto che il riconoscimento dei comandi avviene localmente invece di dover registrare la voce e mandarla via Internet a computer remoti che poi restituiscono l’azione corrispondente.

Fonti aggiuntive: The Verge, Engadget.

Mille parole che attivano per errore gli assistenti vocali e registrano le nostre voci

Mille parole che attivano per errore gli assistenti vocali e registrano le nostre voci

Ci sono oltre mille parole o sequenze di parole che possono attivare per errore gli assistenti vocali, come Siri, Google Assistant, Alexa o Cortana, e quindi mandare ad Apple, Google, Amazon o Microsoft spezzoni delle vostre conversazioni domestiche o sul luogo di lavoro.

Questo è il risultato di uno studio, intitolato Unacceptable, where is my privacy?, realizzato da un gruppo di ricercatori della Ruhr Universität Bochum e del Max Planck Institute for Security and Privacy, che dimostrano il fenomeno con una serie di video che mostrano attivazioni errate causate da dialoghi del Trono di Spade e di Modern Family: “a letter”, “We like some privacy” (ironico), “Hey Jerry”.

Fra le altre parole o frasi che causano attivazioni errate ci sono unacceptable e election (per Alexa), OK cool (per Google Assistant), a city (per Siri), Montana (per Cortana). Sarebbe interessante fare uno studio analogo per l’italiano e per altre lingue oltre all’inglese.

Il fenomeno in sé era già noto, ma la novità è la quantità di parole comuni che possono causare queste attivazioni impreviste: è talmente elevata che è necessario presumere che qualunque conversazione fatta in presenza di un assistente vocale non sia privata. L’unico modo per risolvere questo problema è spegnere o silenziare questi assistenti, o non possederli affatto. La ricerca include le istruzioni per riascoltare, o almeno cancellare, quello che è stato registrato dall’assistente vocale e trasmesso alla rispettiva azienda.

Fonte aggiuntiva: Ars Technica.

Google e SpaceX vietano Zoom, dobbiamo preoccuparci? No, ma le burle abbondano

Google e SpaceX vietano Zoom, dobbiamo preoccuparci? No, ma le burle abbondano

Google e SpaceX hanno avvisato i propri dipendenti che non dovranno più usare Zoom, l’applicazione per videoconferenze diventata improvvisamente popolarissima, a causa delle sue “vulnerabilità di sicurezza”. Lo stesso hanno fatto la NASA e l’intero stato di Singapore a livello scolastico, e anche altri paesi, come Taiwan e la Germania, hanno imposto restrizioni.

Il problema principale non è la sicurezza informatica in senso stretto, che comunque non è altissima ma sta migliorando in fretta ed è accettabile per riunioni non strettamente confidenziali: è la vulnerabilità ad attacchi fatti da disturbatori, facilitati dalle imprudenze degli utenti.

Infatti lo zoombombing, ossia l’incursione in audio e video di sconosciuti che interferiscono nella sessione, è diffuso, nonostante sia facilmente contrastabile mettendo una password di accesso e adottando la cosiddetta “anticamera” per accogliere i partecipanti. Zoom ha reso ora obbligatorie queste funzioni.

Ma anche così, gli informatici più dispettosi hanno scoperto come farsi scherzi a vicenda, tipo entrare legittimamente in una sessione di videoconferenza e poi dire “Ehi Google, raccontami una barzelletta” (o lo stesso con Alexa o con Siri) per attivare gli assistenti vocali incautamente lasciati attivi durante la sessione. Ricordatevi quindi di spegnere o mettere in “muto” questi dispositivi (compresa la versione su tablet e smartphone) prima di partecipare a incontri in video e di usare le cuffie invece dei sistemi vivavoce.

Se lavorate da casa, spegnete gli altoparlanti “smart”. Potrebbero sentire troppo

Se lavorate da casa, spegnete gli altoparlanti “smart”. Potrebbero sentire troppo

Ultimo aggiornamento: 2020/03/27 14:00.

Molti in questi giorni si trovano a dover lavorare da casa, con telefonate e videoconferenze nelle quali scambiano informazioni confidenziali. Medici, avvocati, docenti e tante altre persone devono garantire, anche in condizioni straordinarie, la riservatezza delle comunicazioni.

A parte tenere un volume di voce non troppo alto in modo da non far sentire tutto anche ai vicini e tenere fuori dalla stanza partner e bambini, che sono precauzioni piuttosto ovvie, bisogna tenere presente anche un aspetto informatico: gli altoparlanti smart, come Amazon Echo (Alexa) o Google Home, o gli assistenti vocali come Google Assistant, Siri o Cortana.

Questi altoparlanti e assistenti, infatti, hanno un microfono che può attivarsi spontaneamente, senza che siano state pronunciate le parole di attivazione, e può quindi captare le conversazioni private e trasmetterle ad Amazon o Google, dove possono essere ascoltate dai dipendenti di queste aziende.

Le attivazioni non intenzionali capitano più spesso di quello che molti immaginano. Una ricerca della Northeastern University e dell’Imperial College di Londra indica che gli utenti attivano involontariamente i loro altoparlanti “smart” da una volta e mezza fino a 19 volte al giorno.

Il consiglio è quindi di mettere in muto, o scollegare dall’alimentazione elettrica, questi altoparlanti almeno in orario di lavoro se si fanno conversazioni sensibili. Gizmodo ha preparato una guida (in inglese) su come trovare e cancellare tutto quello che viene captato dagli assistenti digitali.

Come violare uno smartphone usando un tavolo

Come violare uno smartphone usando un tavolo

Una ricerca intitolata SurfingAttack: Interactive Hidden Attack on Voice Assistants Using Ultrasonic Guided Waves descrive un attacco informatico decisamente originale e creativo: usare un tavolo per prendere il controllo di uno smartphone senza neppure toccarlo.

L’attacco funziona così: uno speciale dispositivo, un trasduttore piezoelettrico che costa una manciata di dollari, genera vibrazioni che l’orecchio umano non può sentire ma che, se il dispositivo è messo a contatto con una superficie sulla quale è appoggiato il telefonino, possono propagarsi attraverso il materiale della superficie e arrivare al microfono dello smartphone, che è più sensibile di un orecchio umano.

Queste vibrazioni producono suoni non udibili dagli utenti, che il microfono interpreta come comandi vocali rivolti all’assistente vocale (Siri, Hey Google, eccetera). Questi comandi possono essere usati per fare chiamate internazionali costosissime o captare il testo degli SMS di verifica per gli account.

L’altro ingrediente richiesto per questa trappola informatica è un microfono che capti le risposte dell’assistente vocale e le trasmetta all’aggressore.

Difendersi, per fortuna, è facile, se si sa che esiste questo genere di attacco: a parte disabilitare la funzione di ascolto costante e di attivazione automatica dell’assistente vocale, basta che sul tavolo ci sia una tovaglia spessa o che il telefono abbia una custodia un po’ massiccia.

Cancellare la cronologia di un assistente vocale

Cancellare la cronologia di un assistente vocale

Gli assistenti vocali memorizzano quello che diciamo loro: le nostre parole non svaniscono nel nulla ma vengono conservate. Sappiamo che questi assistenti spesso si attivano spontaneamente, senza che li abbiamo invocati, per cui spesso captano e registrano pezzi di conversazioni intime che non avevamo intenzione di condividere con Google, Apple, Amazon, Facebook o Microsoft.

Se volete riesaminare quello che hanno archiviato su di voi questi assistenti ed eventualmente cancellarlo, questo articolo di Gizmodo contiene le istruzioni dettagliate (in inglese, ma facilmente deducibili in italiano) su come procedere con quasi tutti questi assistenti vocali.

Per l’Assistente Google, per esempio, bisogna entrare nel proprio account Google visitando myaccount.google.com e cliccare su Dati e personalizzazioneUtilizza gestione attività.

  • Per riesaminare tutte le cose dette volontariamente o involontariamente all’Assistente, cliccate su Gestisci attività e poi su Filtra per data e prodotto. Scegliete Assistente e poi Applica.
  • In Utilizza gestione attività potete disattivare l’opzione Includi registrazioni vocali e audio per cancellare tutte le registrazioni vocali acquisite e cliccare su Gestisci attività e poi su Scegli di eliminare automaticamente. A questo punto potrete scegliere se eliminare tutto automaticamente dopo tre o diciotto mesi.

Invece per cancellare la cronologia vocale di Siri sui vari dispositivi (iPhone, iPad, iPod touch, Apple Watch, Apple TV, HomePod e Mac) bisogna seguire una procedura distinta per ogni singolo dispositivo.

Amazon Alexa, invece, è gestibile entrando nel proprio account Amazon, scegliendo Account e liste e poi Contenuti e dispositivi – Privacy di Alexa e Rivedi la cronologia voce. Scegliendo Intera cronologia come intervallo di date compare la possibilità di rivedere o eliminare tutto. Fra l’altro, esiste anche una scorciatoia: se si abilita in questa pagina l’opzione Abilita l’eliminazione tramite comando vocale, potete eliminare una registrazione dicendo “Alexa, elimina quello che ho appena detto” oppure eliminare tutte quelle del giorno dicendo “Alexa, elimina tutto quello che ho detto oggi.

Attivare un assistente vocale di nascosto con un laser

Attivare un assistente vocale di nascosto con un laser

Siri, Alexa, Facebook Portal e Google Home, i popolari assistenti vocali, sono vulnerabili a un attacco che sembra preso di peso da un film di fantascienza: è sufficiente puntare un raggio laser modulato (anche invisibile, se negli infrarossi) su un punto preciso dei dispositivi che incorporano questi assistenti per prenderne il controllo e impartire comandi vocali silenziosi e potenzialmente pericolosi, come “acquista questo prodotto” oppure “spegni tutte le luci e sblocca la porta d’ingresso”.

Il punto preciso da colpire corrisponde ai microfoni incorporati in questi assistenti. Questi microfoni, realizzati in tecnologia MEMS (sta per Micro-ElectroMechanical Systems), sono misteriosamente sensibili alla luce laser.

I ricercatori, composti da esperti in Giappone (University of Electro-Communications, Tokyo) e presso la University of Michigan, hanno dimostrato di essere in grado di prendere il controllo di questi assistenti anche attraverso una finestra e persino stando in un altro edificio a 70 metri di distanza dal bersaglio.

L’attrezzatura necessaria non è particolarmente complicata o costosa, e l’unica difesa attualmente disponibile è piazzare i propri assistenti vocali lontano da qualunque finestra che dia sull’esterno. Oppure fare direttamente a meno di questi assistenti.

L’attacco è particolarmente interessante non solo per la sua modalità da film, ma anche perché scavalca uno dei limiti finora presenti negli attacchi informatici a questi dispositivi, ossia la necessità per il malfattore di introdursi in casa per poterli usare in modo improprio.

Gli assistenti vocali, infatti, sono concepiti per avere la massima facilità d’uso, per cui rispondono a qualunque voce e non chiedono quasi mai password di conferma prima di eseguire i comandi. Ma i loro microfoni hanno una portata che si limita al volume dell’abitazione, per cui normalmente questa assenza di protezioni non è un problema, salvo che il “malfattore” sia un membro della famiglia (un bambino, per esempio) oppure una persona invitata in casa.

Con questa tecnica, denominata Light Commands, questo limite non c’è più. I dettagli sono raccontati presso LightCommands.com.

Fonte aggiuntiva: Ars Technica.

Come rubare password con Alexa o Google Home

Come rubare password con Alexa o Google Home

Caso mai servissero altri promemoria che installarsi in casa o in ufficio un microfono aperto e connesso a Internet non è una buona idea in termini di sicurezza e privacy, gli esperti di Security Research Labs hanno creato una dimostrazione di come gli assistenti vocali Alexa di Amazon o Google Home possono essere manipolati per rubare password o altri dati personali ai loro utenti oppure per ascoltare le loro conversazioni.

Su questi dispositivi è possibile installare delle specie di app, chiamate skill per Alexa e Action per Google Home, che ne estendono le capacità.

In due video dimostrativi, gli esperti mostrano come è possibile ingannare gli utenti:

La vittima invoca, con un comando vocale, un’app di oroscopi (creata dai ricercatori). L’app risponde dicendo che il servizio non è disponibile nel paese dell’utente, e così l’utente pensa che l’app sia terminata. Ma in realtà l’app è ancora attiva, e nelle sue istruzioni c’è un silenzio di un minuto, inserito grazie a un difetto di programmazione: la sequenza di caratteri U+D801 – punto – spazio, che non è pronunciabile, viene “pronunciata” come silenzio.

Dopo il minuto di silenzio, che fa pensare all’utente ancora più chiaramente che l’app (skill/action) precedente sia finita, l’assistente vocale annuncia che è disponibile un aggiornamento del dispositivo e chiede di pronunciare la password dell’account per autorizzarne l’installazione.

Né Google né Alexa chiederebbero mai la password in questo modo, ma inevitabilmente ci sono tanti utenti che non lo sanno e quindi pensano che la richiesta sia assolutamente legittima.

Se l’utente cade nella trappola e dice la propria password, questa viene registrata dall’app ostile. I gestori dell’app possono a questo punto usare questa password per prendere il controllo dell’account Amazon o Google, con tutte le conseguenze del caso.