Basta un laser per hackerare gli assistenti vocali di smartphone e altoparlanti

Per gli utentiamazonVoice Assistant

Come ben sanno gli appassionati di tecnologia, Google Assistant, Amazon Alexa, Apple Siri e Facebook Portal sono piattaforme Internet basate sull’intelligenza artificiale che gli utenti controllano emettendo comandi vocali tramite smartphone o altoparlanti domestici “intelligenti”.

O almeno è quello che abbiamo pensato fino a questa settimana, quando un team americano-giapponese ha pubblicato un documento di ricerca che conferma una possibilità interessante e sottovalutata: questi dispositivi accettano anche comandi di “signal injection” inviati loro utilizzando impulsi di luce laser su distanze di cento metri o più.

Finora, l’hacking di tali sistemi ha riguardato l‘invio di comandi acustici all’insaputa del proprietario. Ora la ricerca conferma che è possibile ottenere lo stesso risultato su distanze considerevoli in modi che potrebbero consentire agli aggressori di sbloccare “porte d’ingresso protette da smartlock, aprire garage, fare acquisti su siti Web di e-commerce a spese della del bersaglio o persino individuare, sbloccare e avviare veicoli” collegati all’account Google della vittima.

Vale la pena ricordare che gli assistenti vocali non sono solo strumenti o comodità e che oggi un crescente volume di tecnologia sensibile alla sicurezza è collegato ad essi.

Una luce brillante

Dispositivi a comando vocale che accettano comandi tramite la luce?

Sembra improbabile, ma ciò che lo rende possibile è l’effetto fotoacustico che esiste dal 1880 quando lo scienziato Alexander Graham Bell inventò un dispositivo di comunicazione ottica sfruttandolo.

Egli scoprì che la luce accesa su un oggetto lo fa riscaldare leggermente in un modo che generi onde sonore che i microfoni, compresi gli odierni i diaframmi MEMS (sistemi microelettromeccanici), trasformano in segnali elettrici.

I ricercatori riassumono così il fenomeno:

Pertanto, modulando un segnale elettrico nell’intensità di un raggio luminoso, gli aggressori possono indurre i microfoni a produrre segnali elettrici come se stessero ricevendo un audio autentico.

Gli ingegneri, compresi quelli che progettano dispositivi a comando vocale, dovrebbero saperlo. Sfortunatamente, la scoperta di Graham Bell ha ceduto il posto alle comunicazioni radio e l’acustica fotografica è caduta nel dimenticatoio.

Il principio è spiegato in un video realizzato dai ricercatori.

Cosa è possibile

Secondo i ricercatori, fintanto che il segnale luminoso viene puntato con attenzione utilizzando un teleobiettivo con la giusta quantità di luce, qualsiasi microfono basato su MEMS utilizzato nei dispositivi più diffusi è vulnerabile.

Le distanze a cui è possibile la comunicazione variano a seconda del dispositivo, essi vanno dai 110 metri per Google Home e Echo Plus 1a generazione a poco più di 20 metri per l’iPhone XR di Apple e l’iPad di sesta generazione.

L’attrezzatura utilizzata per eseguire i test era un puntatore laser economico da cinque milliwatt, un driver laser, un amplificatore del suono e un teleobiettivo di base, che costavano insieme meno di $ 600.

Un’obiezione che i produttori di assistenti vocali potrebbero fare è che questo tipo di attacco laser ha ancora bisogno di una linea di mira, ad esempio da un edificio all’altro. Non è chiaro quanto spesso ciò sarebbe possibile nelle condizioni del mondo reale. L’ovvia mitigazione è mantenere questi dispositivi lontano dalle finestre.

Tuttavia, i ricercatori ritengono che fare ipotesi sia il modo sbagliato di comprendere le vulnerabilità in questa classe in espansione di dispositivi gatekeeper.

Attualmente, i microfoni che ricevono comandi vocali non eseguono alcuna autenticazione oltre al controllo delle frasi di riattivazione come “OK Google” che sono nella voce del proprietario, ma anche questo può essere falsificato utilizzando la sintesi vocale.

Il problema dell’autenticazione potrebbe essere risolto in diversi modi – ad esempio, richiedendo che più di un microfono rilevi lo stesso comando contemporaneamente, qualcosa che un attacco laser troverebbe difficile da superare.

Alla fine, ciò che conta per il gran numero di consumatori che acquistano assistenti vocali è che i produttori iniziano a prendere la loro sicurezza più seriamente facendosi carico del peggio, invece di sperare per il meglio.

Leave a Reply

Your email address will not be published.