Hack : des commandes inaudibles et discrètes envoyées aux assistants vocaux type Siri … par ultrasons
Les assistants
vocaux comme Siri, Alexa, Google Assistant sont capables d’effectuer pas mal
d’actions à travers diverses commandes vocales que donnent les utilisateurs à
leur appareil. Toutefois, ces machines peuvent aussi capter et répondre à des
commandes inaudibles.
C’est ce que viennent de démontrer des chercheurs chinois de l’université de
Zheijiang, qui ont transformé les commandes vocales en sons inaudibles
pour l’oreille humaine, mais auxquels la machine répond comme
lors d’une commande vocale normale.
Ces chercheurs ont nommé ce type de hack "DolphinAttack" en référence aux
sons produits par les dauphins. Ils ont converti des commandes vocales
en ultrasons qu’un humain ne peut pas entendre, mais que
l’assistant vocal peut capter et interpréter comme une commande normale.
Bien que la démonstration soit impressionnante et qu’elle poser l question
de la sécurité des appareils, cette méthode n’est en pratique pas
utilisable pour pirater un autre appareil via l’assistant vocal pour
plusieurs raisons.
En effet, il faut se trouver très proche d’un appareil et
dans un environnement relativement silencieux pour utiliser ce
"DolphinAttack".
De plus, la plupart des commandes importantes demandent de rentrer
un code ou une reconnaissance d’empreintes digitales pour
déverrouiller l’appareil et valider la commande vocale.
Face à cela, les fabricants de smartphones devraient aussi probablement
améliorer leurs assistants vocaux pour les sécuriser encore plus.
Wouego (posté avec l'app i-nfo.fr V2)
8 septembre 2017 à 18 h 28 min
Ca ne sert à rien et je ne connais pas de dauphin
Doudou (posté avec l'app i-nfo.fr V2)
8 septembre 2017 à 14 h 57 min
@sandra.mcc
Ce n’est peut être pas une "faille" logicielle, mais des capacités matérielles
supérieures. C’est la capacité d’acquérir des ultrasons, ensuite le
fonctionnement et les traitements logiciels sont les mêmes.
Et/Ou alors, le filtrage numérique en entrée laisse bien passer des fréquences
supérieures… et c’est volontaire, ou c’est un bug (mais j’ai quand même des
doutes a ce niveau la…).
Jey (posté avec l'app i-nfo.fr V2)
8 septembre 2017 à 14 h 30 min
C’est pas une question de codage, mais juste le fait d’utiliser une bande de
fréquences sonores inaudibles.
J’ai toutefois un doute sur la résolution de l’entrée son : si l’iPhone a une
puce audio à 44,1kHz (résolution CD), il ne peut pas "entendre" des fréquences
au delà de 22kHz. Donc soit l’iPhone a une meilleure résolution (ce qui serait
une bonne chose), soit le son envoyé se situe dans les 20-22 kHz, ce que la
plupart des humains n’entendent pas.
sandra.mcc
8 septembre 2017 à 11 h 54 min
Impressionnant mais je me pose une question, pour qu’un assistant vocal
réponde a ce genre de requête, SIRI ou autre, il faut bien qu’il ait été
programmé pour, non ?
Je ne m’y connais pas vraiment en codage, mais cela me parait logique que
les créateurs, ou au moins un développeur de SIRI par exemple ai crée un code
afin que SIRI reconnaisse les ultra sons…
Si oui, la question est … POURQUOI ?
Dans ce cas, ce n’est un secret pour aucune personne chez Apple alors, ce
n’est donc pas une faille… mais une chose utile entre eux en secret a quelque
chose.
En fait a chaque fois que je vois des failles d’un programme, je me demande
comment et pourquoi le mec qui a crée ce meme programme … NE LE SAIT PAS
!