Menu
Begeek.fr
Obtenir l’application
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
  • Pop Culture
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Les meilleures cartes bancaire Bitcoin
    • Les meilleurs wallet crypto
    • Créer son RIG de minage
    • Cloud mining et stacking
En ce moment : 
  • Intelligence artificielle
  • Discord
  • Facebook
  • Snapchat
  • TikTok

Méfiance, les assistants vocaux seraient vulnérables au piratage

Tech > Piratage
Par Emmanuel Ghesquier,  publié le 12 mai 2018 à 15h00, modifié le 12 mai 2018 à 15h10.

Ce sont des chercheurs qui le disent : les assistants vocaux ne sont pas exempts de dangers et de risques. En effet, ceux-ci auraient des vulnérabilités, ce qui serait propice à différentes formes de piratage, notamment par l’intermédiaire de commandes audio.

Les assistants vocaux sont l’accessoire dont on parle beaucoup ces derniers mois. C’est l’appareil ultra-tendance du moment pour les fans de domotique, mais qui n’est pourtant pas dénué de danger pour la vie privée. Plusieurs chercheurs l’ont d’ailleurs mis en avant, comme cette équipe chinoise qui a révélé la méthode « DolphinAttack ».

Attention aux failles de sécurité sur les assistants vocaux !

Le dispositif permettait de pirater les plus connus des assistants vocaux comme Cortana, Siri ou Google Assistant par l’intermédiaire d’attaque à base d’ultrasons. Plus récemment, le New-York Times a donné la parole à des experts qui montrent que les assistants vocaux ont d’autres vulnérabilités.

Ainsi, il serait possible de faire appel à des commandes audio inaudibles pour un être humain, de les cacher dans des vidéos YouTube ou des morceaux de musique, et de pirater des assistants vocaux. Les hackers pourraient ainsi faire envoyer de l’argent ou des messages à l’insu des usagers.

Un piratage via des commandes audio inaudibles

Chose inquiétante, les firmes comme Google, Amazon ou Apple semblent encore avoir des difficultés à contrer ces attaques, bien qu’elles s’en défendent et se veulent rassurantes. Un porte-parole de Google a ainsi indiqué au site Cnet que les usagers pouvaient solliciter Voice Match.

Et de préciser que le dispositif « est conçu pour empêcher l’assistant de répondre à des requêtes liées à des achats ou à l’accès à des informations sensibles s’il ne reconnaît pas la voix de l’utilisateur ». Pourtant, Voice Match a lui aussi ses limites, ne fonctionnant que dans certaines configurations.

Si Amazon se veut aussi rassurant, ayant pris des mesures pour que ses enceintes Echo soient moins sujettes au risque, ces dispositifs sont loin d’être parfaits. Quant à Apple, il n’a pas réagi aux révélations faites par le New-York Times. Les enjeux financiers étant importants, il y a toutefois de fortes chances pour que les assistants vocaux soient plus sécurisés à l’avenir.

Le Récap
  • Attention aux failles de sécurité sur les assistants vocaux !
  • Un piratage via des commandes audio inaudibles
En savoir plus
  • Comment les hackers utilisent le Bluetooth pour suivre l’activité de la police
  • Infos Légales
  • Contact
  • À propos
  • Données personnelles
  • Archives
© 2023 - Tous droits réservés sur les contenus du site Begeek.fr  - ADN Contents -