Méfiance, les assistants vocaux seraient vulnérables au piratage
Ce sont des chercheurs qui le disent : les assistants vocaux ne sont pas exempts de dangers et de risques. En effet, ceux-ci auraient des vulnérabilités, ce qui serait propice à différentes formes de piratage, notamment par l’intermédiaire de commandes audio.
Les assistants vocaux sont l’accessoire dont on parle beaucoup ces derniers mois. C’est l’appareil ultra-tendance du moment pour les fans de domotique, mais qui n’est pourtant pas dénué de danger pour la vie privée. Plusieurs chercheurs l’ont d’ailleurs mis en avant, comme cette équipe chinoise qui a révélé la méthode « DolphinAttack ».
Attention aux failles de sécurité sur les assistants vocaux !
Le dispositif permettait de pirater les plus connus des assistants vocaux comme Cortana, Siri ou Google Assistant par l’intermédiaire d’attaque à base d’ultrasons. Plus récemment, le New-York Times a donné la parole à des experts qui montrent que les assistants vocaux ont d’autres vulnérabilités.
Ainsi, il serait possible de faire appel à des commandes audio inaudibles pour un être humain, de les cacher dans des vidéos YouTube ou des morceaux de musique, et de pirater des assistants vocaux. Les hackers pourraient ainsi faire envoyer de l’argent ou des messages à l’insu des usagers.
Un piratage via des commandes audio inaudibles
Chose inquiétante, les firmes comme Google, Amazon ou Apple semblent encore avoir des difficultés à contrer ces attaques, bien qu’elles s’en défendent et se veulent rassurantes. Un porte-parole de Google a ainsi indiqué au site Cnet que les usagers pouvaient solliciter Voice Match.
Et de préciser que le dispositif « est conçu pour empêcher l’assistant de répondre à des requêtes liées à des achats ou à l’accès à des informations sensibles s’il ne reconnaît pas la voix de l’utilisateur ». Pourtant, Voice Match a lui aussi ses limites, ne fonctionnant que dans certaines configurations.
Si Amazon se veut aussi rassurant, ayant pris des mesures pour que ses enceintes Echo soient moins sujettes au risque, ces dispositifs sont loin d’être parfaits. Quant à Apple, il n’a pas réagi aux révélations faites par le New-York Times. Les enjeux financiers étant importants, il y a toutefois de fortes chances pour que les assistants vocaux soient plus sécurisés à l’avenir.