Amazon veut faire parler Alexa avec la voix de vos proches décédés
Amazon fait parler Alexa avec la voix d'un proche disparu et cela inquiète les experts en sécurité.
Les enceintes connectées, et les assistants numériques vocaux qui les accompagnent, permettent de réaliser un nombre impressionnant d’actions. La seule limite semble être l’imagination des développeurs. Si, la plupart du temps, les nouveautés sont très utiles, certaines sont un peu plus discutables, ou, tout du moins, étranges. C’est le cas de la dernière idée d’Amazon pour son assistant vocal Alexa qui veut lui permettre de reproduire des voix.
Amazon fait parler Alexa avec la voix d’un proche disparu
Durant la conférence Amazon Re:Mars, le vice-président d’Alexa Rohit Prasad faisait la démonstration d’une toute nouvelle faculté de l’assistant numérique vocal du géant américain : la possibilité d’imiter des voix. Jusqu’à présent, nous n’avons aucune indication quant à la date de disponibilité de cette fonctionnalité, ni même si elle atteindra le grand public un jour.
De manière assez étrange, Amazon a présenté cette nouvelle capacité comme un moyen de rendre hommage à nos proches disparus. La firme américaine a montré une vidéo dans laquelle Alexa fait la lecture à un enfant avec la voix de sa grand-mère décédée récemment. Rohit Prasad expliquait que l’entreprise cherche des manières de rendre son intelligence artificielle la plus personnelle possible. « Bien que l’IA ne puisse faire disparaître la peine de la perte, elle peut faire perdurer les souvenirs. » Un porte-parole d’Amazon déclarait à Engadget que ce nouveau skill peut créer une empreinte vocale synthétique après avoir été entraînée pendant seulement une petite minute avec la voix de l’individu qu’elle est censée répliquer.
et cela inquiète les experts en sécurité
Des experts en sécurité expriment depuis longtemps maintenant leurs craintes que des outils audio de ce genre, qui utilisent les technologies de texte-vers-voix pour créer des voix synthétiques, puissent ouvrir la voie à des arnaques d’un nouveau genre. Le logiciel de clonage vocal a déjà permis de nombreux méfaits, dont un incident en 2020 aux Émirats arabes unis, les fraudeurs avaient dupé un gestionnaire de banque, lui faisant transférer 35 millions de dollars après s’être fait passer vocalement pour le directeur. Ceci étant dit, les délits avec des deep fake audio sont encore peu répandus et les outils disponibles sont encore relativement sommaires.