Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Anime
  • Le Seigneur des Anneaux
  • IA
  • Mariés, deux enfants
  • Loki

ElevenLabs sanctionne le compte ayant utilisé son IA pour imiter la voix de Biden

Tech > IA
Par Morgan Fromentin,  publié le 28 janvier 2024 à 16h00.

Un appel automatisé imitant le président a été reçu par les électeurs du New Hampshire.

Tl;dr

  • ElevenLabs a été utilisé pour créer un deepfake audio de Joe Biden.
  • Cette falsification sonore a tenté de perturber les élections.
  • ElevenLabs veille à prévenir l’usage abusif de ses outils AI.
  • De plus amples mesures de sécurité doivent être mises en place.

Le monde de demain : ElevenLabs et les voix clonées

Dans un univers où technologie rime avec règlement, ElevenLabs, une start-up spécialisée dans le clonage vocal, vit actuellement des moments controversés. Maintes technologies sont susceptibles d’être exploitées d’une manière malhonnête, comme l’a démontré une récente mystification.

Menace sonore pour la démocratie

Selon les informations divulguées par Bloomberg, un utilisateur de ElevenLabs a eu recours à ses services pour créer un deepfake audio de Joe Biden, président américain. Cette falsification auditive fut utilisée dans une tentative visant à saper le processus électoral. Ce subterfuge se materialisa sous la forme d’un robocall destiné à certains électeurs du New Hampshire, visant à les dissuader de voter aux primaires de leur état.

La vérité sonore décodée

Cependant, une analyse minutieuse menée par la société de sécurité Pindrop permit de révéler que la voix de M. Biden avait été copiée grâce aux outils mis à disposition par ElevenLabs. La société accusée a montré une réactivité exemplaire : informée des conclusions de Pindrop, elle a déjà suspendu le compte coupable de la création de cet audio frauduleux.

ElevenLabs face à la responsabilité

ElevenLabs s’est refusé à tout commentaire concernant l’incident en question. Toutefois, elle a affirmé avec force son engagement pour prévenir les usages abusifs de ses outils de clonage vocal. L’émergence de technologies permettant d’imiter la voix d’autrui montre qu’il est désormais possible de manipuler des votes à l’aide de deepfakes, en vue d’induire en erreur les citoyens.

Le Récap
  • Tl;dr
  • Le monde de demain : ElevenLabs et les voix clonées
  • Menace sonore pour la démocratie
  • La vérité sonore décodée
  • ElevenLabs face à la responsabilité
En savoir plus
  • L’IA transforme le workflow vidéo et graphisme chez Adobe
  • Tesla relance Dojo3 pour booster ses IA
  • LEGO innove dans l’éducation avec l’IA et le codage pour enfants
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -