Microsoft Copilote bloque désormais des commandes incitant à la violence et à la sexualité
Selon CNBC, il n'est désormais plus autorisé de solliciter des images d'enfants jouant avec des fusils d'assaut ni d'inciter au choix pro-avortement.
Tl;dr
- Microsoft a bloqué certaines commandes dans Copilot pour éviter la génération d’images inappropriées.
- Des utilisateurs ont signalé être en mesure de générer des images violentes malgré cette action.
- Un ingénieur de Microsoft a exprimé de graves inquiétudes quant à la technologie GAI de l’entreprise.
- Microsoft se dit en train d’améliorer les filtres de sécurité de Copilot.
Microsoft agit face aux dérives de son IA Copilot
Soucieux d’améliorer la façon dont nous interagissons avec le numérique, Microsoft a conçu et développé Copilot, un outil d’intelligence artificielle générateur d’images. Cependant, la compagnie américaine a dû intervenir pour corriger des déviations indésirables de son outil.
Effort de contrôle des créations de Copilot
Microsoft est intervenu pour bloquer plusieurs commandes de l’outil Copilot après que des utilisateurs aient signalé la génération d’images présentant un caractère violent, sexuel, ou autre contenu illicite. Des termes comme “pro choice”, “four twenty” (une référence à la marijuana) ou “pro life”, déclenchent aujourd’hui un message indiquant que ces commandes sont bloquées.
Le combat d’un ingénieur pour une IA responsable
Shane Jones, ingénieur chez Microsoft, tire la sonnette d’alarme depuis plusieurs mois suite à la découverte de productions inquiétantes générées par Copilot, défiants les principes d’une IA responsable de l’entreprise. Par exemple, le terme “pro choix” déclenchait la création d’images alarmantes comme des démons mangeant des bébés ou Dark Vador tenant un foret à la tête d’un bébé.
Des mesures correctives entreprises
Face à ces enjeux, Microsoft se dit en pleine action : “Nous surveillons constamment et apportons des ajustements, mettons en place des contrôles supplémentaires pour renforcer nos filtres de sécurité et limiter l’utilisation abusive du système”. Toutefois, d’après CNBC, il demeure possible pour les utilisateurs de générer des images violentes via des commandes comme “accident de voiture”, ce qui souligne que le travail de contrôle est loin d’être terminé.