Menu
Begeek.frBegeek.fr
Obtenir l’application
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
  • Pop Culture
    • Netflix
  • Jeux Vidéo
    • PS5
    • Xbox Series X
  • Fintech
    • Crypto-monnaies
    • Les meilleures cartes bancaire Bitcoin
    • Les meilleurs wallet crypto
    • Créer son RIG de minage
    • Cloud mining et stacking
En ce moment : 
  • Crypto : guide du débutant
  • Sorare : le guide
  • Meilleures exchanges Crypto

Apple fait disparaître toute mention de sa fonctionnalité de détection CSAM

Tech > Apple
Par Morgan Fromentin,  publié le 17 décembre 2021 à 14h00.

Apple supprime les références à son outil de détection des contenus pédopornographiques. Pour apaiser les esprits, avant une nouvelle version ?

Il y a quelques mois, Apple faisait une annonce surprise, si l’on peut dire, en révélant son intention d’implémenter une fonctionnalité de détection des potentiels contenus pédopornographiques (détection CSAM). Si l’idée même de cette fonctionnalité est tout à fait noble et son implémentation idéale pour effectivement détecter et traquer les contenus et activités illégales, le fait que la firme de Cupertino vienne scanner ainsi toutes les photos des utilisateurs a de quoi mettre mal à l’aise.

Apple supprime les références à son outil de détection des contenus pédopornographiques

De fait, la controverse n’a pas tardé à monter. La marque à la pomme a fait son possible pour plaider sa cause, défendre son projet, mais petit à petit, Apple a dû faire marche arrière. aujourd’hui, toutes les références à cette fonctionnalité ont été retirées de son site web, comme a pu le constater Florian Schimanke.

Selon le rapport, les références aux scans CSAM étaient toujours présents sur le site de la firme de Cupertino vendredi dernier. Désormais, elles ont disparu. Cependant, cela ne signifie pas pour autant qu’Apple a définitivement tiré un trait sur cette fonctionnalité. Comme 9to5Mac le précise, il est possible que la marque à la pomme ait simplement retiré ces références le temps de mieux réfléchir la fonction pour davantage plaire au grand public, si l’on peut dire.

Pour apaiser les esprits, avant une nouvelle version ?

Comme dit, la détection de contenu pédopornographique est une bonne chose. Les inquiétudes concernent les implications et éventuelles dérives de cette technologie. En effet, Apple pourrait utiliser cet algorithme pour récupérer de nouvelles données sur ses utilisateurs, et certains s’inquiètent même que cette fonction puisse être utilisée abusivement par des gouvernements qui pourraient tenter de s’infiltrer sur les appareils à la recherche d’informations concernant par exemple des minorités, des militants, des opposants politiques ou autre.

Nul ne sait, à ce stade, si la fonctionnalité sera de retour un jour et sous quelle forme.

En savoir plus
  • Processeur Apple M2 : le gain de 20 % du CPU confirmé par un benchmark
  • Pourquoi votre iPhone prend si longtemps pour installer les mises à jour automatiquement
  • Comment réassigner les touches sur n’importe quel clavier
  • Infos Légales
  • Contact
  • À propos
  • Données personnelles
  • Archives
  • Musique en ligne
© 2022 - Tous droits réservés sur les contenus du site Begeek.fr  - ADN Contents -