Apple abandonne le “CSAM” et ne fouillera pas les photos iCloud
iCloud est une fonctionnalité centrale dans l’écosystème Apple. Alors en 2021 quand la Pomme présente “CSAM” c’est la stupeur.
Apple s’était attiré les foudres du monde entier l’an dernier en présentant son plan « CSAM ». Grand défenseur de la confidentialité et de la vie privée des utilisateurs, la marque à la pomme tournait le dos à ces principes pour lancer un système de numérisation des photos présentes sur iCloud.
L’objectif annoncé par Apple était de lutter contre la pédopornographie et la propagation de ces images grâce à l’outil de Cloud de la Pomme. Après avoir rencontré une forte résistance de l’opinion publique, la marque à la pomme avait mis « en pause » son projet.
Apple fait marche arrière
Aujourd’hui Apple annonce avoir complètement abandonné son projet de CSAM. La firme de Cupertino a même pour projet de faire tout l’inverse et de permettre à ses utilisateurs de chiffrer les photos présentes sur iCloud pour quelles ne soient pas visibles.
Cette fonctionnalité devrait faire partie des nouveautés présentes dans la mise à jour iOS 16.2 pour iPhone. Cette dernière sortira vraisemblablement dans le courant du mois de décembre. Apple n’a pas encore donné de date précise. En plus des photos, Apple explique que cette nouvelle option va permettre aux utilisateurs de chiffrer d’autres données comme des notes ou les sauvegardes d’appareils.
Apple ne tourne cependant pas le dos à la protection de l’enfance. Dans une déclaration faite au média Wired, la marque à la pomme assure qu’elle approfondit son investissement dans ce domaine. Aujourd’hui il est possible pour un iPhone de détecter quand un enfant (ou un utilisateur désigné comme tel) reçoit ou envoie des photos sexuellement connotées.
Protéger les enfants et la confidentialité
Cette solution présente dans l’application native « Messages » d’Apple permet de prévenir l’utilisateur du contenu reçu ou envoyé. Ce processus est entièrement local et personne ne connaît les utilisations faites par un enfant de son téléphone. Sa vie privée est préservée, mais Apple filtre de manière bienveillante les messages reçus.
Statisa assure qu’en France en 2018, 23 % des 11-14 ans ont déjà rencontré des images pornographiques contre leur gré. Toujours selon cette étude, seuls 50 % des enfants n’ont jamais rencontré de contenus choquants lors de leur utilisation des appareils numériques.