Suivez-nous

iPhone

Apple abandonne le “CSAM” et ne fouillera pas les photos iCloud

iCloud est une fonctionnalité centrale dans l’écosystème Apple. Alors en 2021 quand la Pomme présente “CSAM” c’est la stupeur.

Publié le

 
iCloud Apple
© Pexels / Maksim Goncharenok

Apple s’était attiré les foudres du monde entier l’an dernier en présentant son plan « CSAM ». Grand défenseur de la confidentialité et de la vie privée des utilisateurs, la marque à la pomme tournait le dos à ces principes pour lancer un système de numérisation des photos présentes sur iCloud.

L’objectif annoncé par Apple était de lutter contre la pédopornographie et la propagation de ces images grâce à l’outil de Cloud de la Pomme. Après avoir rencontré une forte résistance de l’opinion publique, la marque à la pomme avait mis « en pause » son projet.

Apple fait marche arrière

Aujourd’hui Apple annonce avoir complètement abandonné son projet de CSAM. La firme de Cupertino a même pour projet de faire tout l’inverse et de permettre à ses utilisateurs de chiffrer les photos présentes sur iCloud pour quelles ne soient pas visibles.

Cette fonctionnalité devrait faire partie des nouveautés présentes dans la mise à jour iOS 16.2 pour iPhone. Cette dernière sortira vraisemblablement dans le courant du mois de décembre. Apple n’a pas encore donné de date précise. En plus des photos, Apple explique que cette nouvelle option va permettre aux utilisateurs de chiffrer d’autres données comme des notes ou les sauvegardes d’appareils.

Apple ne tourne cependant pas le dos à la protection de l’enfance. Dans une déclaration faite au média Wired, la marque à la pomme assure qu’elle approfondit son investissement dans ce domaine. Aujourd’hui il est possible pour un iPhone de détecter quand un enfant (ou un utilisateur désigné comme tel) reçoit ou envoie des photos sexuellement connotées.

Protéger les enfants et la confidentialité

Cette solution présente dans l’application native « Messages » d’Apple permet de prévenir l’utilisateur du contenu reçu ou envoyé. Ce processus est entièrement local et personne ne connaît les utilisations faites par un enfant de son téléphone. Sa vie privée est préservée, mais Apple filtre de manière bienveillante les messages reçus.

Statisa assure qu’en France en 2018, 23 % des 11-14 ans ont déjà rencontré des images pornographiques contre leur gré. Toujours selon cette étude, seuls 50 % des enfants n’ont jamais rencontré de contenus choquants lors de leur utilisation des appareils numériques.

i-nfo.fr - App officielle iPhon.fr
i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
612 avis

Nos sites : 01net | Journal du Geek | Presse-citron
Copyright © 2024 iPhon.fr

Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc iPhon.fr et son forum ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.