Protection de l’enfance (CSAM) : Apple fait marche arrière ?
En fait pas vraiment, selon des déclarations d’un représentant de la marque.
Assez discrètement et apparemment entre le 10 et le 13 décembre derniers, Apple a supprimé de son site toute mention à la fonctionnalité de détection du CSAM annoncée plus tôt dans l’année. Celle-ci avait, on le rappelle, suscité la controverse car elle consistait -basiquement- à lire le contenu de votre iPhone à la recherche d’images pédopornographiques.
Dans un entretien avec le magazine américain The Verge, il apparaît cependant que Cupertino ne souhaite pas vraiment mettre un terme à cette initiative mais qu’elle est simplement reportée comme c’est notamment le cas d’Universal Control sur macOS Monterey ou encore des cartes d’identité numérisées sur iOS 15. C’est en tout cas ce qu’affirme Shane Bauer, un employé de la Pomme interrogé par le journal.
Il y a encore du travail
En fait, il semble qu’Apple a pris conscience de la critique collective générée par son annonce que certains comparent sans hésiter à un véritable risque pour la confidentialité de leurs données personnelles. Des inquiétudes d’ailleurs récemment confirmées par le non moins sérieux New York Times, qui assure que l’Europe réfléchit déjà à développer un programme similaire dont l’objectif serait de surveiller ses citoyens sous couvert de lutte contre le terrorisme.
Impossible de savoir précisément quand le scan des images iCloud sera déployé, mais avec 5 Go de stockage offert chaque utilisateur ne dispose potentiellement plus que de quelques mois pour trier sa photothèque afin d’éviter tout danger. Quant à ceux qui ont opté pour un forfait payant avec encore plus de données, nous n’avons plus qu’à leur souhaiter bon courage.
Les dérives existent bel et bien
Si le principe même de la solution de protection de l’enfance est certes louable, c’est bien ce que peuvent en faire des acteurs institutionnels qui pose problème. Cupertino est d’ailleurs totalement transparente sur le sujet et publie régulièrement des chiffres détaillant les demandes étatiques de déblocage d’iPhone suspects.
Or, comme a pu le montrer l’usage détourné du spyware Pegasus, il suffit que des officiels choisissent d’axer leur stratégie sur d’autres canaux (identification des activistes et de l’opposition, etc.) pour qu’iOS abandonne indirectement et en un clin d’œil sa fameuse promesse de sécurité sans cesse renouvelée par son éditeur.
* child sexul abuse material = fichiers à caractère pédopornographique