Apple
Détection de la pédopornographie : selon Craig Federighi, Apple a manqué de clarté
Un échec de communication ?
Il y a quelques jours, Apple a révélé ses nouvelles mesures pour lutter contre la pédopornographie et pour protéger les enfants face aux contenus à caractère sexuels.
À ces fins, et comme décrit ici, plusieurs outils vont être mis en place prochainement. Il est question d’une technologie de détection d’images pédopornographiques parmi les photos iCloud d’utilisateurs, d’avertissements de contenus à caractère sexuel pour les utilisateurs enfants d’un compte familial partagé et de renseignements supplémentaires disponibles dans Siri et Spotlight concernant la pédopornographie.
Apple l’a précisé à de nombreuses reprises, le système est conçu de telle façon à garantir un maximum de confidentialité. C’est expliqué dans sa FAQ, mais aussi détaillé par Erik Neuenschwander, responsable de la confidentialité chez Apple, dans le cadre d’une interview publiée il y a quelques jours par Reuters.
Plus récemment encore, ce fut au tour de Craig Federighi, vice-président d’Apple, de se faire entendre sur le sujet pour tenter de calmer les ardeurs des utilisateurs inquiets pour leur vie privée. Dans une interview du Wall Street Journal, le haut placé du géant californien estime qu’Apple n’a pas été exemplaire dans sa communication à propos des nouvelles mesures pour la protection de l’enfance.
“It’s really clear a lot of messages got jumbled pretty badly in terms of how things were understood. We wish that this would’ve come out a little more clearly for everyone because we feel very positive and strongly about what we’re doing.”
Selon lui, la firme aurait pu être plus claire en évitant de mettre dans le même panier les trois outils, en soi bien différents. Mais aussi pour bien faire comprendre qu’à l’inverse de ce que pratique d’autres services de cloud dans le cadre de la lutte contre la pédopornographie, Apple ne surveillera pas les images iCloud de ses utilisateurs et ne pourra y avoir accès. La technologie sous-tendant la détection de photos pédopornographiques profite d’un système d’identifiant et de seuil d’alerte, le tout réalisé en local du côté de l’iPhone de l’utilisateur.
Mais le mal semble être fait puisque de nombreux analystes ont déjà qualifié le système de porte d’entrée pour les gouvernements et d’un premier pas vers la surveillance de masse. Ajouté à cela le fait que plusieurs articles de presse ont été alarmiste sur le sujet sans rentrer dans les détails du système pour bien en comprendre le fonctionnement. L’inquiétude n’a donc pas manqué de grandir chez de nombreux utilisateurs, jusqu’à atteindre certains employés Apple par ailleurs.
Pour se rattraper sur sa communication un peu confuse, la firme de Cupertino fait son possible, justement au travers d’interviews, mais aussi de sa FAQ ou encore en diffusant en interne des renseignements détaillés permettant à ses employés d’être à même de bien répondre aux questions que leur poseront les utilisateurs soucieux de leur vie privée dans les mois et semaines à venir.