Actualités
Apple fait la chasse aux pédophiles sur iCloud
La firme de Cupertino a déclaré scanner les photos des utilisateurs d’iCloud, à la recherche de contenus à caractère pédopornographique.
La firme de Cupertino est présente au CES, non pas pour présenter des nouveaux produits, mais pour discuter de l’un des sujets tech majeurs de ces dernières années, et probablement des années à venir, la confidentialité et la protection des données.
À ce propos, Jane Horvath, directrice de la partie confidentialité et vie privée chez Apple a, lors d’une discussion comprenant plusieurs acteurs du marché, déclaré que la firme californienne avait changé ses conditions d’utilisation en 2019, avec un but précis.
La société de Cupertino s’est donné le droit il y a quelques mois d’accéder aux images présentes sur iCloud dans l’idée de les faire traiter par une intelligence artificielle un peu particulière. Celle-ci a en effet pour tâche de repérer toute image à caractère pédopornographique.
Pour effectuer son travail, cette I.A. fonctionne sur la base d’une technologie de comparaison, à la manière d’un filtre antispam pour les mails. Ainsi, elle valide ou invalide toute image présente sur iCloud pour déterminer si oui ou non elle correspond au critère spécifique donné. Dans le cas présent, celui de contenus montrant des abus sexuels sur mineur.
Dans le cas d’un résultat positif, l’utilisateur ayant téléchargé cette photo sur son compte iCloud se retrouve en violant des conditions d’utilisation du service de stockage d’Apple. En conséquence, son compte est simplement fermé.
D’autres géants de la tech fonctionnent de manière semblable pour détecter tout contenu relatif à de la pédophilie, dont Microsoft. Et même si le but est louable, une question se pose tout de même : un service souscrivant à une confidentialité et une protection totale des données de ses utilisateurs aurait-il, pour quelconque bonne raison, un droit de regard sur cesdites données ?
Il reste cependant difficile de ne pas soutenir Apple dans cette action de chasse aux images pédopornographiques