CSAM : WhatsApp et Epic Games critiquent Apple, avec maladresse
L’un a Mark Zuckerberg comme supérieur, l’autre livre de fausses informations.
Malgré la FAQ publiée par Apple concernant son nouveau système de protection de l’enfance incluant un outil de surveillance des photos iCloud, le sujet divise encore. Et dans le camp des inquiets, on retrouve non seulement Edward Snowden, lanceur d’alerte et ancien employé de la NSA, mais aussi un certain Will Cathcart, CEO de WhatsApp, et Tim Sweeney, CEO d’Epic Games.
WhatsApp en profite pour contrer Apple
Le premier s’est fait entendre sur Twitter suite à sa lecture de la FAQ d’Apple, que l’on a décryptée ici.
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world.
People have asked if we'll adopt this system for WhatsApp. The answer is no.
— Will Cathcart (@wcathcart) August 6, 2021
Selon Will Cathcart donc, Apple fait fausse route avec ce système. Il estime que la firme aurait mieux fait de grandement faciliter la dénonciation de contenus pédopornographiques plutôt que de développer une technologie capable d’analyser les photos iCloud et donc de s’immiscer dans la vie privée de ses utilisateurs.
Le CEO a également précisé que WhatsApp n’utilisera jamais un tel outil pour son service de communication, alors qu’Apple a laissé entendre un déploiement de son I.A. de détection de contenus pédopornographiques vers des solutions tierces.
Tout de même, rappelons que WhatsApp, indirectement via Facebook sa maison-mère, n’est pas en odeur de sainteté du côté des défenseurs de la vie privée. Il a notamment été rapporté que Facebook étudierait la possibilité de lire les messages WhatsApp sans casser le chiffrement, dans le but d’améliorer son ciblage publicitaire.
Epic Games dans le faux
Tim Sweeney, CEO d’Epic Games, fait moins dans l’analyse intelligente de la situation. L’homme semble a priori ne pas avoir bien compris le fonctionnement du système CSAM Apple. Comme l’indiquent nos confrères d’iMore, il a précisé sur Twitter qu’Apple serait en capacité de lire les emails de ses utilisateurs et d’alerter les autorités en cas de détection de contenus illégaux. En preuve de cette annonce, il cite le rapport de la EFF, Electronic Frontier Foundation, sur le sujet, rapport qui à aucun moment n’affirme une telle surveillance des emails de la part du géant californien.
Pour éviter de tomber à côté sur le sujet de ces nouveaux outils de protection de l’enfance mis en place par Apple, comme le fais Tim Sweeney, ne vous invitons à consulter notre article expliquant justement leurs fonctionnements.
Sylvain Viger
11 août 2021 à 2 h 40 min
Apple, tou comme Google, lit déjà nos photos pour les classer par personnes ou encore par thème. On ajoute donc à cette lecture (côté Apple) la reconnaissance de photos liées à la pornographie juvénile. La différence entre Apple et Google, est le but de cette lecture de photos… Pire, Facebook fait depuis longtemps la lecture des photos et de la reconnaissance faciale… et nous nous taisons… Soyons conséquents dans nos « revendications » !
Darth Philou
11 août 2021 à 10 h 11 min
J’aurais dit « cohérents » plutôt que « conséquent » 😉 néanmoins, pour Apple, la classification et notamment des visages n’est-elle pas réalisée directement sur l’iPhone ? Ceci dit, même si ça se fait sur les serveurs, une différence majeure avec les autres est que la reconnaissance des visages reste dédiée à votre bibliothèque et n’est pas pas partagée au reste du monde…
User1473362460237 (posté avec l'app i-nfo.fr V2)
12 août 2021 à 15 h 40 min
Apple fait fausse route avec ce système en France les familles prennent quasi toutes des photos de leurs petits nus dans le bain.. Ça va faire des millions de faux négatif ??? Ça fait peur
Pierre Otin
12 août 2021 à 16 h 55 min
Non justement, pas de faux-positifs puisque la comparaison est faite avec des photos des banques d’images de provenant d’organisation de protection de l’enfance.