De nouveaux ennemis du CSAM s’allient dans une coalition internationale
Apple est en difficulté depuis l’annonce des outils CSAM. Sa gestion de la confidentialité et des données personnelles est au coeur des critiques.
Ce jeudi 19 août une lettre ouverte exhortant Apple à abandonner son projet de “créer des capacités de surveillance dans les iPhones, iPads et autres produits” a été publiée par une “coalition internationale”. Cette dernière est composée de près de 9à groupes dont des associations comme EFF.
Comme précisée dans la lettre, les outils CSAM pourraient être utilisés par des gouvernements autoritaire afin de censurer certains discours. “Nous craignons qu’elles ne soient utilisées pour censurer des discours protégés, menacent la vie privée et la sécurité des personnes dans le monde et entraînent des conséquences désastreuses pour de nombreux enfants.”
Les auteurs de la lettre continuent en expliquant que “Les gouvernements pourraient obliger Apple à détecter les images répréhensibles pour des raisons autres que sexuellement explicites.”
Le système iMessage elle aussi mise en cause
La lettre appelle également Apple à abandonner les modifications prévues dans iMessage. Ces dernières doivent permettre d’identifier et de brouiller la nudité dans les messages des enfants, leur permettant de la voir uniquement si les parents en sont informés. Les signataires affirment en réponse que cette fonctionnalité pourrait mettre en danger les enfants des foyers intolérants, mais aussi ceux à la recherche d’un matériel éducatif. Plus grave encore cette fonctionnalité briserait purement et simplement le chiffrement de bout en bout, un des principes de sécurité de base d’iMessage.
Le plan d’Apple pour détecter les images CSAM stockées dans iCloud Photos a été particulièrement controversé et a suscité des inquiétudes de la part des chercheurs en sécurité, des universitaires, des groupes de protection de la vie privée…
Tous pensent que cette nouvelle option pourrait être utilisée de façon détournée par des gouvernements en tant que forme de surveillance de masse. La firme de Cupertino a tenté de répondre aux préoccupations en publiant une FAQ sur le sujet et a assuré qu’elle refuserait toutes les demandes d’étendre son système.
Mais comme le souligne Reuters il est difficile d’imaginer qu’Apple décide de quitter un pays comme la Chine ou l’Inde si la firme est face à une ordonnance d’un tribunal l’obligeant à modifier ses outils CSAM ou à partir.