Applications
Le scan des photos iCloud pose déjà des problèmes
Le respect de la vie privée est une fois de plus au cœur du débat…
Avec iOS 15, Apple a introduit deux nouvelles fonctionnalités pour son application Photos. La première permet de mieux identifier les visages, afin de regrouper les clichés de ses amis en dossiers automatiques. Une option qu’il n’est pas possible de désactiver, et qui interroge sérieusement tous ceux qui craignent pour leur confidentialité. En effet, on ne compte plus les affaires où la reconnaissance faciale est utilisée à des fins malveillantes, parfois même aux dépens du développeur.
L’autre changement est à destination des enfants. Apple a ainsi imaginé une solution similaire à celle des antivirus, où un robot vient analyser les images sauvegardées sur un iPhone afin de détecter de potentiels fichiers déjà signalés pour leur caractère pédophile. De cette façon, les criminels peuvent ensuite être dénoncés à la justice après validation manuelle. Pour le moment, il est toutefois nécessaire d’avoir activé l’app Photos pour être éligible à cette mise à jour, qui tourne en arrière-plan.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
Dérives potentielles
Comme souvent avec un sujet aussi sensible, de premières voix se sont vivement élevées dès l’annonce de ces améliorations. Le cryptographe Matthew Green, par exemple, à qui on doit déjà de sérieuses critiques suite à l’affaire Pegasus, estime que cette nouvelle pratique risque tout d’abord de démultiplier le nombre de faux positifs (adolescents mentant sur leur âge, professionnels de santé, parents…). Mais pour lui, le pire se retrouve surtout du côté des ambitions d’Apple.
En effet, la firme de Cupertino va bien plus loin puisqu’elle implémente son système d’analyse d’images à risque directement dans sa plateforme Messages. Or, celle-ci est justement réputée pour sa capacité à envoyer et recevoir des textos chiffrés de bout en bout… Comment donc garantir un véritable gage de sécurité aux internautes avec un tel paradoxe ?
These are bad things. I don’t particularly want to be on the side of child porn and I’m not a terrorist. But the problem is that encryption is a powerful tool that provides privacy, and you can’t really have strong privacy while also surveilling every image anyone sends.
— Matthew Green (@matthew_d_green) August 5, 2021
Les gouvernements en ligne de mire
Pour le moment, nul ne sait si Apple compte vendre sa technologie à d’autres acteurs potentiellement malintentionnés, bien que ce soit peu probable. Il serait néanmoins plus qu’inquiétant de constater que des sociétés spécialisées -telles que le NSO Group- s’en inspirent pour dupliquer la solution afin de la commercialiser auprès d’états déjà pointés pour leur politique autoritaire. Surtout à l’heure où la défense des données personnelles est devenue un argument marketing majeur de la marque à la pomme.