Applications
Trois choses à savoir sur la protection de l’enfance dans Messages
La fonctionnalité a-t-elle vraiment de quoi faire débat ? Éclairages.
Vous n’avez certainement pas pu passer à côté cet été : Apple suscitait de lourds questionnements après avoir annoncé vouloir scanner les fichiers iCloud de ses clients à la recherche d’éventuels documents pédopornographiques. En effet, certains estimaient que des gouvernements malintentionnés pourraient faire appel à la même technologie pour, par exemple, détecter l’opposition politique. Une crainte d’ailleurs finalement confirmée… jusqu’aux plus hautes instances de l’Union européenne.
Entre temps, Apple en a profité pour répondre aux critiques en publiant plusieurs réponses aux interrogations du public, à relire juste ici. Officiellement, l’idée du CSAM* a même été abandonnée. En tout cas, sur le papier, car la dernière mise à jour d’iOS (disponible uniquement en version bêta pour les développeurs) comporte pourtant bel et bien des options qui se rapprochent sérieusement de cette pratique. On vous explique…
Ce qui change sur Messages avec iOS 15.2 (bêta 2)
L’app de SMS de la Pomme s’est en effet améliorée afin de prévenir l’exposition des mineurs à d’éventuelles images à caractère sensible, contenant du contenu inapproprié pour leur jeune âge. Selon la documentation officielle de l’éditeur, il s’agit là de repérer la nudité, et de la flouter si celle-ci est reconnue dans un MMS. Si l’utilisateur touche une fois la photo, un avertissement s’affiche. Mais il est toujours possible de débloquer l’image originale, par exemple quand on la sait de source sûre.
Sur la confidentialité
Comme souvent, Apple en a aussi profité pour ajouter quelques détails destinés à rassurer le consommateur. Tout d’abord, sachez que les messages restent chiffrés de bout en bout même avec la détection de la nudité. Qui plus est, le scan des images est réalisé sur l’appareil directement et aucune photo n’est donc stockée sur les serveurs d’Apple. La technologie, elle, est similaire à celle à laquelle fait appel l’app Photos pour identifier des visages ou des animaux de compagnie.
C’est opt-in et ce n’est pas dédié aux adultes
Pour finir, cette nouvelle fonctionnalité n’est pas activée par défaut. Il faudra donc aller l’activer manuellement pour en profiter. Cette sécurité ne peut par ailleurs être déclenchée que sur les mobiles des mineurs, via la fonctionnalité Partage familial. Vous pourrez donc continuer à échanger des sextos avec votre moitié sans souci.
*CSAM = child sexual abuse material