Apple

Apple accusée de minimiser les signalements de contenus pédopornographiques

La sécurité des enfants, pas vraiment une question de priorité chez Apple ?

Il y a

le

© Juan Pablo Serrano / Pexels

La firme à la pomme se trouve actuellement sous le feu des critiques émanant de la National Society for the Prevention of Cruelty to Children (NSPCC), organisation britannique de protection de l’enfance. Cette dernière, s’appuyant sur des données récemment collectées, accuse Apple de minimiser de manière alarmante le nombre de signalements relatifs à des contenus pédopornographiques sur ses plateformes. Une allégation soulevant de sérieuses interrogations quant à l’engagement réel d’Apple vis-à-vis de ce sujet plus qu’épineux. L’information a été remontée ce matin par The Guardian.

Des chiffres bien en deçà de la réalité ?

Les chiffres avancés par la NSPCC sont pour le moins troublants. Le rapport de la NCMEC  explique : « Apple a été impliquée dans 337 infractions enregistrées concernant des images d’abus d’enfants entre avril 2022 et mars 2023 en Angleterre et au Pays de Galles ». Or, paradoxalement, l’entreprise n’a déclaré que 267 cas suspects de CSAM (Child Sexual Abuse Material) à l’échelle mondiale auprès du National Center for Missing & Exploited Children (NCMEC).

La comparaison avec d’autres grands groupes est assez édifiante, puisque Meta et Google ont reporté respectivement 30,6 et 1,4 million d’infractions la même année, selon ce même rapport.

Face à ce constat accablant, Richard Collard, responsable de la politique de sécurité des enfants en ligne à la NSPCC, n’hésite pas à asséner : « Apple est clairement en retard par rapport à ses pairs dans la lutte contre la prolifération des contenus CSAM ».

Entre manque de transparence et réaction inadéquate

Malheureusement, ce n’est pas la première fois qu’Apple se trouve dans la tourmente pour sa gestion des contenus pédopornographiques. Déjà en 2022, des instances australiennes avaient formulé des griefs analogues. L’année précédente, la firme de Cupertino avait tenté d’implémenter de nouvelles mesures de protection contre le CSAM, non sans soulever la controverse.

Cette technologie, destinée à scanner les clichés téléversés sur iCloud, avait cependant été discrètement abandonnée avant la fin de l’année, face à la vive opposition des défenseurs des libertés individuelles.

Cette volte-face, jugée par certains comme un aveu de faiblesse, jette le doute sur la détermination réelle d’Apple à prendre des mesures véritablement efficaces. Collard ne mâche pas ses mots :« Il existe une inquiétante disparité entre le nombre de crimes liés à des images d’abus d’enfants se produisant sur les services d’Apple au Royaume-Uni et le nombre presque négligeable de signalements mondiaux d’abus qu’ils font aux autorités ».

L’entreprise n’y coupera pas ; elle se devra de répondre à ces préoccupations de manière transparente en prenant des mesures concrètes. Ses systèmes de détection et de modération mériteraient peut-être une amélioration et il faut qu’Apple trouve le juste équilibre entre, d’un côté, la protection des mineurs, de l’autre le respect de la vie privée de ses utilisateurs.

  • La NSPCC accuse Apple de sous-déclarer les contenus pédopornographiques sur ses plateformes.
  • Entre avril 2022 et mars 2023, Apple a été impliquée dans 337 infractions d’abus d’enfants au Royaume-Uni, mais n’a signalé que 267 cas suspects au niveau mondial.
  • L’entreprise reste critiquée pour son manque de transparence et son inefficacité face à la prolifération de contenus CSAM.
i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
605 avis
Cliquez pour commenter

Sur le même sujet

Quitter la version mobile