Suivez-nous

Actualités

Apple fait la chasse aux pédophiles sur iCloud

La firme de Cupertino a déclaré scanner les photos des utilisateurs d’iCloud, à la recherche de contenus à caractère pédopornographique.

Publié le

 
Logo boutique Apple
© Unsplash / Medhat Dawoud

La firme de Cupertino est présente au CES, non pas pour présenter des nouveaux produits, mais pour discuter de l’un des sujets tech majeurs de ces dernières années, et probablement des années à venir, la confidentialité et la protection des données.

À ce propos, Jane Horvath, directrice de la partie confidentialité et vie privée chez Apple a, lors d’une discussion comprenant plusieurs acteurs du marché, déclaré que la firme californienne avait changé ses conditions d’utilisation en 2019, avec un but précis.

La société de Cupertino s’est donné le droit il y a quelques mois d’accéder aux images présentes sur iCloud dans l’idée de les faire traiter par une intelligence artificielle un peu particulière. Celle-ci a en effet pour tâche de repérer toute image à caractère pédopornographique.

Pour effectuer son travail, cette I.A. fonctionne sur la base d’une technologie de comparaison, à la manière d’un filtre antispam pour les mails. Ainsi, elle valide ou invalide toute image présente sur iCloud pour déterminer si oui ou non elle correspond au critère spécifique donné. Dans le cas présent, celui de contenus montrant des abus sexuels sur mineur.

Dans le cas d’un résultat positif, l’utilisateur ayant téléchargé cette photo sur son compte iCloud se retrouve en violant des conditions d’utilisation du service de stockage d’Apple. En conséquence, son compte est simplement fermé.

D’autres géants de la tech fonctionnent de manière semblable pour détecter tout contenu relatif à de la pédophilie, dont Microsoft. Et même si le but est louable, une question se pose tout de même : un service souscrivant à une confidentialité et une protection totale des données de ses utilisateurs aurait-il, pour quelconque bonne raison, un droit de regard sur cesdites données ?

Il reste cependant difficile de ne pas soutenir Apple dans cette action de chasse aux images pédopornographiques

i-nfo.fr - App officielle iPhon.fr
i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
606 avis

Rédacteur en chef pour iPhon.fr. Pierre est tel Indiana Jones, à la recherche de l'astuce iOS perdue. Également utilisateur Mac de longue date, les appareils Apple n'ont en somme pour lui aucun secret. Contact : pierre[a]iphon.fr.

24 Commentaires

24 Commentaires

  1. maxestark

    9 janvier 2020 à 11 h 37 min

    Personnellement, j’accorde l’accès à mes photos sans crainte à Apple.
    Contrairement aux autres boites qui stockent des photos (cf. Google), je n’aurais pas peur que mes photos servent à faire de la publicité ciblée, ou toute autre forme d’utilisation d’information.

  2. Emachine

    9 janvier 2020 à 12 h 03 min

    Dans ce genre de cas je suis d’accord pour que l’IA scanne les photos. Je ne veux pas être mêlé à un réseau pedophile. Je pense même qu’Apple devrait dénoncer les personnes aux forces de l’ordre

  3. Chloé78?

    9 janvier 2020 à 12 h 06 min

    Vous imaginez la personne qui appelle le SAV : « mon compte iCloud est fermé! » – « oui en effet parce que vous êtes un pedophile » – « ah d’accord »

  4. cyril

    9 janvier 2020 à 12 h 53 min

    ca ne me plait pas cette histoire, c’est toujours pour les meilleurs raisons du monde qu’on espionne les gens et comme par hasard les usages sont détournés par la suite

    • maxestark

      9 janvier 2020 à 13 h 33 min

      tu as signé un contrat qui dit que qu’ils ont le droit 🙂

  5. Ufir (posté avec l'app i-nfo.fr V2)

    9 janvier 2020 à 13 h 03 min

    @Emachine
    D’accord avec toi , ils devraient les dénoncer à la police (même si ce sont des policiers ou politiciens… )

  6. User1479836618338 (posté avec l'app i-nfo.fr V2)

    9 janvier 2020 à 14 h 31 min

    Est ce que ce système fait la différence entre des photos de nu type “vacances en camping naturiste” où il peux y avoir des familles nus, et de vrais photos pedophiles?

    • Manouche

      10 janvier 2020 à 10 h 35 min

      L’article n’est pas bien fait et n’explique pas vraiment le fonctionnement du système. Oui l’IA est capable de faire la différence car Apple ne fait que comparer des photos pedopornographique contenues dans une base de donnée avec les nôtres a l’aide d’un chiffrement (pour faire simple). Donc ils sont incapable de savoir de dire le contenu de la photo si elle ne correspond pas à une photo de leur base de donnée.

  7. Liop (posté avec l'app i-nfo.fr V2)

    9 janvier 2020 à 14 h 46 min

    Moi je trouve ça inadmissible même si la raison est louable.
    Aujourd’hui c’est pour lutter contre la pédophilie mais demain?
    Et qu’est ce qui les empeche d’utiliser ce scan pour d’autres usages sans aller le crier sur les toits.
    On avance vers un monde qui me fait de plus en plus peur…

  8. sirusdj (posté avec l'app i-nfo.fr V2)

    9 janvier 2020 à 15 h 40 min

    Donc ceux qui ont des photos nus de leurs bébés ou ceux qui sont naturistes seront classés pedo. J’imagine qu’il feront une réunion pour juger les photos… wow ça va loin sachant que la nudité n’a pas la même connotation d’une culture à une autre.

  9. Patrice33? (posté avec l'app i-nfo.fr V2)

    9 janvier 2020 à 16 h 03 min

    PFFFFFFF « protection des données personnelles »….?
    Eh oh nous sommes en 2020 !!
    Si vous voulez vous protéger du monde…. retour à Windows 3.1 ?????????????????????

  10. Birlou (posté avec l'app i-nfo.fr V2)

    9 janvier 2020 à 21 h 16 min

    Je ne suis pas d’accord.
    L’IA est incapable de situer un contexte.
    Que ce soit l’ « origine du Monde », un truc artistique approchant, ou même des photos naturistes, comme cité ci-dessus ?
    C’est la porte ouverte aux malentendus.
    Effacer direct les photos et clôturer le compte ?
    Pas question. Et bonjour les dégâts.

  11. Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)

    9 janvier 2020 à 22 h 55 min

    Affaire Dutroux : 30 témoins 30 morts ?

  12. Chloé (posté avec l'app i-nfo.fr V2)

    10 janvier 2020 à 8 h 31 min

    Pour être plus efficace Apple aurait dû éviter cette déclaration….
    La discrétion est l’une des meilleures stratégies pour coincer un malade !!

  13. Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)

    10 janvier 2020 à 22 h 19 min

    C’est des foutaises, les crawleurs scan pour l’IA, qu’il arrêtent de raconter des âneries, ils jettent un os et le peuple rousigue sans réfléchir (i-nfo.fr inclut)
    Depuis l’affaire Epstein des tonnes de pédos sont dénoncés, ça part dans tous les sens du Cadre au Prince en passant par les présidents, pour quel résultat ?, aucun, niet, nada, ils trempent tous et sont protégés par la justice complice, sans oublier la participation des bons toutous sans cervelles au casques bleus pour défoncer le peuple qui dénonce cette supercherie.
    Sous prétexte de prendre des douches avec nos enfants à leur plus jeune âge, Ils arriveront à nous les retirer pour les placer en foyers ou maisons d’accueil, là où se trouve les vrais pédos et surtout rabatteurs.
    Pour se qui croient que la terre est parfaitement ronde et bleue comme les faussaires menteurs de la NASA font gober à la majorité des ? habitants cette planète, oui Apple va violer l’intimité de millions de personnes pour luter contre des méchantes ? une fois de plus, parce que l’oligarchie est plus propre que Monsieur Propre et on peu s’y voir dedans.

  14. Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)

    10 janvier 2020 à 22 h 25 min

    Ce commentaire a été supprimé pour non-respect des conditions d’utilisation. S’il vous plaît, merci d’éviter tous propos haineux, propos racistes et insultes. iStaff

  15. Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)

    10 janvier 2020 à 22 h 34 min

    Ce commentaire a été supprimé pour non-respect des conditions d’utilisation. S’il vous plaît, merci d’éviter tous propos haineux, propos racistes et insultes. iStaff

  16. Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)

    11 janvier 2020 à 13 h 24 min

    Merci, je retire mes insultes.

  17. Lecteur-1520157344 (posté avec l'app i-nfo.fr V2)

    11 janvier 2020 à 14 h 52 min

    Trop tard je les ai lus hier soir! Force est de constater que istaff n’en a pas… ?

  18. Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)

    11 janvier 2020 à 16 h 26 min

    @Lecteur-1520157344 qui est ce vengeur masqué ?

  19. Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)

    11 janvier 2020 à 16 h 35 min

    Malheureusement c’est frustrant de devoir en arriver là pour que sont commentaire puisse être lu et circuler.

  20. Laurent

    12 janvier 2020 à 9 h 04 min

    Bref au final Apple n’est guère mieux que Google, même si le but est louable. Dès lors qu’Apple accède à mes données pour moi la confidentialité est rompue. Très déçu par Apple sur ce point, moi qui pensait qu’ils étaient effectivement réglo conformément à leur grands discours sur la confidentialité.

  21. Lecteur-1564982395 (posté avec l'app i-nfo.fr V2)

    12 janvier 2020 à 10 h 10 min

    Imaginez 5 minutes le régime nazi de 1936 avec de tels moyens et les effets décuplés sur les politiques d’extermination qui en auraient résulté…

  22. Lecteur-1525294428 (posté avec l'app i-nfo.fr V2)

    13 janvier 2020 à 0 h 44 min

    Pas besoin de remonter aux nasis y’a qu’à voir se qui se passe en ce moment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Nos sites : 01net | Journal du Geek | Presse-citron
Copyright © 2024 iPhon.fr

Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc iPhon.fr et son forum ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.