Apple fait la chasse aux pédophiles sur iCloud
La firme de Cupertino a déclaré scanner les photos des utilisateurs d’iCloud, à la recherche de contenus à caractère pédopornographique.
La firme de Cupertino est présente au CES, non pas pour présenter des nouveaux produits, mais pour discuter de l’un des sujets tech majeurs de ces dernières années, et probablement des années à venir, la confidentialité et la protection des données.
À ce propos, Jane Horvath, directrice de la partie confidentialité et vie privée chez Apple a, lors d’une discussion comprenant plusieurs acteurs du marché, déclaré que la firme californienne avait changé ses conditions d’utilisation en 2019, avec un but précis.
La société de Cupertino s’est donné le droit il y a quelques mois d’accéder aux images présentes sur iCloud dans l’idée de les faire traiter par une intelligence artificielle un peu particulière. Celle-ci a en effet pour tâche de repérer toute image à caractère pédopornographique.
Pour effectuer son travail, cette I.A. fonctionne sur la base d’une technologie de comparaison, à la manière d’un filtre antispam pour les mails. Ainsi, elle valide ou invalide toute image présente sur iCloud pour déterminer si oui ou non elle correspond au critère spécifique donné. Dans le cas présent, celui de contenus montrant des abus sexuels sur mineur.
Dans le cas d’un résultat positif, l’utilisateur ayant téléchargé cette photo sur son compte iCloud se retrouve en violant des conditions d’utilisation du service de stockage d’Apple. En conséquence, son compte est simplement fermé.
D’autres géants de la tech fonctionnent de manière semblable pour détecter tout contenu relatif à de la pédophilie, dont Microsoft. Et même si le but est louable, une question se pose tout de même : un service souscrivant à une confidentialité et une protection totale des données de ses utilisateurs aurait-il, pour quelconque bonne raison, un droit de regard sur cesdites données ?
Il reste cependant difficile de ne pas soutenir Apple dans cette action de chasse aux images pédopornographiques
maxestark
9 janvier 2020 à 11 h 37 min
Personnellement, j’accorde l’accès à mes photos sans crainte à Apple.
Contrairement aux autres boites qui stockent des photos (cf. Google), je n’aurais pas peur que mes photos servent à faire de la publicité ciblée, ou toute autre forme d’utilisation d’information.
Emachine
9 janvier 2020 à 12 h 03 min
Dans ce genre de cas je suis d’accord pour que l’IA scanne les photos. Je ne veux pas être mêlé à un réseau pedophile. Je pense même qu’Apple devrait dénoncer les personnes aux forces de l’ordre
Chloé78?
9 janvier 2020 à 12 h 06 min
Vous imaginez la personne qui appelle le SAV : « mon compte iCloud est fermé! » – « oui en effet parce que vous êtes un pedophile » – « ah d’accord »
cyril
9 janvier 2020 à 12 h 53 min
ca ne me plait pas cette histoire, c’est toujours pour les meilleurs raisons du monde qu’on espionne les gens et comme par hasard les usages sont détournés par la suite
maxestark
9 janvier 2020 à 13 h 33 min
tu as signé un contrat qui dit que qu’ils ont le droit 🙂
Ufir (posté avec l'app i-nfo.fr V2)
9 janvier 2020 à 13 h 03 min
@Emachine
D’accord avec toi , ils devraient les dénoncer à la police (même si ce sont des policiers ou politiciens… )
User1479836618338 (posté avec l'app i-nfo.fr V2)
9 janvier 2020 à 14 h 31 min
Est ce que ce système fait la différence entre des photos de nu type “vacances en camping naturiste” où il peux y avoir des familles nus, et de vrais photos pedophiles?
Manouche
10 janvier 2020 à 10 h 35 min
L’article n’est pas bien fait et n’explique pas vraiment le fonctionnement du système. Oui l’IA est capable de faire la différence car Apple ne fait que comparer des photos pedopornographique contenues dans une base de donnée avec les nôtres a l’aide d’un chiffrement (pour faire simple). Donc ils sont incapable de savoir de dire le contenu de la photo si elle ne correspond pas à une photo de leur base de donnée.
Liop (posté avec l'app i-nfo.fr V2)
9 janvier 2020 à 14 h 46 min
Moi je trouve ça inadmissible même si la raison est louable.
Aujourd’hui c’est pour lutter contre la pédophilie mais demain?
Et qu’est ce qui les empeche d’utiliser ce scan pour d’autres usages sans aller le crier sur les toits.
On avance vers un monde qui me fait de plus en plus peur…
sirusdj (posté avec l'app i-nfo.fr V2)
9 janvier 2020 à 15 h 40 min
Donc ceux qui ont des photos nus de leurs bébés ou ceux qui sont naturistes seront classés pedo. J’imagine qu’il feront une réunion pour juger les photos… wow ça va loin sachant que la nudité n’a pas la même connotation d’une culture à une autre.
Patrice33? (posté avec l'app i-nfo.fr V2)
9 janvier 2020 à 16 h 03 min
PFFFFFFF « protection des données personnelles »….?
Eh oh nous sommes en 2020 !!
Si vous voulez vous protéger du monde…. retour à Windows 3.1 ?????????????????????
Birlou (posté avec l'app i-nfo.fr V2)
9 janvier 2020 à 21 h 16 min
Je ne suis pas d’accord.
L’IA est incapable de situer un contexte.
Que ce soit l’ « origine du Monde », un truc artistique approchant, ou même des photos naturistes, comme cité ci-dessus ?
C’est la porte ouverte aux malentendus.
Effacer direct les photos et clôturer le compte ?
Pas question. Et bonjour les dégâts.
Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)
9 janvier 2020 à 22 h 55 min
Affaire Dutroux : 30 témoins 30 morts ?
Chloé (posté avec l'app i-nfo.fr V2)
10 janvier 2020 à 8 h 31 min
Pour être plus efficace Apple aurait dû éviter cette déclaration….
La discrétion est l’une des meilleures stratégies pour coincer un malade !!
Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)
10 janvier 2020 à 22 h 19 min
C’est des foutaises, les crawleurs scan pour l’IA, qu’il arrêtent de raconter des âneries, ils jettent un os et le peuple rousigue sans réfléchir (i-nfo.fr inclut)
Depuis l’affaire Epstein des tonnes de pédos sont dénoncés, ça part dans tous les sens du Cadre au Prince en passant par les présidents, pour quel résultat ?, aucun, niet, nada, ils trempent tous et sont protégés par la justice complice, sans oublier la participation des bons toutous sans cervelles au casques bleus pour défoncer le peuple qui dénonce cette supercherie.
Sous prétexte de prendre des douches avec nos enfants à leur plus jeune âge, Ils arriveront à nous les retirer pour les placer en foyers ou maisons d’accueil, là où se trouve les vrais pédos et surtout rabatteurs.
Pour se qui croient que la terre est parfaitement ronde et bleue comme les faussaires menteurs de la NASA font gober à la majorité des ? habitants cette planète, oui Apple va violer l’intimité de millions de personnes pour luter contre des méchantes ? une fois de plus, parce que l’oligarchie est plus propre que Monsieur Propre et on peu s’y voir dedans.
Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)
10 janvier 2020 à 22 h 25 min
Ce commentaire a été supprimé pour non-respect des conditions d’utilisation. S’il vous plaît, merci d’éviter tous propos haineux, propos racistes et insultes. iStaff
Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)
10 janvier 2020 à 22 h 34 min
Ce commentaire a été supprimé pour non-respect des conditions d’utilisation. S’il vous plaît, merci d’éviter tous propos haineux, propos racistes et insultes. iStaff
Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)
11 janvier 2020 à 13 h 24 min
Merci, je retire mes insultes.
Lecteur-1520157344 (posté avec l'app i-nfo.fr V2)
11 janvier 2020 à 14 h 52 min
Trop tard je les ai lus hier soir! Force est de constater que istaff n’en a pas… ?
Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)
11 janvier 2020 à 16 h 26 min
@Lecteur-1520157344 qui est ce vengeur masqué ?
Lecteur-1578473796 (posté avec l'app i-nfo.fr V2)
11 janvier 2020 à 16 h 35 min
Malheureusement c’est frustrant de devoir en arriver là pour que sont commentaire puisse être lu et circuler.
Laurent
12 janvier 2020 à 9 h 04 min
Bref au final Apple n’est guère mieux que Google, même si le but est louable. Dès lors qu’Apple accède à mes données pour moi la confidentialité est rompue. Très déçu par Apple sur ce point, moi qui pensait qu’ils étaient effectivement réglo conformément à leur grands discours sur la confidentialité.
Lecteur-1564982395 (posté avec l'app i-nfo.fr V2)
12 janvier 2020 à 10 h 10 min
Imaginez 5 minutes le régime nazi de 1936 avec de tels moyens et les effets décuplés sur les politiques d’extermination qui en auraient résulté…
Lecteur-1525294428 (posté avec l'app i-nfo.fr V2)
13 janvier 2020 à 0 h 44 min
Pas besoin de remonter aux nasis y’a qu’à voir se qui se passe en ce moment