Un médecin arrêté avec 2000 images pédopornographiques sur son iCloud
Les outils CSAM n’ont rien à voir avec cette affaire qui pourtant aurait pu être une démonstration de leur utilité.
Cette affaire n’aurait sûrement pas fait autant de bruit si elle n’était pas arrivée maintenant, en plein milieu de la grande controverse autour des outils CSAM qu’Apple voudrait mettre en place sur ses appareils afin de scanner les photos iCloud de ses utilisateurs, dans le seul but de lutter contre la pédopornographie et le trafic d’enfants.
Alors que cette mesure doit affronter une horde de défenseurs des libertés individuelles, ne voulant pas qu’Apple espionne leur compte iCloud, même si c’est pour protéger des enfants, un médecin de la région de la baie de San Fransciscio vient pourtant apporter un exemple de taille à Apple du bien-fondé de ses outils. Sans même avoir utilisé les outils CSAM, les autorités fédérales américaines ont arrêté ce médecin qui était en possession d’images pédopornographiques.
Ces images ont été trouvées sur son compte iCloud. Au total les enquêteurs ont rassemblé plus de 2000 images et vidéos d’exploitations sexuelles d’enfants sur le compte de ce médecin de 58 ans. Spécialiste en oncologie, il était affilié à plusieurs établissements médicaux de la région de la baie, ainsi qu’un professeur agrégé à l’UCSF School of Medicine.
Une preuve du fonctionnement du CSAM ?
Cette enquête, les autorités fédérales l’ont menée sans les outils CSAM qu’Apple s’apprête à lancer. Ils ont réussi par d’autres moyens à avoir accès à son compte iCloud, et ainsi mettre la main sur cette montagne de preuves.
De son côté Apple prévoit de lancer un outil qui vient comparer les images stockées dans nos comptes iCloud avec celles d’une base de données des enfants exploitées ou disparues. Plus exactement, Apple vient comparer les hachages des deux images afin de trouver des correspondances. En aucun cas elle ne numérise les photos présentent sur nos comptes, et elle ne sait d’ailleurs pas de quoi il s’agit, seulement qu’elle est différente des photos présente dans la base de données. Afin de mieux comprendre les outils CSAM, Apple a publié une FAQ il y a quelques jours, vous pouvez la retrouver ici.
Teratani
23 août 2021 à 13 h 23 min
Votre traitement de l’information est plein de parti pris. Inversement j’y vois la démonstration de l’inutilité du monstre qu’Apple s’apprête à lancer puisqu’il n’y en a absolument pas eu besoin pour mettre ce criminel hors d’état de nuire.
Pierre Otin
24 août 2021 à 7 h 04 min
@ Teratani : en réalité, les nouveaux outils d’Apple pourraient être efficaces même si les données iCloud sont chiffrées, ce qui pourrait bien arriver à l’avenir. Dans le cas de cette affaire, si les données iCloud avaient été chiffrées et donc illisibles pour toute autre entité que l’utilisateur lui-même, il aurait possiblement été plus difficile de mettre ce dernier en cause. Par contre, si Apple prévoit bien de chiffrer toutes les données iCloud, alors les nouveaux outils CSAM seraient pertinents, puisqu’encore capables de prévenir en cas de contenus pédopornographiques.
Profil supprimé (984)
23 août 2021 à 14 h 03 min
On es tous flické à plus ou moins grande échelle entre les adresses ip qu on peut suivre les compte face book insta tWitter et j en passe , les micros de tous nos appareils connectés les assistants et le cloud que beaucoup ont ce contrôle n es qu une goutte d eau et si des fournisseur d accès aurait un contrôle plus poussés de leurs clients il y aurait plus de surprise .Maintenant on peut très bien se passer de tous cela mais dans ce cas……
Darth Yann (posté avec l'app i-nfo.fr V2)
23 août 2021 à 21 h 41 min
C’est du foutage de gueule, tu vas sur un moteur de recherche et tape pron juvénile et tu tombes sur les plus horribles vidéos que le titre de cet article mentionne. Les FAI ne bloquent pas ces sites pourquoi ?, par contre ils bloquent tous les lanceurs d’alertes en les faisant passer pour des complotistes !
Où est l’erreur ???
AdminOfPlaygroup
24 août 2021 à 15 h 01 min
En même temps, il n’y a que les complotistes qui se pensent être des lanceurs d’alertes bloqués à tord !
Pas d’erreur !
D’ailleurs, c’est quoi un prénom “juvénile” ?
User1473362460237 (posté avec l'app i-nfo.fr V2)
24 août 2021 à 12 h 59 min
@Darth_Yann pourquoi tu as essayé ? 🐷
Lecteur-1629791205 (posté avec l'app i-nfo.fr V2)
24 août 2021 à 20 h 15 min
@Darth_Yann je te rejoins.
Toute vérité franchit trois étapes. D’abord elle est ridiculisée. Ensuite, elle subit une forte opposition. Puis, elle est considérée comme ayant toujours été une évidence.
Lecteur-1604530471 (posté avec l'app i-nfo.fr V2)
28 août 2021 à 9 h 56 min
Une affaire qui tombe « pile poil » car bien ce n’est qu’une coïncidence, sinon celui qu’ils ont choisit il avait pas voulu voter bidone ou il est anti-vax ?!