Actualités
DeepNude, ou quand l’I.A. sert aux mauvaises personnes (Màj)
Un algorithme intelligent a été entrainé à dénuder de manière réaliste des photos de personnes habillées.
Mise à jour : le créateur de DeepNude a annoncé l’arrêt du développement de son logiciel complètement décrié sur internet ces derniers jours. Voir le détail en fin de cet article.
Le site Vice a révélé au grand jour avant-hier l’existence d’un programme de modification d’image assez perturbant. Son créateur l’a appelé DeepNude. Et comme son nom peut le laisser penser, il a rapport avec la nudité.
En somme, il est capable, dans une certaine mesure, de mettre à nu des personnes prises en photos. Selon l’auteur, qui a confié à Vice avoir “conçu cet outil pour s’amuser”, l’algorithme qui s’occupe de retoucher la photo pour recréer les parties cachées est basé sur des technologies d’intelligence artificielle développées par l’Université de Californie.
Initialement, cette I.A., nommée Pix2pix et présentée ici, est capable d’effectuer plusieurs transformations d’image. Elle peut par exemple redonner des couleurs à une photo en noir et blanc. Elle peut aussi transformer un paysage de jour en paysage de nuit, ou encore recréer un objet complet à partir de sa seule silhouette.
Pour faire naître DeepNude, l’auteur anonyme a donné à l’I.A. plus de 10 000 images de femmes nues à traiter. Un tel entrainement a permis à l’algorithme de devenir capable de recréer des parties intimes de femmes, à partir d’une photo sur laquelle ces zones sont cachées, soit par des vêtements, soit par un traitement de postproduction.
Selon la source, il en résulte des images, plus ou moins réalistes, surnommées en anglais Deepfakes. Mais malheureusement, les photos modifiées feraient parfois suffisamment illusion pour devenir une arme de chantage ou de harcèlement.
L’auteur de DeepNude a ajouté prévoir une version similaire de son app pour les photos d’hommes. Il distribue son logiciel gratuitement, avec la nécessité de payer 50 dollars pour supprimer le filigrane dans les images résultantes. Sans aucune gêne visiblement, l’idée de tirer profit de DeepNude est avouée pour son diabolique inventeur.
DeepNude s’inscrit dans une plus grande catégorie de faux contenus appelés Deepfake, qui regroupe, en plus de la synthèse d’image à caractère pornographique, la modification de vidéos ou photos à des fins de propagande ou de canular.
Heureusement, il existe des sites comme Décodex, sous-tendu par le journal Le Monde, ou encore HoaxBuster, qui servent à détecter les fausses informations relayées sur internet. Pour les photos, on peut mentionner le site TinEye. Ce dernier peut scanner une image douteuse pour tenter de retrouver l’image originale non modifiée sur internet et ainsi aider à détecter un montage.
Voilà en tout cas une bonne piqûre de rappel pour pousser tout un chacun à rester prudent sur internet.
Mise à jour : le créateur de DeepNude a fait une annonce sur Twitter. Dans un long message, il annonce qu’il stoppe complètement le développement et la distribution du logiciel.
— deepnudeapp (@deepnudeapp) 27 juin 2019
L’auteur affirme qu’il pensait initialement que DeepNude resterait confidentiel. Il tablait sur une poignée de ventes de licence de l’algorithme seulement chaque mois. Il dit ne pas avoir anticipé un seul instant le caractère viral qu’a eu DeepNude ces derniers temps. Il ajoute (finalement) ne pas vouloir gagner de l’argent de la sorte et arrête dès lors totalement le développement du service. Malheureusement, comme il le sait déjà, et comme il le précise dans son commentaire, le logiciel va surement être copié par d’autres personnes mal intentionnées, avant d’être redistribué. Et contre ça, l’inventeur de DeepNude ne pourra rien y faire.