DeepNude, ou quand l’I.A. sert aux mauvaises personnes (Màj)
Un algorithme intelligent a été entrainé à dénuder de manière réaliste des photos de personnes habillées.
Mise à jour : le créateur de DeepNude a annoncé l’arrêt du développement de son logiciel complètement décrié sur internet ces derniers jours. Voir le détail en fin de cet article.
Le site Vice a révélé au grand jour avant-hier l’existence d’un programme de modification d’image assez perturbant. Son créateur l’a appelé DeepNude. Et comme son nom peut le laisser penser, il a rapport avec la nudité.
En somme, il est capable, dans une certaine mesure, de mettre à nu des personnes prises en photos. Selon l’auteur, qui a confié à Vice avoir “conçu cet outil pour s’amuser”, l’algorithme qui s’occupe de retoucher la photo pour recréer les parties cachées est basé sur des technologies d’intelligence artificielle développées par l’Université de Californie.
Initialement, cette I.A., nommée Pix2pix et présentée ici, est capable d’effectuer plusieurs transformations d’image. Elle peut par exemple redonner des couleurs à une photo en noir et blanc. Elle peut aussi transformer un paysage de jour en paysage de nuit, ou encore recréer un objet complet à partir de sa seule silhouette.
Pour faire naître DeepNude, l’auteur anonyme a donné à l’I.A. plus de 10 000 images de femmes nues à traiter. Un tel entrainement a permis à l’algorithme de devenir capable de recréer des parties intimes de femmes, à partir d’une photo sur laquelle ces zones sont cachées, soit par des vêtements, soit par un traitement de postproduction.
Selon la source, il en résulte des images, plus ou moins réalistes, surnommées en anglais Deepfakes. Mais malheureusement, les photos modifiées feraient parfois suffisamment illusion pour devenir une arme de chantage ou de harcèlement.
L’auteur de DeepNude a ajouté prévoir une version similaire de son app pour les photos d’hommes. Il distribue son logiciel gratuitement, avec la nécessité de payer 50 dollars pour supprimer le filigrane dans les images résultantes. Sans aucune gêne visiblement, l’idée de tirer profit de DeepNude est avouée pour son diabolique inventeur.
DeepNude s’inscrit dans une plus grande catégorie de faux contenus appelés Deepfake, qui regroupe, en plus de la synthèse d’image à caractère pornographique, la modification de vidéos ou photos à des fins de propagande ou de canular.
Heureusement, il existe des sites comme Décodex, sous-tendu par le journal Le Monde, ou encore HoaxBuster, qui servent à détecter les fausses informations relayées sur internet. Pour les photos, on peut mentionner le site TinEye. Ce dernier peut scanner une image douteuse pour tenter de retrouver l’image originale non modifiée sur internet et ainsi aider à détecter un montage.
Voilà en tout cas une bonne piqûre de rappel pour pousser tout un chacun à rester prudent sur internet.
Mise à jour : le créateur de DeepNude a fait une annonce sur Twitter. Dans un long message, il annonce qu’il stoppe complètement le développement et la distribution du logiciel.
— deepnudeapp (@deepnudeapp) 27 juin 2019
L’auteur affirme qu’il pensait initialement que DeepNude resterait confidentiel. Il tablait sur une poignée de ventes de licence de l’algorithme seulement chaque mois. Il dit ne pas avoir anticipé un seul instant le caractère viral qu’a eu DeepNude ces derniers temps. Il ajoute (finalement) ne pas vouloir gagner de l’argent de la sorte et arrête dès lors totalement le développement du service. Malheureusement, comme il le sait déjà, et comme il le précise dans son commentaire, le logiciel va surement être copié par d’autres personnes mal intentionnées, avant d’être redistribué. Et contre ça, l’inventeur de DeepNude ne pourra rien y faire.
bebi27
28 juin 2019 à 8 h 38 min
Ba moi je la veux cette appli, voir ma RH nue j’en rêve.. ha ha
Raymond (posté avec l'app i-nfo.fr V2)
28 juin 2019 à 9 h 04 min
??
Cielmarcheur
28 juin 2019 à 9 h 47 min
D’après la source, le créateur de cette dangereuse application a décidé de l’arrêter. Tant mieux ! Il y a tellement de cons sur Terre qu’elle aurait fait d’énormes dégâts !
lol
28 juin 2019 à 12 h 52 min
Il parait que pour ne pas avoir peur de parler en public il faut imaginer les gens nus en face de soi. Très bonne app!
Ortograf' (posté avec l'app i-nfo.fr V2)
28 juin 2019 à 13 h 59 min
Si ce n’est lui ce sera un autre qui la sortira cette app ou similaire… Il y a un marché…
Calypso (posté avec l'app i-nfo.fr V2)
29 juin 2019 à 8 h 16 min
C’est bon je peux maintenant m balader nu je dirais que c’est deepNude ?
Max75 (posté avec l'app i-nfo.fr V2)
1 juillet 2019 à 14 h 30 min
C’est rigolo pour les porteuses de Burkini
Lecteur-1562002812 (posté avec l'app i-nfo.fr V2)
2 juillet 2019 à 20 h 31 min
Vous êtes tellement débile d’aimer cette appli tant que vous y êtes sortez à poil dans la rue mashalla vous êtes tellement ????? wlh vous êtes à coter de moi j vous tue mais wlh allez crever frère
Lulettes (posté avec l'app i-nfo.fr V2)
2 juillet 2019 à 20 h 38 min
Mulettes
Lulettes (posté avec l'app i-nfo.fr V2)
2 juillet 2019 à 20 h 41 min
Après chacun son avis mais perso c la resse