Une application AI qui déshabille en un clic les femmes crée le scandale
Deep Nude, une application venue d’Estonie, a provoqué un véritable tollé sur les réseaux sociaux. Et pour cause : celle-ci permet de déshabiller virtuellement les femmes, et seulement les femmes, à partir d’une simple photo.
Une appli qui dénude les femmes de façon virtuelle, et seulement les femmes ! Telle était l’idée on ne peut plus sexiste de l’appli Deep Nude, mise sur le marché par une start-up estonienne. Le concept ? Utiliser une large bande de données de corps féminins nus pour réaliser des photo-montages très réalistes de femmes croisées dans la rue, au travail, sur les réseaux sociaux…
Dénuder virtuellement une femme avec une simple photo
Retrouver une photo de vous, complètement nue, que vous n’avez pas prise est désormais possible grâce à l’application Deep Nude. Son concept ? Dénuder les femmes et uniquement les femmes virtuellement et sans leur consentement.
Le Washington Post montrait récemment que l’application pouvait transformer une photo banale de femme, prise dans le métro, au travail, dans la rue ou bien volée sur les réseaux sociaux en une photo de femme complètement nue.
Forte de milliers de clichés de femmes dénudées et d’une intelligence artificielle, l’application est en effet capable de retirer les vêtements d’une photo et de les remplacer par un corps nu, dont le rendu est particulièrement crédible.
L’application Deep Nude retirée du marché
Dès sa sortie, mercredi 26 juin, le concept de Deep Nude a provoqué un véritable tollé et de nombreuses voix se sont élevées sur les réseaux sociaux. La Cyber Civil Rights Initiative, spécialisée dans la lutte contre la pornographie « non consensuelle », s’est révoltée sur Twitter, à travers la voix de sa présidente, Mary Anne Franck : « Le but de cette application était de satisfaire les fantasmes prédateurs et grotesques d’hommes lamentables ».
Une vague d’indignation qui a poussé les créateurs de l’appli a finalement la retirer du marché, 24h après sa sortie : « Nous n’aurions jamais imaginé que cela deviendrait viral et (que) nous ne serions pas en mesure de contrôler le trafic (…) Malgré les garde-fous, si 500 000 personnes l’utilisent, le risque d’abus est trop élevé. On ne veut pas gagner de l’argent comme ça ». Espérons que le concept n’en inspire pas d’autre.