El creador de DeepNude anunció que bajará la aplicación luego de una serie de denuncias por objetivar a los cuerpos de las mujeres, pues el software prometía 'desnudar' fotos de mujeres mediante un algoritmo.
"Honestamente, la app no es tan grandiosa, sólo funciona con ciertas fotos. No esperábamos que se volviera tan viral que no pudiéramos controlar el tráfico.
Por un precio de 50 dólares (956 pesos), el desarrollador ofrecía un software que analizaba la fotografía de una mujer con ropa y, mediante inteligencia artificial, entregaba una versión de ésta desnuda.
Aunque el creador de la app, identificado con el usuario de Alberto, había explicado que no lo hacía por morbo, sino por curiosidad y diversión, usuarios en redes denunciaron que estas iniciativas propagaban el acoso sexual hacia las mujeres.
"No soy un vouyerista, soy un entusiasta de la tecnología que trata de mejorar los algoritmos", dijo el desarrollador a Vice
La app implementaba la tecnología Deepfake, una técnica de inteligencia artificial que usa algoritmos de aprendizaje no supervisados para crear una imagen o video falsos, pero bastante realistas, a partir de otros verdaderos.
Con esta técnica se recreó al personaje de la Princesa Leia en Rogue One, de la saga Star Wars. En 2017, se empezó a utilizar para videos pornográficos con rostros de actrices famosas, por lo que varios sitios empezaron a prohibir esta tecnología.
"Esto es absolutamente terrorífico. Ahora cualquiera puede ser víctima de porno venganza sin tener que haberse tomado una foto desnuda", declaró la activista feminista Katelyn Bowden.
En la declaración, el creador anunció que no lanzará otra versión de DeepNude ni concederá su uso a alguien más.
lar