La tecnología de reconocimiento facial ha llegado muy lejos, y no en el buen sentido. Una nueva aplicación, llamada FakeApp permite a sus usuarios reemplazar el rostro de actrices porno por alguna foto de su ex novia, amiga, celebridades o cualquier mujer, pues no reconoce rostros masculinos.
Esta nueva tendencia conocida como deepfake, comenzó a popularizarse en Reddit gracias a los algoritmos de Machine Learning que están abiertos al público. Con ellos, se puede tomar cualquier video o foto que esté públicamente disponible y sobreponerlo en el cuerpo de una actriz porno.
TE RECOMENDAMOS: ¿Reales o bots? Así son los 'followers' de los aspirantes
Para hacer esto, era necesario tener un conocimiento ligeramente avanzado de programación, pero alguien tuvo la idea de hacerlo mucho más fácil y convertirlo en una app: FakeApp, disponible sólo para computadoras y descargable a través de Reddit.
Si alguien quiere lograr un montaje convincente, sólo necesita uno o dos videos de alta calidad y en el que se vea claramente el rostro que quieren tomar además de una buena unidad de procesamiento gráfico para que en aproximadamente 12 horas, la computadora pueda sustituir el rostro de la actriz porno por el que eligió el usuario cuadro por cuadro, se lee en el foro de Reddit de FakeApp.
La app se ha vuelto tan popular que ya existen diversos tutoriales para aprender a utilizarla. Sin embargo, antes de que se te ocurra atentar contra alguna persona utilizando esta aplicación para crear un montaje de "broma", debes considerar que podrías meterte en problemas legales por difamación o bullying, pues muchos la han ocupado para hacer porno de venganza falso.
Pero ese no es el único problema. Al tener resultados tan convincentes, logra engañar al ojo humano. De acuerdo con el sitio Motherboard, hace unas semanas se publicó un video en el que supuestamente Emma Watson tomaba un baño con otra chica; sin embargo, el material fue el resultado de deepfake.
RL