Rostros GAN: ¿Qué son y cómo son utilizados para fraudes?

Algunos ejemplos de acciones maliciosas con rostros GAN son la creación de perfiles falsos fake news, robo de identidad y fraude en las aplicaciones de citas y redes sociales.

La teconología GAN permite crear rostros artificiales hiperrealistas. Foto: (Shuttestock)
Silvia Rodríguez
Ciudad de México /

La empresa de ciberseguridad, ESET, advirtió que unas de las tecnologías que se desprenden de la inteligencia artificial, específicamente del machine learning, son los rostros GAN y representan opciones de uso para fines maliciosos.

La tecnología GAN es un tipo de inteligencia artificial que permite crear rostros ficticios. Las redes GAN, (del inglés Generative Adversarial Network, cuya traducción puede ser redes generativas adversarias o antagónicas) son algoritmos que se basan en el deep learning.

A través de esta tecnología, se pueden generar rostros realistas y otro tipo de imágenes, incluso audios o videos.

ESET explicó que esta tecnología, que funciona con base en el entrenamiento de imágenes, fue creada en el año 2014 por Ian Goodfellow y su equipo de colegas. Para funcionar necesita datos de entrada, como pueden ser rostros reales de diferentes personas, y el modelo ofrece como resultado nuevas caras con características de apariencia real.

Añadió que si bien los rostros GAN son de gran ayuda para industrias como la de los videojuegos, para la generación de rostros para los personajes o para efectos visuales que luego son utilizados en películas, también pueden ser utilizados con fines malintencionados.

Es así que en 2021, estudios publicados ya daban cuenta que las imágenes creadas mediante inteligencia artificial son cada vez más convincentes, y que existe 50 por ciento de posibilidades de confundir un rostro falso con uno real.

¿Cuáles son los usos maliciosos de los rostros GAN?

Algunos ejemplos donde esta tecnología puede ser utilizada es al crear perfiles falsos. Con las redes GAN pueden crear imágenes o incluso videos de personas conocidas, o no, para engañar a las víctimas y persuadirlas para que revelen información confidencial, como nombres de usuario y contraseñas o, incluso, los números de tarjetas de crédito.

Por ejemplo, pueden crear rostros de personas ficticias que luego son utilizados para armar perfiles de supuestos representantes de servicio al cliente de una empresa. Estos perfiles luego envían correos electrónicos de phishing a los clientes de esa empresa para engañarlos y hacer que revelen información personal.

Otro uso se relaciona con la creación de fake news, cuyo crecimiento ha vuelto desafiante la tarea de discernir entre la información real y la falsa. Ahora, con el avance de las tecnologías de machine learning, el desafío parece aumentar.

ESET destacó que como se vio con ChatGPT y la posibilidad de crear una noticia falsa, si se acompaña esta noticia con videos o imágenes que se hacen pasar por personas reales, el potencial es enorme.

Ya se han observado casos en los que se han creado deepfakes que se hacen pasar por políticos para distribuir fake news, como fue el caso del presidente de Ucrania, Volodymyr Zelensky, y un video falso que fue subido a sitios web comprometidos de este país en el que llamaba a los soldados ucranianos a bajar las armas.

Otros usos de los rostros GAN se relacionan con el robo de identidad, ya que la creación de rostros similares a los de personas públicas, como celebridades, puede facilitar los fraudes de robo o suplantación de identidad.

Por ejemplo, hay que pensar en el reconocimiento facial como método de autenticación y las posibilidades que ofrecen los rostros GAN como instrumento para sortear este método de autenticación y acceder a la cuenta de un tercero.

Asimismo, el fraude en las aplicaciones de citas y redes sociales, pues con el avance de tecnologías como las redes GAN, los cibercriminales pueden crear rostros falsos que son utilizados para crear perfiles falsos en aplicaciones de citas y/o perfiles de redes sociales como parte de su estrategia para engañar y luego extorsionar a las víctimas.

SNGZ

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.