Un problema que cada vez cobra mayor peso y preocupación en internet son las falsificaciones con inteligencia artificial. Recientemente generaron alarma los casos de la cantante Taylor Swift y de la influencer Alana, quienes fueron víctimas de imágenes falsas que atentaron contra su intimidad.
A través de generadores de video, por ejemplo Veo 3, herramienta de Google que presuntamente está detrás de contenidos que han impactado a los internautas, como el video de un canguro en la puerta de abordaje de un aeropuerto, personas sin ningún conocimiento técnico puedan crear imágenes de tipo deepfake: basta con escribir una solicitud y el sistema la produce.
- Te recomendamos ¿Qué es 'Deepfake'? Técnica de creación de contenido del que fue víctima Alana Flores Famosos
Aunque la mayoría de estas imágenes parecen inofensivas, pueden utilizarse para llevar a cabo estafas y robos de identidad, o propaganda y manipulación electoral.
¿Qué es un deepfake?
En su sitio web, el Instituto Nacional de Ciberseguridad de España alerta que los 'deepfakes' son fotos o vídeos "manipulados para hacer creer a los usuarios que ven a una determinada persona, tanto si es anónima como si es personaje público, realizando declaraciones o acciones que nunca ocurrieron".
"Para la creación de dichos vídeos, se utilizan herramientas o programas dotados de tecnología de inteligencia artificial que permiten el intercambio de rostros en imágenes y la modificación de la voz", agrega el organismo.
¿Cómo detectar imágenes falsas?
Hace un par de años, la inteligencia artificial producía contenidos que distaban de ser perfectos: como manos con seis dedos o gafas con cristales distintos entre sí.
Pero a medida ha ido mejorando, se ha vuelto mucho más difícil detectar las falsificaciones. Algunos consejos ampliamente compartidos —tales como buscar patrones de parpadeo poco naturales entre las personas que aparecen en videos deepfake— ya no son válidos, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y uno de los principales expertos en IA generativa.
Aun así, hay algunas cosas que hay que tener en cuenta:
- Muchas de las fotos deepfake creadas con IA, especialmente de personas, tienen un brillo electrónico, “una especie de efecto estético de suavizado” que hace que la piel “parezca increíblemente reluciente”, señaló Ajder.
- Verifique la coherencia de las sombras y la iluminación. A menudo, el sujeto está bien enfocado y parece convincentemente realista, pero los elementos del fondo pueden no ser tan realistas ni relucientes.
- El intercambio de rostros es uno de los métodos de deepfake más comunes. Los expertos aconsejan fijarse bien en los bordes de la cara. ¿El tono de la piel del rostro coincide con el del resto de la cabeza o el cuerpo? ¿Los bordes de la cara son nítidos o borrosos?
Si sospecha que el video de una persona que está hablando ha sido manipulado, fíjese en la boca. ¿Los movimientos de los labios coinciden perfectamente con el audio? Ajder sugiere mirar los dientes. ¿Son claros o están borrosos y de alguna forma no coinciden con su aspecto en la vida real.
Si sospecha que el video de una persona que está hablando ha sido manipulado, fíjese en la boca. ¿Los movimientos de los labios coinciden perfectamente con el audio? Ajder sugiere mirar los dientes. ¿Son claros o están borrosos y de alguna forma no coinciden con su aspecto en la vida real.
La empresa de ciberseguridad Norton dice que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos de dientes individuales podría ser una pista.
Tener en cuenta el contexto
El sitio web de periodismo Poynter aconseja que, si usted ve a un personaje público haciendo algo que parece “exagerado, poco realista o incongruente con su personalidad”, podría tratarse de un deepfake.
Por ejemplo, ¿realmente el papa Francisco usó una lujosa chaqueta acolchada, como se muestra en una famosa foto falsa? Si así fuera, ¿no habría más fotos o vídeos publicados por fuentes legítimas?
FakeCatcher y otras herramientas con IA para detectar contenidos falsos
Otro enfoque consiste en utilizar la IA para luchar contra la IA.
Microsoft ha desarrollado una herramienta de autentificación que puede analizar fotos o videos para dar una puntuación de confianza sobre si han sido manipulados. FakeCatcher, del fabricante de circuitos integrados Intel, utiliza algoritmos para analizar los pixeles de una imagen con el fin de determinar si es real o falsa.
Hay herramientas en internet que prometen detectar las falsificaciones si usted sube un archivo o le pega un enlace al material sospechoso. Pero algunas, como el autentificador de Microsoft, sólo están disponibles para socios seleccionados y no para el público en general. Esto se debe a que los investigadores no quieren alertar a los delincuentes y darles una mayor ventaja en la carrera armamentista de los deepfakes.
El acceso abierto a las herramientas de detección también podría darle a la gente la impresión de que son “tecnologías milagrosas que pueden realizar el pensamiento crítico por nosotros”, cuando en realidad debemos ser conscientes de sus limitaciones, afirma Ajder.
¿Cuáles es el principal obstáculo?
Dicho esto, la inteligencia artificial avanza a un ritmo vertiginoso y los modelos de IA están siendo entrenados con datos de internet para producir contenidos cada vez de mayor calidad y menos fallas.
Esto significa que no hay garantía de que estos consejos sigan siendo válidos dentro de un año.
Los expertos dicen que incluso podría ser peligroso responsabilizar a los ciudadanos de a pie para que se conviertan en Sherlocks digitales, ya que podría darles una falsa sensación de confianza a medida que se hace cada vez más difícil detectar deepfakes, incluso para los ojos entrenados.
También crear imágenes estilo Ghibli es peligroso
Con la proliferación de imágenes donde los internautas se moldearon en distintos estilos artísticos, por ejemplo las películas del Studio Ghibli, la Policía Cibernética, de la Secretaría de Seguridad Ciudadana (SSC), lanzó una advertencia.
“Las aplicaciones de este tipo requieren acceso a tus imágenes y datos personales para funcionar, lo que plantea serias dudas sobre cómo se gestionan y protegen esos datos. (...) En algunos casos, la recolección de datos personales no se limita a la mejora del servicio, sino que puede incluir la creación de bases de datos de patrones biométricos, que posteriormente pueden ser comercializados o utilizados para fines distintos a los inicialmente previstos".
hc