Las deepfakes se han potenciado con la automatización que ha traído consigo la inteligencia artificial (IA). No se trata de un fenómeno nuevo, pero hoy, ante la disponibilidad técnica y la facilidad de acceso a herramientas avanzadas, su impacto social se ha amplificado.
Lo relevante no es sólo la sofisticación técnica de estas herramientas, sino la forma en que se han integrado a la vida cotidiana, muchas veces sin que las personas tengan claridad sobre sus alcances, límites o riesgos. La circulación acelerada de contenidos audiovisuales hiperrealistas ha comenzado a erosionar certezas básicas sobre lo que vemos, escuchamos y creemos.
El Grupo de Inteligencia Artificial (GIA) y el isms forum, los deepfakes —palabra que combina “profundo” (en referencia a un tipo de aprendizaje de la IA) y “falso” en inglés— son contenidos que pueden recrear voces, sonidos, movimientos, imágenes de forma hiperrealista. Lo que podría ser una tecnología con potencial para proyectos de incidencia o justicia, pero que a su vez ha sido, en muchos casos, malversado para fines nocivos.
Uno de los usos más alarmantes ha sido la alteración de imágenes con fines sexuales. En México, un caso bastante comentado fue el de Diego N, estudiante del Instituto Politécnico Nacional (IPN), quien recibió ocho denuncias de sus compañeras luego de descubrirse que poseía 160 mil imágenes y dos mil videos alterados con IA (sobre diversas mujeres) para fines de explotación sexual, según el Congreso de la Ciudad de México en su exhorto para que el juez del caso validará las pruebas tras la absolución del joven en 2024. Lo cual provocó movilizaciones que buscan reformas al código penal, como la presentada por dicho congreso el 6 de diciembre de 2024, y la sentencia del joven en el presente año. El caso no sólo evidenció la facilidad técnica para producir este tipo de contenidos. También puso en evidencia los vacíos legales existentes.
Algo que no es únicamente reciente. La organización Deeptrace había detectado en 2019 que, de los diez principales sitios de contenido pornográfico, ocho albergaban deepfakes (un total de 802 videos en el 6% de los sitios tradicionales); mientras que el 94% de los contenidos analizados (13 254 videos) provenían de nueve sitios web dedicados exclusivamente al deepfake pornográfico. Donde las actrices británicas y artistas de K-Pop fueron quienes más resultaron afectados en su imagen.
Las posibilidades son relativamente sencillas: cualquier persona puede suscribirse a un servicio de IA, subir una fotografía y una muestra de voz, y, ante la falta de regulación clara, generar contenido falso que circula con rapidez y sin consecuencias claras. De hecho, la empresa especializada en identificación digital, Jumio, reportó en 2024 que sólo el 15% de 8 mil 77 encuestados dijo nunca haber visto algún video deepfake, y el 22% mencionó no tener seguridad sobre ello (el resto se había encontrado con un video en el último año); así, el 72% del nivel global presentó preocupación a diario por encontrarse con alguno.
Estas cifras no sólo muestran un crecimiento cuantitativo del fenómeno, sino un cambio cualitativo: los deepfakes han dejado de ser una rareza tecnológica para convertirse en parte del ecosistema informativo cotidiano, con impactos directos en la confianza pública y en la verificación de la información.
Este no es un tema menor. Nos atraviesa generacionalmente y, por ello, desde el Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina (LIASI) del CEIICH, UNAM, resulta urgente reflexionar sobre estas prácticas. Para ello, uno de nuestros proyectos, el Observatorio de Inteligencia Artificial y Sociedad, ha publicado un informe donde se analiza el uso social de las deepfakes, específicamente en videos que recrean o se hacen pasar por noticieros.
Por tanto, en el estudio hallamos que la desinformación audiovisual está dejando de ser un fenómeno marginal para convertirse en una forma de disputa política cotidiana, pues estos tipos de videos suelen tener dos líneas principales: el humor y la sátira sobre ciertas situaciones contextuales, así como la desinformación y manipulación de las personas. Evidenciando la falta de la alfabetización digital en torno a la IA, pues, aunque se dan algunas alertas y recomendaciones sobre el tema, se ahonda muy poco en las diversas dimensiones que rodean al fenómeno: sólo se responsabiliza a los usuarios de compartir este contenido, pero no se ahonda en el papel que juegan las empresas o actores políticos en ello.
Resultado de InfraNodus sobre noticieros deepfakes
Imagen obtenida de InfraNodus realizado por el Observatorio Crítico de IA y Sociedad.
En el informe Alfabetización digital, una necesidad frente a los noticieros deepfake surgieron hallazgos relevantes:
Uno de ellos es la persistente desigualdad en el entorno digital: muchas personas, especialmente por cuestiones generacionales o económicas, tienen poca familiaridad con las tecnologías de inteligencia artificial, lo que las vuelve más vulnerables a los riesgos de estos contenidos manipulados. Por ejemplo, tal como en el caso de la encuesta de Jumio, donde se reveló que el 75% de los hombres entre 18 a 34 años tenían más confianza en sus habilidades de detección de deepfakes, frente al 52% de las mujeres entre 35 a 54 años; considerando que el 60% de la población a nivel global consideraba que eran capaces de detectar estos contenidos (un incremento del 8% respecto a 2023).
También observamos que los noticieros deepfake aparecen con frecuencia en contextos políticos, con el objetivo de dañar la reputación de figuras públicas, particularmente durante procesos electorales. Por ejemplo, la empresa Sumsub rastreo que la creación de deepfakes aumentó drásticamente en 2024, año en el que varios países atravesaban por elecciones: 1 625% en Corea del Sur, 1 550% en Indonesia, 900% en Moldavia, 500% en Sudáfrica y México, 303% en Estados Unidos, 280% en Indonesia y 30% en Bangladesh.
Aunque existen algunas claves técnicas para intentar identificarlos —como marcas de agua o desajustes entre gesticulación y audio—, estas no siempre son suficientes para advertir al público de que se trata de un contenido falso. Al respecto, iProov publicó en 2025 los resultados de una evaluación que realizaron a 2 mil participantes del Reino Unido y Estados Unidos para detectar imágenes y videos deepfakes: sólo el 0.1% (dos personas) lograron identificar todos los contenidos correctamente; considerando que el 30% de adultos entre 55 a 64 años, y el 39% mayores de 65 años nunca habían escuchado hablar de estos contenidos.
Frente a este panorama, se vuelve urgente impulsar espacios de formación en habilidades digitales, con una mirada colaborativa entre la academia, las empresas, el sector público y las instituciones de gobierno. De hecho, esto formó parte del interés mediático que se identificó con InfraNodus por el Observatorio: el 9% del contenido estaba influenciado por la idea de la necesidad de una verificación ética, mientras que el 12% advertía sobre la claridad de la información y el 7% buscaba mostrar las herramientas que había detrás.
Frente a este escenario, insistir únicamente en la detección técnica resulta insuficiente. El problema no es sólo reconocer un contenido falso, sino comprender las condiciones sociales, políticas y económicas que permiten su circulación.
Por ello, los análisis realizados desde el Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina (LIASI) del CEIICH muestran que no basta con el diagnóstico de los problemas. También es necesario contribuir con soluciones. Una de ellas es la alfabetización digital: aprender a usar, comprender y apropiarse de las tecnologías de forma crítica. Tal como hemos sostenido en diversos congresos, se trata de formar capacidades para comprobar información, distinguir fuentes y participar de forma ética y responsable en el espacio público digital.
La literatura especializada coincide en que la alfabetización digital no debe limitarse al uso técnico, sino incorporar dimensiones éticas, cognitivas y sociales. Investigadoras en el ámbito tecnológico, como Delia Crovi, Luz María Cruz Garay y Alma Rosa de la Selva, han señalado la necesidad de contemplar las condiciones materiales detrás del uso de las tecnologías, los conocimientos y habilidades necesarios para emplearlas y los procesos que llevan a adquirirlos, así como las motivaciones para emplear las herramientas (para qué fines se hace y cómo se benefician los usuarios). Mientras que autores como Pippa Norris agregan la necesidad de fomentar la participación política.
También necesitamos fomentar experiencias, talleres y políticas que permitan adquirir dichas habilidades. Es decir, se coincide que la alfabetización es una forma de apropiarse críticamente de la IA y los contenidos, frente al caos informativo y los riesgos que representa la manipulación digital.
Además, es imprescindible articular esfuerzos desde la academia, la política pública y el sector empresarial para generar políticas que asuman la alfabetización digital como un eje central. No se trata solo de una moda o tendencia: es una vía para prevenir abusos, injusticias y vacíos epistemológicos. Es momento de trabajar en marcos de transparencia, rendición de cuentas y participación ciudadana.
Finalizamos esta columna con una invitación: repensar los usos de la tecnología no sólo como amenaza, sino como una posibilidad. La alteración digital, como ocurre con las deep fakes, puede —con ética, conocimiento y agencia colectiva— volverse una herramienta para el bien común.
Hablar de alfabetización digital frente a los deepfakes implica, al mismo tiempo, comprender cómo se producen estos contenidos, desarrollar pensamiento crítico para interpretarlos, asumir una responsabilidad ética frente a su circulación y adquirir herramientas prácticas para contrastarlos.
Luis Josué Lugo y Arlette Morales
*Agradecemos al equipo del Laboratorio de IA, Sociedad e Interdisciplina (CEIICH, UNAM).