Ni los bots o la publicidad pagada se equiparan a lo que la Inteligencia Artificial (IA) representa para las elecciones del 2024: la manipulación se encuentra al alcance de un clic, las encuestas son cada vez menos confiables y las preferencias volubles. “Es como un Cambridge Analytica, pero más grave”.
Xóchitl Gálvez presumió meses atrás de los videos promocionales que sus ‘xochilovers’ realizaron con IA en apoyo a su candidatura; arrancada la contienda por la Ciudad de México (CdMx), clips similares de Omar García Harfuch circularon en las redes sociales.
Sin embargo, el riesgo mayor se encuentra en el otro lado de la moneda. Cuando esta herramienta se convierte en una manipulación digital capaz de sembrar duda y desconfianza contra cualquiera en quien sea usada. Y como si no fuera suficiente, hoy en día “ya no hace falta hacer campaña, sino pagar un montón de dinero y usar audios falsos para confundir a la población”.
“Va a ser muy difícil volver a las campañas normales. (...) Ahora reditúa más manipular; reditúa más simular, y ya no hace falta hacer una campaña”, comentó Alberto Escorcia en entrevista con MILENIO.
Los ánimos por la carrera por la Jefatura de Gobierno de la Ciudad de México (CdMx) se encendieron luego de que Martí Batres fue señalado de actuar en beneficio de uno de los aspirantes a la gubernatura capitalina. La prueba de la acusación era un supuesto audio filtrado.
El político negó la veracidad del archivo tan pronto generó revuelo: “Está producido con inteligencia artificial. No es real”, escribió Batres Guadarrama en X. Pero el daño ya estaba hecho y varios internautas se convencieron de su culpabilidad, y del resto de políticos y periodistas involucrados.
Así es como actúa la IA. Ése es su principal peligro para el ámbito político-electoral: “Vulnera la libre toma de decisiones. Cambia las percepciones porque juega con la idea de que es auténtico. La gente se va a quedar con esa idea”, destacó Alberto Escorcia para este medio.
- Te recomendamos Las claves del audio de Martí Batres creado con Inteligencia Artificial Política
Conversando con MILENIO, el analista en redes sociales advirtió que el uso dado a la IA en el caso Batres — así como en anteriores con Marcelo Ebrard, Clara Brugada y López Obrador — tambalea el proceso electoral del 2024 al vulnerar la libre toma de decisiones, a tal grado que ni las opiniones de expertos podrán convencer en su totalidad a las y los votantes.
“Va a mantener una elección muy inestable que va a ser muy fácil que se descarrile", auguró.
Una pesadilla electoral
En septiembre, Marcelo Ebrard fue blanco de críticas por una declaración falsa y creada por IA que lo vinculaba con el bando opositor. Al mes siguiente, le tocó a la alcaldesa de Iztapalapa con licencia, Clara Brugada, y días después el blanco fue Martí Batres. En poco meses, el desarrollo de la tecnología fue notorio; los errores de la primera embestida no se repitieron en la última y, por el contrario, se perfeccionó la simulación.
“Van a seguir aprendiendo de ello. Van a entender que las claves son las emociones, los tonos de voz”, reflexionó Alberto Escorcia.
El especialista advirtió que los casos podrían incrementarse con el arranque oficial de las elecciones del 2024, derivando en actos de violencia, disturbios y conflictos internos. Un fenómeno que aquejará en mayor medida a los procesos electorales municipales.
“Ese es el verdadero peligro. (...) En los pequeños municipios importantes que van creciendo va a ser una pesadilla. Va a haber mucha manipulación. Sobre todo en esta disputa territorial entre la derecha y la izquierda”, destacó.
Escorcia explicó para MILENIO que el control del Instituto Nacional Electoral (INE) para las elecciones federales es mayor al que procura en los municipios, lo cual explicaría la falta de regulación de gastos de sus áreas de comunicación social: “Los mayores gastos y daños que se han hecho son en ciudades pequeñas. Ahí se mueven las agencias, la gran manipulación”.
La inteligencia artificial no es perfecta: aún es incapaz de replicar sentimientos, interpretar las manos o difundirse por ella misma. Y para esto último, destacó el también periodista, se requiere “muchísimo dinero” y una plataforma donde hacerlo. De ahí que la mira se tiene que dirigir, señaló, en quienes financian la distribución.
— ¿Cuáles son los puntos dónde debe estar el radar de cara al 2024?
— En el dinero. Estos audios no se han vuelto virales hasta que alguien paga muchísimo dinero para difundirlos. (...) Hay que tener la mira en las empresas de redes sociales y sus departamentos comerciales, donde se ve que hay mucho tráfico. (...) Hay que ver cómo se mueve el dinero.
Los más afectados
A inicios de octubre la imagen de conductores de MILENIO Televisión fue utilizada en una plataforma apócrifa de supuestas inversiones. Con el uso de IA se modificó la voz e imitaron los movimientos de Azucena Uresti y el magnate Carlos Slim para dar fe del fraude de “Oil Profit”.
Para el ojo no experto, la manipulación es “casi indetectable” y por lo mismo enciende las alertas ante la facilidad con la que se puede desacreditar un testimonio verdadero o incluso inculpar a alguien en un delito.
“Hemos tenido testimonios de testigos y aunque sea el testimonio real no se cree, ahora se puede desacreditar más fácil. (...) Se puede acusar a quien sea de haber hecho algo indebido y en lo que se comprueba, vamos a tener muchas víctimas inocentes. (...) Yo creo que esto se va a exacerbar”, dijo Alberto Escorcia.
- Te recomendamos Esta estafa te podría hacer perder todos tus ahorros Policía
Y es que nadie se salva de ello. Las afectaciones por el uso malintencionado de IA pueden perjudicar desde el ámbito más público (como electoral o de justicia), hasta los menos expuestos (como familiar o personal); siendo este último en donde Escorcia ve un mayor daño.
“Por ejemplo los hackeos de la contraseña de Facebook. Eso extrapolado a la inteligencia artificial, alguien que falsifique un audio para dañar una relación y termine en un asesinato o un crimen de odio. Ese es el verdadero peligro. Acosar a un niño, que le destruyan la vida o hagan un video falso de él o ella”.
Alberto Escorcia insiste en una regulación de las tecnologías. El instinto puede en ocasiones acertar a un falso video, audio o imágenes, pero el rápido aprendizaje de quienes están detrás dificulta incluso a los expertos detectar ‘a ojo de buen cubero’ si un material es verídico o no.
Las leyes ya no son suficientes para resarcir las consecuencias. Los reflectores también deben estar sobre las plataformas digitales y empresas que permiten, e incluso impulsan, la creación de materiales apócrifos con IA.
“Las leyes son como para decir que está mal algo, pero al final lo que es más efectivo es que las empresas hagan más difícil este tipo de clonaciones. (...) Creo que lo más efectivo es que las plataformas sean más conscientes del daño que pueden causar”.
ASG