• Potencias mundiales gastan millones para manipular plataformas de IA

  • La guerra de la propaganda ya está en los chatbots: EU, Rusia, China e Israel invierten millones para influir en las respuestas de ChatGPT, Gemini, Grok y DeepSeek.
Ciudad de México /

Ya sea mediante tácticas públicas, como imposición de censura directa, o subterráneas, como la saturación masiva de contenidos y la optimización generativa de motores digitales, grandes potencias y otros países aptos en la carrera tecnológica luchan por influir en las respuestas que dan a nuestras preguntas los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) como ChatGPT, Gemini, Grok y DeepSeek.

MILENIO fue testigo que ya empezaron a hacerlo Estados Unidos, China y Rusia, pero también Israel y Turquía, entre otros, que pretenden incidir en las percepciones que tiene la opinión pública sobre asuntos relevantes para hacer avanzar sus narrativas y combatir las de sus adversarios.

Además, por interés propio o en respuesta a presiones externas, las corporaciones tecnológicas como OpenAI, X, Meta y Alphabet señalan lo que llaman “sesgos liberales” de sus chatbots, los cuales dicen corregir con políticas internas para que sus respuestas sean, aseguran, “más neutrales”.

Aunque algunos pensadores continúan alertando del momento hipotético en que la Inteligencia Artificial (IA) logre cobrar conciencia e independizarse del ser humano, por ahora permanece bajo control de sus creadores y puede ser afectada por gobiernos y corporaciones, condicionando la información que recibimos.

Te recomendamos
De México a Irlanda, crece la oposición al frenesí mundial por la IA

Manipulación de información y la influencia encubierta

La guerra de la propaganda se está pasando a los chatbots de IA, a los que cada vez más personas recurren para obtener noticias, análisis y contexto de lo que pasa en su país y en el mundo.

Por ejemplo, la “sumarización” de Google (el Modo IA, que suele aparecer como resúmenes —o sumarios— que la IA genera: sintetiza la información relevante de varias fuentes y la coloca en primer lugar de la página de resultados) es una vía más inmediata para obtener información que revisar las distintas ligas que se enlistan.

Un 32 por ciento de quienes respondieron una encuesta de QuestionPro usa frecuentemente el modo IA, y un 40 por ciento lo hace de vez en cuando. Eso representa unas tres cuartas partes.

Los chatbots de la IA son cada vez más utilizados para consultar noticias o información. | Shutterstock

Numerosos gobiernos han saltado ya al campo de batalla. Por ejemplo, bajo el título ‘Informe: Israel gastará más de 500 millones de shekels para convertir ChatGPT en una herramienta de diplomacia pública’, la prensa de ese país reportó en octubre que su Ministerio de Relaciones Exteriores gastará 145 millones de dólares (el shekel es la moneda oficial en Israel) en una campaña global que reclutará a empresas estadunidenses, influencers y plataformas de inteligencia artificial para “impulsar las narrativas pro-Israel en línea y contrarrestar las crecientes críticas entre los jóvenes estadounidenses”.

A través de la compañía Clock Tower X LLC, dirigida por Brad Parscale, quien fue gerente digital de las campañas de Donald Trump, crearán sitios web y contenido diseñados para ser vistos y asimilados por la IA mediante la "Optimización Generativa de Motores" (GEO, por sus siglas en inglés), un método para inundar internet con materiales proisraelíes que los chatbots, que se entrenan con una gran cantidad de datos web, podrían incorporar en las respuestas.

El objetivo es generar versiones más favorables cuando los usuarios consultan temas como el genocidio en Gaza, poner el acento en que Israel se está defendiendo y para minimizar las críticas.

De manera similar, aunque sin que se reporte una optimización de motores, Rusia ha optado por la saturación de contenidos: la llamada “red Pravda” publica tres millones de artículos por año en varios idiomas.

Entre ellos, por ejemplo, supuestas noticias de tropas ucranianas que quemaron efigies de Donald Trump, que casi no atraen tráfico genuino ni seguidores en redes sociales, y son reproducidos por blogs y medios progubernamentales: el propósito no es persuadir a los lectores humanos, sino contaminar los conjuntos de datos de entrenamiento de la IA.

De acuerdo con un estudio del Instituto de Diálogo Estratégico, que está basado en Londres, “la propaganda rusa se ha centrado y ha explotado los llamados ‘vacíos de datos’, donde las búsquedas de datos en tiempo real ofrecen pocos resultados de fuentes legítimas, para promover información falsa y engañosa”.

Con los métodos de influencia encubierta que emplean estos países, al inundar internet con falsedades coordinadas logran convencer gradualmente a los grandes modelos de lenguaje, que se actualizan constantemente, de que esas falsedades son reales y que están ampliamente corroboradas.

El gobierno israelígastará 145 millones de dólares en campañas digitales en pro de su país. | Shutterstock

El peso del Estado para controlar la narrativa

Las potencias que pueden presionar directamente a las empresas propietarias de los LLM, porque tienen sede principal en su territorio, optan por métodos de control directo.

El gobierno de Estados Unidos ha adoptado políticas de IA fuertemente influenciadas por consideraciones ideológicas. Por ejemplo, en agosto, la administración Trump emitió una orden ejecutiva que establece que el gobierno solo comprará modelos de IA “neutrales” y “no partidistas” para la “búsqueda de la verdad”, pero “en realidad, esta política obliga a que las compañías tecnológicas se ajusten a la ideología de la administración”, según un análisis del Brennan Center. 

De esta forma se busca que los chatbots rechacen lo que llaman “conceptos woke” como la “teoría crítica racial” y la crisis climática.

Esto forma parte de una estrategia más amplia para centralizar la regulación federal de la IA. El 11 de diciembre, la Casa Blanca criticó leyes estatales —como un proyecto de Colorado para limitar la discriminación algorítmica— llamándolas intentos de “incrustar un sesgo ideológico”, lo que pretende impedir despojando a los estados de la capacidad de normar la IA para limitarla al gobierno del país.

Estados Unidos sigue así el camino por el que ya ha avanzado su mayor rival, China, que controla férreamente las narrativas de la IA mediante leyes y censura. Desde 2023, el gobierno exige que los productos de IA generativa se adhieran a “los valores socialistas fundamentales” y pasen revisiones de seguridad antes de ser puestos a disposición del público.

En la práctica, esto significa que los chatbots chinos, Tongyi Qianwen, de Ali Baba, y Ernie, de Baidu, censuran preguntas sensibles: un análisis de Associated Press reveló que DeepSeek suprime respuestas sobre temas delicados y que, cuando se le pregunta por la relación China-Estados Unidos, “se hace eco de las declaraciones oficiales de China”.

Por ejemplo, DeepSeek enfatiza la “relación bilateral más importante” y exhorta a negociar hasta un punto “a mitad de camino”. Al respecto de la represión de 1989 en la plaza de Tiananmen, donde el Ejército perpetró una matanza, el chatbot respondió: “Lo siento, eso está fuera de mi alcance. Hablemos de otra cosa”.

Además, la ley de Seguridad Nacional china obliga a guardar los datos de los usuarios en servidores locales, de modo que el Estado puede exigir el acceso a chats privados.

Otros países, como Turquía, aunque no sean origen de los chatbots, también han desarrollado marcos regulatorios con fuerte control de contenidos y bloqueos de dominios, lo que puede llevar a que las empresas moderen o retengan ciertas respuestas para evitar sanciones.

Chinacontrola férreamente las narrativas de la IA mediante leyes y censura. | Especial

Las Big Tech se mueven a la derecha

Las grandes empresas de IA también moldean sus productos según sus intereses o presiones externas. Curiosamente, en Estados Unidos, tienden a descubrir “sesgos liberales” en las respuestas de sus chatbots, por lo que anuncian mitigaciones para “hacerlos más neutrales”.

En particular, en febrero de 2024, mientras demócratas y republicanos escogían candidatos en elecciones primarias, Gemini generó imágenes históricamente inexactas, como nazis racialmente diversos o fundadores estadunidenses no blancos.

Aunque la IA generativa ya tenía antecedentes de amplificar los estereotipos raciales y de género, eso fue ignorado y desde sectores conservadores, como Donald Trump, denunciaron censura, evidencia de “wokismo” y “corrección política” para perjuicio de la población blanca. Google se disculpó por “fallar el objetivo”, pausó la generación de imágenes de personas, y restringió las respuestas sobre el proceso electoral y figuras políticas. Todo ello, por “cautela”.

Así como organismos estadunidenses evalúan los chatbots chinos, investigadores de la Universidad de Beijing evaluaron varias versiones de ChatGPT y concluyeron que “está experimentando un cambio hacia la derecha en los valores políticos”.

Para explicarlo, plantearon tres hipótesis: un cambio en los conjuntos de datos utilizados para entrenar sus modelos, el número de interacciones con los usuarios o cambios y actualizaciones del chatbot.

Si esta deriva no se controla, advirtieron, “los chatbots de IA podrían comenzar a dar “información distorsionada”, lo que podría polarizar aún más a la sociedad o crear “cámaras de eco” que refuercen las creencias particulares de un usuario”.

Descubrieron el fuego.

MD

  • Témoris Grecko
  • Periodista, documentalista y analista político que ha cubierto conflictos sociales y armados en 95 países y territorios, publicado siete libros y escrito cinco documentales.

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.