La inteligencia artificial puede cambiar significativamente la opinión de un votante sobre un candidato presidencial o sobre una propuesta política, alertan dos equipos en diferentes investigaciones publicadas recientemente.
El primer estudio, disponible en Nature desde el 4 de diciembre, evaluó si las IAs generativas —es decir aquellas que crean contenido nuevo a partir de los patrones aprendidos de grandes cantidades de datos como ChatGPT o Gemini— podían influir en la percepción política de la gente.
Para ello realizaron experimentos controlados enfocados en elecciones presentes y futuras incluyendo las presidenciales de Estados Unidos (2024) y Polonia (2025), así como las federales en Canadá (2025). A la par, se analizó una medida electoral en sobre la legalización de los psicodélicos en Massachussets, Estados Unidos.
Se les pidió a los participantes tener una conversación con una IA que fue programada para defender o promover a uno de los candidatos o una posición específica respecto a la propuesta a la legalización.
Después de analizar los resultados, los autores del estudio registraron un efecto significativo de persuasión en la preferencia de candidatos y posturas.
En el segundo estudio —publicado en Science el mismo día— se realizaron tres experimentos a gran escala con la participación de más de 76 mil personas de Reino Unido que utilizaron 19 modelos de lenguajes, es decir los sistemas utilizados por la IA entrenados para comprender, generar y procesar el lenguaje humano.
El propósito fue identificar los mecanismos específicos o “palancas” que convierten a la IA en una eficaz arma de persuasión capaz de modificar las creencias políticas.
“Muchos temen que estemos al borde de una manipulación sin precedentes por parte de los grandes modelos lingüísticos (LLM) pero las técnicas que impulsan su capacidad de persuasión son poco conocidas”, reflexionan los autores del artículo The levers of political persuasion with conversational artificial intelligence.
Las “palancas” descritas por los autores, entre los que se encuentran miembros del Instituto de Seguridad de la IA del Reino Unido, incluyen:
- Métodos de post-entrenamiento: técnicas aplicadas después del entrenamiento base diseñadas especialmente para mejorar la persuasión
- Personalización: adaptación de los argumentos a los datos e información de cada persona
- Estrategias retóricas: instrucciones específicas para generar argumentos más convincentes
Tras analizar los mecanismos se descubrió que más allá de la personalización de argumentos, las palancas más poderosas fueron los métodos de post entrenamiento y las estrategias retóricas. La primera aumentó la persuasión hasta en un 51% mientras que la segunda alcanzó hasta un 27%.
Estas mismas "palancas" no solo potenciaron a la IA como una posible herramienta de manipulación sino que además causaron sistemáticamente la producción de información menos precisa.
“Cuando los sistemas de IA se optimizan para la persuasión, pueden desplegar cada vez más información engañosa o falsa”, concluyeron.
Entre los modelos más eficaces retomados para la muestra se encontraban Chat GPT 4 y Chat GPT 4.5. Los resultados más destacados revelaron que conversar con la IA tuvo un efecto significativamente mayor que la exposición a un mensaje estático, además, algunos cambios de actitud tuvieron un efecto duradero.
Tomando en cuenta teorías establecidas de la psicología y la ciencia políticas, los autores también plantearon la idea de que la gran cantidad de información proporcionada a los usuarios es el motor de persuasión más poderoso de la inteligencia artificial, lo que podría implicar desafíos futuros.
“En conjunto, nuestros hallazgos sugieren que la persuasión de la IA conversacional probablemente podría seguir aumentando en el futuro cercano”, reza el artículo.
A pesar del panorama, los científicos aseguran que “varias restricciones importantes pueden limitar la magnitud y el efecto práctico de este aumento”, lo que será clave para el uso ético de estas tecnologías.
De Corinthian College a Cambridge Analytics
El desarrollo tecnológico suele ir de la mano de intereses económicos y/o políticos. Cathy O’ Niel, matemática y escritora, lo llegó a contar en su libro: Armas de destrucción matemática (2016).
Uno de los casos que expuso fue precisamente el de Corinthian Colleges, una universidad de paga estadounidense denunciada por el fiscal general de California debido al uso indebido de datos. Según el reporte, la institución forjaba sus ingresos aprovechándose de “personas ‘aisladas’ e ‘impacientes’, con ‘poca autoestima’, con ‘pocos amigos o familiares que se preocupen por ellas’, ‘atrapadas’ en situaciones difíciles e ‘incapaces de considerar y planificar bien su futuro”.
De acuerdo con Cathy, así como Corinthian Colleges, gran parte del dinero de estas universidades se destinaba a publicidad en Google y Facebook, plataformas que les permitían segmentar a sus poblaciones objetivo con “minucioso detalle”.
Solo algunos años después se dio a conocer el caso de Cambridge Analytica, el escándalo político que expuso cómo se utilizó la minería de datos masiva para crear campañas de comunicación dirigidas de forma precisa lo que, según los resultados parece haber influido en las elecciones presidenciales de Estados Unidos en 2016.
LHM