Generan con IA bombardeos de desinformación

Las estafas con tecnología no solo son un arma de propaganda bélica, también de fraude financiero y de mercado

Personal de emergencia trabaja en un edificio residencial atacado en Teherán. REUTERS
Rana Foroohar
Nueva York /

Desde que Estados Unidos e Israel comenzaron los bombardeos, circulan innumerables imágenes horribles procedentes de Irán y el resto del Golfo. ¿Cuáles son reales? ¿Las nubes de humo negro tóxico que se ciernen sobre el horizonte de Teherán? Sí, son reales. ¿Soldados estadunidenses retenidos a punta de pistola por miembros de la Guardia Revolucionaria Iraní? No, son falsas. A menos que se preste mucha atención, se consulten fuentes de noticias extremadamente confiables e incluso se hagan comparaciones de la información, es difícil distinguirlas, ahora que las imágenes de la guerra generadas por inteligencia artificial (IA) están por todas partes.

Por supuesto, las estafas con IA no solo son una herramienta de propaganda bélica, sino también de fraude financiero y de mercado. Los estafadores utilizan cada vez más imágenes de personas o lugares conocidos para atraer a víctimas desprevenidas a una red de desinformación y manipulación en línea más profunda y extensa que nunca, dada la naturaleza de la tecnología. En un nuevo informe de políticas sobre el tema, publicado la semana pasada por investigadores de la Universidad de Columbia, se encontró que la IA se está convirtiendo con rapidez en el método preferido para las estafas financieras en particular. En 2023 se perdieron cerca de 12 mil 300 millones de dólares en estafas con IA, cifra que se espera que aumente a 40 mil millones en 2025, ya que los estafadores utilizan la inteligencia artificial para generar imágenes de celebridades promocionando productos, gerentes de banco, jefes u otras personas de confianza solicitando información, o incluso familiares y amigos pidiendo dinero.

¿Quién es el responsable de todo esto? ¿Los gobiernos tienen alguna posibilidad de regular las estafas y la desinformación impulsadas por la IA? Me siento escéptica. Me resultó casi gracioso el decreto ejecutivo emitido la semana pasada por Donald Trump en el que ordenaba a su administración revisar cómo “prevenir, interrumpir, investigar y desmantelar” de mejor manera las estafas cibernéticas, dado que justo la semana pasada una empresa vinculada a la familia del presidente fue investigada por un comité del Congreso que indagaba sobre la manipulación del mercado de acciones chinas. Para ver otros ejemplos de cómo el republicano está comprometiendo los mercados financieros, les recomiendo leer el excelente discurso que la senadora Elizabeth Warren pronunció la semana pasada ante el Consejo de Inversionistas Institucionales.

Pero incluso cuando los reguladores nacionales se toman en serio el fraude, ya sea impulsado por IA o no, ¿qué tan factible es hacer algo cuando ese tipo de estafas son por naturaleza globales y la regulación es local? Reino Unido y la Unión Europea cuentan con la Ley de Seguridad en Línea y la Ley de Servicios Digitales, respectivamente, las cuales imponen multas y sanciones a las plataformas que no se esfuerzan por controlar y eliminar la desinformación. Numerosos reguladores financieros nacionales exigen a los bancos, por ejemplo, que estén atentos a las estafas con deepfakes y que compensen a las víctimas por las pérdidas. Tanto la Unión Europea como China tienen regulaciones para la IA, pero todo esto parece una gota en el océano, sobre todo al tener en cuenta que las lagunas regulatorias transfronterizas hacen casi imposible mantenerse al día con la desinformación generada por la IA.

Hoy, para el artículo de Swamp Notes, me acompaña una de las autoras del informe sobre las estafas con deepfakes de IA, Anya Schiffrin. Es codirectora de la Concentración en Política Tecnológica e Innovación de la Escuela de Asuntos Internacionales y Públicos de Columbia. Anya, tengo tres preguntas para ti. La primera, señalaste que existen precedentes legales que implican que las principales plataformas asuman una mayor responsabilidad por las deepfakes generadas por inteligencia artificial. ¿Cómo puede implementarse esto? La segunda, incluso si una jurisdicción (la Unión Europea, por ejemplo, o Estados Unidos por sí solo) decidiera adoptar normas más estrictas sobre el uso que se le da a la IA, ¿tendrá alguna importancia en un mundo donde las deepfakes generadas por las herramientas tecnológicas pueden crearse y consumirse en cualquier lugar? Por último, ¿qué consejo les darías a los consumidores de medios sobre cómo detectarlas, ya sea político, financiero o de cualquier otro tipo?

Lecturas recomendadas

-John Judis publica en Democracy una reseña muy inteligente del libro de Mark Mazower, On Antisemitism: A Word in History (Sobre el antisemitismo: Una palabra en la historia). Señala de manera acertada que, si bien la administración Trump apoya a Israel, ignora (¿o tal vez no le importa?) el antisemitismo real en su propio país.

-Hay una nota exclusiva de The New York Times sobre cómo se utilizan las calificaciones crediticias para ofrecer precios de seguros muy diferentes a personas con el mismo tipo de vivienda... es simplemente impactante. La frase clave: “Para la mayoría de la gente, ahora es tan caro tener una calificación crediticia ‘regular’ como vivir en una zona propensa a desastres como huracanes o incendios forestales”. De hecho, 29 por ciento de la población tiene una calificación crediticia de “regular” a “mala”. ¡Increíble! Si tuviéramos otra administración, esto probablemente ya sería objeto de una investigación urgente sobre la protección al consumidor.

-Y en Financial Times, no se pierdan el artículo de mi colega Henry Mance (y el trago con) Nigel Farage.

Anya Schiffrin responde

Hola, Rana. Para nuestro informe de políticas buscamos soluciones en todo el mundo para abordar el problema de las deepfakes con IA y las estafas en línea. Existe un proceso continuo de producción y distribución: se crean deepfakes y se diseñan estafas. Luego se atrae a las víctimas, se las convence para que entreguen su dinero, a veces convirtiéndolo en criptomonedas, y los cabecillas deben lavar sus ganancias ilícitas, tal vez por medio de bienes raíces o casinos. En cada etapa, los reguladores han tratado de abordar el problema. Por ejemplo, Malasia y México limitan la cantidad de tarjetas SIM que se pueden comprar. Financial Times ha informado ampliamente sobre la investigación y las sanciones impuestas por Reino Unido y Estados Unidos a Prince Group en Singapur, acusado de ser una organización criminal transnacional que operaba estafas fraudulentas con criptomonedas en Camboya.

Un punto clave de intervención puede ser la publicidad de las estafas que atrae a las víctimas. Resulta que, en este aspecto, como en muchos otros, Meta puede hacer mucho más para abordar el problema. Facebook estima que muestra 15 mil millones de anuncios falsos cada día, y en 2024 Meta estimó que 10 por ciento de sus ingresos anuales provendrían de ese tipo de anuncios.

En derecho de daños existe el “principio de Calabresi”, que se refiere a “quien evita el costo más barato”. En cualquier situación, ¿quién está en mejor posición para evitar que ocurra un problema? Nos resulta evidente que Meta está en una excelente posición para hacer mucho más de lo que hace para detener la distribución de estos anuncios. La verificación universal de anunciantes es una opción, pero Meta se muestra renuente a pagar por ella.

También hemos visto otras buenas ideas: el intercambio de datos entre instituciones financieras en Taiwán y un amplio debate sobre responsabilizar a Facebook por las pérdidas, así como exigir la verificación de anunciantes y un aviso de 24 horas para la eliminación de anuncios por parte de las plataformas. Singapur estableció Cosmic, que exige a los principales bancos compartir información de riesgo sobre clientes sospechosos, transacciones y posibles redes de lavado de dinero. El incumplimiento de la obligación de compartir la información requerida se considera una violación de la regulación que conlleva sanciones civiles. Dinamarca modificó su ley de derechos de autor para otorgar a las personas el derecho sobre sus propios cuerpos, rasgos faciales y voces como protección legal contra las deepfakes. De igual manera, Irlanda introdujo una Ley de Protección de la Voz y la Imagen, que tipifica como delito la publicación, distribución o divulgación de cualquier uso manipulado o no autorizado de la identidad de una persona para diversos fines, incluida la publicidad, sin su consentimiento.

Sin embargo, es evidente que el problema del fraude en línea requiere cooperación transfronteriza. De hecho, la Oficina de las Naciones Unidas contra la Droga y el Delito celebra esta semana su cumbre anual sobre fraude en Viena.

Por último, no es realista esperar que las personas detecten las deepfakes generadas por IA. Al fin y al cabo, están diseñados para engañar. Y, como siempre digo, no esperamos que la gente examine cada aspirina en la farmacia para determinar si es segura. Este es un problema que deben abordar a gran escala las empresas y los gobiernos.

Sin embargo, hay medidas que las personas pueden tomar. Los estafadores suelen crear una falsa sensación de urgencia. Muchas personas inteligentes y con estudios (incluso expertos en IA) nos cuentan cómo la llamada que las engañó llegó justo cuando tenían prisa por subirse a un avión o se estaban poniendo el abrigo para salir de la oficina. O los estafadores generan pánico bloqueando la computadora y haciéndose pasar por Microsoft.

En el mundo actual, con su pésimo servicio al cliente, es bastante seguro asumir que no, que tu banco no te está llamando. Tampoco Microsoft. Y, por supuesto, nunca hagas clic en un enlace que recibas por correo electrónico. Es mejor pecar de cauteloso.

Las deepfakes generadas con IA están exacerbando la división y la polarización, y creando confusión. Lo vimos durante la guerra de Gaza y de nuevo ocurre con el conflicto en Irán. Espero que el mundo entero pueda tomarse un respiro, pero los problemas causados por la desinformación en las redes sociales me volvieron bastante pesimista.


LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.

Suscríbete al
periodismo con carácter y continua leyendo sin límite