Meta exigirá que se revele cuando se crean o alteran de manera digital anuncios políticos para publicarlos en sus plataformas, en medio de la preocupación de que la inteligencia artificial (IA) facilite una avalancha de deepfakes y desinformación de cara a las elecciones presidenciales estadunidenses de 2024.
La plataforma de redes sociales indicó que los anunciantes deberán revelar cuándo crean o modifican digitalmente propaganda política en la que aparecen personas reales diciendo o haciendo algo que no han hecho, así como cuándo los acontecimientos o las personas son inventados. Del mismo modo, deben revelarse las imágenes alteradas de acontecimientos reales, así como el audio o el video generados de forma digital para representar un acontecimiento que supuestamente ocurrió.
La política global, que entrará en vigor el próximo año, también se aplica a temas sociales.
La política llega después de que Meta, propietaria de Instagram, Facebook y WhatsApp, estrenó el mes pasado herramientas de inteligencia artificial generativa que permiten generar automáticamente nuevos fondos, variaciones de texto y ajustar el tamaño de sus anuncios para adaptarlos a múltiples formatos. Meta le prohibió a los anunciantes políticos el uso de estas herramientas, una medida sobre la cual Reuters fue el primero en informar.
Las plataformas de redes sociales realizaron inversiones en inteligencia artificial generativa en un intento por capitalizar el revuelo en torno al ChatGPT de OpenAI, un chatbot orientado al consumidor que se lanzó el año pasado.
Pero hay cada vez más temor de que la tecnología pueda usarse para difundir información errónea y desinformación relacionada con las elecciones, sobre todo antes de los comicios estadunidenses del próximo año. La semana pasada, el presidente Joe Biden emitió una orden ejecutiva sobre IA con la que se le da instrucciones al departamento de comercio para que elabore directrices sobre el etiquetado de contenido generado por esta herramienta en un intento por abordar el “fraude y el engaño”, incluidos los deepfakes.
En septiembre, Google fue la primera gran plataforma de publicidad digital en exigir a los anunciantes que “revelen de manera visible cuando sus anuncios contienen contenido sintético que representa de manera no auténtica personas o eventos reales o de apariencia realista”.
A principios de octubre, la senadora estadunidense Amy Klobuchar e Yvette Clarke, miembro de la Cámara de Representantes por Nueva York, escribieron una carta al director ejecutivo de Meta, Mark Zuckerberg, exigiendo información sobre los “esfuerzos de la compañía para abordar estas amenazas para nuestras elecciones libres y justas”. Linda Yaccarino, directora ejecutiva de X, también recibió la carta y se reunió con legisladores para discutir el tema, de acuerdo con una persona familiarizada con el asunto. Sin embargo, la firma no ha realizado ningún cambio en sus políticas.
Si los anunciantes infringen repetidamente las reglas de divulgación de Meta, pueden enfrentar sanciones; sin embargo, los requisitos no se aplican si el contenido se genera o modifica de manera intrascendente o irrelevante para las afirmaciones que se hacen en el anuncio.