Un equipo científico de 'Google DeepMind' ha desarrollado una herramienta capaz de añadir marcas de agua a textos generados por grandes modelos lingüísticos, mejorando así su capacidad para identificar y rastrear contenidos creados artificialmente.
Los grandes modelos lingüísticos (LLM, en sus siglas en inglés) son un tipo de inteligencia artificial (IA) muy utilizados que pueden generar texto para chatbots, ayuda a la escritura y otros fines. Sin embargo, puede resultar difícil identificar y atribuir el contenido producido por esta IA a una fuente concreta, lo que pone en entredicho la fiabilidad de la información.
- Te recomendamos Miles de artistas firman manifiesto para advertir del uso de sus obras para entrenar a IA: "Es una amenaza importante" Famosos
En imágenes, vídeos o audios es relativamente sencillo insertar marcas de agua, pero en los textos esto supone un reto: cualquier alteración en las palabras puede afectar el significado y la calidad del contenido.
Se han propuesto marcas de agua como solución, pero no se han implantado a gran escala.
SynthID-Text, un algortimo de muestreo
Ahora, en un artículo publicado en la revista Nature, los investigadores Sumanth Dathathri y Pushmeet Kohli, de 'Google DeepMind', describen una estrategia que utiliza un novedoso algoritmo de muestreo para aplicar marcas de agua al texto generado por IA, conocida como SynthID-Text.
La herramienta utiliza este algoritmo "para sesgar sutilmente la elección de palabras del LLM, insertando una firma que pueda ser reconocida por el software de detección asociado", explican los investigadores.
La detectabilidad de estas marcas de agua se evaluó con varios modelos disponibles públicamente y SynthID-Text mostró una eficacia mejorada en comparación con los enfoques existentes, asegura un resumen de la revista.
Según los científicos, el uso de SynthID-Text tiene además un impacto insignificante en la potencia de cálculo necesaria para ejecutar el LLM, lo que reduce la barrera para su implementación.
Los modelos de lenguaje de gran tamaño han permitido la generación de texto sintético de alta calidad, a menudo indistinguible del contenido escrito por humanos, a una escala que puede afectar notablemente la naturaleza del ecosistema de información, escriben los autores en su artículo.
La marca de agua puede ayudar a identificar texto sintético y limitar el uso indebido accidental o deliberado, añade el equipo de Google DeepMind. "Aquí describimos SynthID-Text, una estrategia de marca de agua que preserva la calidad del texto y permite una alta precisión de detección", dicen.
Una solución técnicamente robusta
Para Pablo Haya, del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid, el artículo presenta "una solución técnicamente robusta" para la identificación de texto generado por IA a través de marcas de agua.
Aquí la marca de agua consiste en alterar el algoritmo de generación de palabras de manera que sigan un patrón estadístico rastreable sin modificar el significado, detalla Haya en un comentario a Science Media Centre España, una plataforma de recursos científicos para periodistas.
Actualmente, los sistemas para detectar si un documento ha sido generado por IA tienen bajos índices de acierto, por lo que tecnologías que faciliten la identificación de la autoría son muy necesarias, opina Haya, que no participa en el estudio.
"Además, estas técnicas están alineadas con las obligaciones de transparencia del reglamento IA que exige a los proveedores, en determinados niveles de riesgo, garantizar que el contenido generado por la IA sea identificable".
Sin embargo, añade, su adopción generalizada sigue siendo un desafío, principalmente porque este tipo de marcas de agua es vulnerable a manipulaciones posteriores, como modificaciones en el texto o el uso de técnicas de parafraseo, lo que reduce la efectividad de la marca para ser detectada.
RCV