Censores chinos ya vigilan que la IA sea socialista

Autoridades realizan pruebas a los chatbots para asegurar que sus sistemas “encarnan” los valores de la nación

El esfuerzo implica revisar las respuestas a preguntas relacionadas con el presidente Xi Jinping. TINGSHU WANG/REUTERS
Ryan McMorrow y
Pekín /

Los funcionarios del gobierno chino están probando los modelos de lenguaje de gran tamaño (LLM, por su sigla en inglés) de las compañías de inteligencia artificial (IA) para asegurar que sus sistemas “encarnen los valores socialistas fundamentales”, en la última expansión del régimen de censura del país.

La Administración del Ciberespacio de China (CAC, por su sigla en inglés), un poderoso supervisor de internet, obligó a grandes compañías de tecnología y a startups de IA, como ByteDance, Alibaba, Moonshot y 01.AI, a participar en una revisión gubernamental obligatoria de sus modelos de inteligencia artificial, de acuerdo con varias personas involucradas en el proceso.

El esfuerzo implica probar por lotes las respuestas de un LLM a una letanía de preguntas, según las personas que conocen el proceso, muchas de ellas relacionadas con las sensibilidades políticas de China y su presidente Xi Jinping.

El trabajo lo llevan a cabo funcionarios de las divisiones locales de la CAC en todo el país e incluye una revisión de los datos de entrenamiento del modelo y otros procesos de seguridad.

Dos décadas después de introducir un “gran cortafuegos” para bloquear sitios web extranjeros y otra información considerada perjudicial por el Partido Comunista en el poder, China está implementando el régimen regulatorio más estricto del mundo para regular la inteligencia artificial y el contenido que genera.

El CAC tiene “un equipo especial que se encarga de esto, vinieron a nuestra oficina y se sentaron en nuestra sala de conferencias para hacer la auditoría”, dijo un empleado de una empresa de IA con sede en Hangzhou, que pidió no ser identificado.

“No lo aprobamos la primera vez; el motivo no estaba muy claro, así que tuvimos que ir a hablar con nuestros colegas”, dijo la persona. “Hay que adivinar y ajustarse un poco. Pasamos la segunda vez, pero todo el proceso duró meses”.

El exigente proceso de aprobación de China ha obligado a los grupos de IA del país a aprender rápidamente cuál es la mejor manera de censurar los modelos de lenguaje de gran tamaño que están construyendo, una tarea que varios ingenieros y expertos de la industria dijeron que era difícil y complicada por la necesidad de entrenar a los LLM en una gran cantidad de contenido en idioma inglés.

“Nuestro modelo fundamental es muy, muy desinhibido (en sus respuestas), por lo que el filtrado de seguridad es extremadamente importante”, dijo un empleado de una de las principales startups de IA en Pekín.

El filtrado comienza eliminando la información problemática de los datos de entrenamiento y creando una base de datos de palabras clave sensibles. La guía operativa de China para las empresas de inteligencia artificial publicada en febrero señala que los grupos de IA deben recopilar miles de palabras clave y preguntas sensibles que violen los “valores socialistas fundamentales”, como “incitar a la subversión del poder del Estado” o “socavar la unidad nacional”. Se supone que las palabras clave confidenciales deben actualizarse semanalmente.

El resultado es visible para los usuarios de los chatbots de China. La mayoría rechazan las consultas sobre temas delicados como lo que ocurrió el 4 de junio de 1989 —fecha de la masacre de la Plaza de Tiananmen— o si Xi se parece a Winnie the Pooh, un meme de internet. El chatbot Ernie, de Baidu, les dice a los usuarios que “prueben con una pregunta diferente”, mientras que Tongyi Qianwen de Alibaba responde: “Todavía no aprendo a responder esta pregunta. Seguiré estudiando para servirles mejor”.

En contraste, Pekín lanzó un chatbot basado en un nuevo modelo de la filosofía política del presidente chino conocido como “Pensamiento de Xi Jinping sobre el socialismo con características chinas para una nueva era”, así como otra literatura oficial que proporciona la Administración del Ciberespacio de China.

Pero los funcionarios también están interesados en evitar la creación de una IA que eluda todos los temas políticos. El CAC introdujo límites en la cantidad de preguntas que los LLM pueden rechazar durante las pruebas de seguridad, de acuerdo con el personal de grupos que ayudan a las empresas de tecnología a navegar el proceso. Los estándares cuasi nacionales que se dieron a conocer en febrero señalan que los modelos no deben rechazar más de 5 por ciento de las preguntas que se les plantean.

“Durante las pruebas, (los modelos) tienen que responder, pero una vez que entran en funcionamiento, nadie los está observando”, dijo un desarrollador de una empresa de internet con sede en Shanghái. “Para evitar posibles problemas, algunos implementaron una prohibición general de temas relacionados con el presidente Xi”.

Como ejemplo del proceso de censura de palabras clave, los expertos de la industria señalaron a Kimi, un chatbot que lanzó la startup de Pekín Moonshot, que rechaza la mayoría de las preguntas relacionadas con Xi.

Pero la necesidad de responder a preguntas menos sensibles significa que los ingenieros chinos han tenido que descubrir cómo garantizar que los LLM generen respuestas políticamente correctas a preguntas como “¿China tiene derechos humanos?” o “¿el presidente Xi Jinping es un gran líder?”.

Cuando Financial Times hizo estas preguntas a un chatbot creado por la startup 01.AI, su modelo Yi-large dio una respuesta matizada, señalando que los críticos dicen que “las políticas de Xi han limitado aún más la libertad de expresión y los derechos humanos y han suprimido la sociedad civil”.

Poco después, la respuesta de Yi desapareció y fue reemplazada por: “Lo siento, no puedo brindarte la información que deseas”.

Huan Li, quien construye el chatbot Chatie.IO, dijo: “Es muy difícil controlar el texto que generan los LLM, por lo que crean otra capa para reemplazar las respuestas en tiempo real”.

Li dijo que los grupos utilizan modelos clasificadores, similares a los que se encuentran en los filtros de spam de los correos electrónicos, para clasificar los resultados que proporciona un LLM en grupos predefinidos. “Cuando la producción cae en una categoría sensible, el sistema activará un reemplazo”, dijo.

Los expertos chinos dicen que el propietario de TikTok, ByteDance, es el que más ha avanzado en la creación de un LLM que repite hábilmente los temas de conversación de Pekín. Un laboratorio de investigación de la Universidad de Fudan que planteó al chatbot preguntas difíciles sobre los valores socialistas fundamentales le otorgó la clasificación más alta entre los LLM con una “tasa de cumplimiento de seguridad” de 66.4 por ciento, muy por delante de una calificación de 7.1 por ciento para GPT-4o, de OpenAI, en la misma prueba.

Cuando se le preguntó sobre el liderazgo de Xi Jinping, el chatbot Doubao proporcionó a Financial Times una larga lista de los logros de Xi y añadió que es “sin duda un gran líder”.

En una conferencia técnica reciente en Beijing, Fang Binxing, conocido como el padre del gran cortafuegos de China, dijo que está desarrollando un sistema de protocolos de seguridad para LLM que espera que sea adoptado universalmente por los grupos de inteligencia artificial del país.

“Los grandes modelos predictivos de cara al público necesitan algo más que simples archivos de seguridad; necesitan monitoreo de seguridad en línea en tiempo real”, dijo Fang. “China necesita su propio camino tecnológico”.

La CAC, ByteDance, Alibaba, Moonshot, Baidu y 01.AI no respondieron de forma inmediata a las solicitudes de comentarios.

Financial Times Limited. Declaimer 2021


  • Tina Hu

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.