Los Principios de Chapultepec y el reto de pensar la IA desde lo situado

Ciudad de México /

Recientemente se declararon los Principios de Chapultepec para una Declaración ética y de buenas prácticas en el uso y desarrollo de la inteligencia artificial, impulsada por la Secretaría de Ciencia, Humanidades, Tecnología e Innovación, así como por la Agencia de Transformación Digital y Telecomunicaciones. Se trata de un esfuerzo que se valora, en tanto resulta necesario contar con una visión interdisciplinaria que considere los distintos significantes que se mueven alrededor de la tecnología.

Concuerdo en que la tecnología tiene efectos en nuestra vida, como sostiene la propia Declaración, así como en nuestras actividades. Hoy resulta necesario que estos principios pasen por cada institución y organización involucrada en el uso de la inteligencia artificial; es decir, es necesario, a mi modo de ver, que se realicen diagnósticos particulares, con metodologías serias, de tal modo que concibamos formas situadas de entendimiento de las inteligencias artificiales.

La inteligencia artificial no es neutra. Por ello, se requiere una política pública fuerte que haga frente al emporio de las grandes empresas tecnológicas. Ahí las universidades también pueden sumar. Podemos hacerlo desde opciones alternas a las IA hegemónicas, como seguir poniendo en el centro del debate la necesidad de código abierto y código libre, pero para ello necesitamos trazar un camino hacia alfabetizaciones digitales críticas. En los principios se declara que la tecnología debe usarse de manera “bien orientada”, pero cabe preguntarse a qué nos referimos con esa orientación. Construir marcos particulares resulta fundamental.

Desde nuestra experiencia, proponemos escuchar a distintos actores, como los movimientos sociales. Por ejemplo, a las madres buscadoras con sus fichas de búsqueda vivas (creadas con IA), por ejemplo en el colectivo Luz de Esperanza. Esto implica pensar marcos de gobernanza algorítmica donde las universidades cuenten con apoyo para el desarrollo de política educativa, talleres de alfabetización, atención a grupos vulnerables y escucha activa de comunidades, incluidas aquellas vinculadas a lenguas minoritarias. De lo contrario, como advierte el propio documento, se pueden producir y reforzar desigualdades, algo que, como ha señalado Alma Rosa Alva de la Selva, ya está ocurriendo, no solo a nivel de brechas, sino también a través de exclusiones digitales, un concepto reciente que bien cabría seguir analizando.

El documento también hace un llamado a gobernar de manera responsable y propone guías éticas. En este punto, es importante señalar que ya existen varias guías publicadas: desde la Complutense de Madrid, UNESCO, la Pontificia Universidad Católica de Chile, la propia Universidad Nacional Autónoma de México, e incluso algunas propuestas desarrolladas desde nuestro laboratorio en el CEIICH, UNAM. Sin embargo, hace falta situarlas y experienciarlas, porque de otro modo corren el riesgo de quedarse como letra muerta.

En relación con los principios, en efecto se plantea la ampliación de derechos, pero para que ello sea posible se requieren equipos interdisciplinarios, auditorías algorítmicas que eviten la reproducción de prejuicios sociales, así como talleres y foros que permitan a la ciudadanía verificar información de manera constante. ¿Cómo reconocer desigualdades históricas sin programas educativos que nos formen para ello? En este sentido, el aula vuelve a ser un punto fundamental.

Existen ejemplos recientes que muestran estas limitaciones. Incluso figuras públicas han caído en trampas de desinformación derivadas de usos deliberados para engañar, sin lograr verificar la información. De ahí la necesidad de observatorios y laboratorios confiables, así como de inversión pública en este ámbito, sin que ello opaque las situaciones más complejas y urgentes que atraviesa el país.

Como también señala la Declaración, la inteligencia artificial no puede operar sin responsables humanos. Coincidimos con ello, pero aclaramos que no solo en la intervención humana. También se requieren habilidades como la curaduría digital y la comunicabilidad de la información. No se trata únicamente de supervisión en abstracto, sino de reforzar un poder político que dialogue con la sociedad para frenar decisiones automatizadas. El tercer principio plantea que el uso ético implica aceptar cuando una decisión no puede explicarse; sin embargo, el contexto es más complejo, pues hoy varios autores hablan de escrituras híbridas donde resulta difícil distinguir la intervención humana de la maquínica. Por ello, los procesos de curaduría, verificación y situación ética, así como las cadenas de trazabilidad, se vuelven fundamentales.

Coincidimos también con la apuesta por prácticas abiertas y responsables, así como con la idea de decidir en colectivo. Desde lo interdisciplinario, las ciencias sociales y las humanidades tienen mucho que aportar. No obstante, para que esto no quede en buenas intenciones, se requieren metodologías sociales que dialoguen con metodologías activas y participativas. Basta observar, por ejemplo, el trabajo de las escuelas normales y los proyectos que ahí se desarrollan.

En el quinto principio se habla del bienestar para las personas. La pregunta es cómo asegurarlo. La investigación vuelve a ser central, tanto para el diagnóstico como para la evaluación. Antes incluso, es necesario conocer con detalle cómo ya se está utilizando esta herramienta. En el sexto principio se plantea la importancia de comprender a quién y a qué afecta. Como bien señala Crawford, la inteligencia artificial no es inteligente ni es artificial: implica trabajadores, centros de datos, ciclos invisibles de explotación, capitalismo cognitivo y techno-feudalismo. Hay distintas formas de explicarlo, pero también de transmitirlo. En este punto, la divulgación científica y el papel de las universidades resultan fundamentales. Es necesario bajar la discusión al centro de la sociedad.

Responder a las necesidades del país, como plantea el séptimo principio, implica escuchar a comunidades marginadas y vulnerables. En el octavo, fortalecer la educación y el conocimiento se vuelve fundamental. Tal vez sea momento de volver a pensar la relación entre sociedad, información y conocimiento, una idea que en su momento sonó utópica pero hoy es menester repensarla. La educación y la investigación son centrales, así como impulsar programas de tesis. Las y los jóvenes son actores clave en este proceso, al igual que las infancias, desde enfoques abiertos e intergeneracionales.

Como se señala en el noveno principio, la inteligencia artificial no puede ser ajena a la diversidad cultural y lingüística. Experiencias recientes, como las impulsadas por la doctora Ximena Gutiérres en actividades digitales, muestran la importancia de seguir abriendo diálogos. No se puede hablar de lenguas originarias de manera homogénea: es necesario convocar diálogos heterogéneos e incluso respetar a quienes decidan quedar fuera de estos procesos por temor al extractivismo. Diversificar voces es clave para no reproducir los mismos riesgos que se buscan cuestionar.

Finalmente, coincidimos con la idea de los datos como bien público, como sostiene el décimo principio. La ética implica seguridad de la información, pero surge una pregunta inevitable: ¿cómo lograrlo en un contexto de capitalismo cognitivo, donde los datos nos atraviesan y donde las agendas de las grandes tecnológicas marcan el ritmo? No es sencillo escapar de ello. Mientras tanto, proponemos apropiaciones disruptivas, pero resulta urgente ir al fondo de este asunto.


  • Luis Josué Lugo
  • Laboratorio de IA, Sociedad e Interdisciplina (CEIICH, UNAM).
Más opiniones
MÁS DEL AUTOR

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.

Suscríbete al
periodismo con carácter y continua leyendo sin límite