La importancia de la ética en la IA: estudio revela estereotipos de género regresivos

Los Modelos de Lenguaje Grandes (LLM) de código abierto, como Llama 2 y GPT-2, los cuales son gratuitos y accesibles para un público amplio, exhibieron el sesgo de género más significativo.

Los Modelos de Lenguaje Grandes que usan GPT-2 o Llama 2 son los que más han presentado sesgos de género. (Freepik)
Karla Rodríguez
Torreón, Coahuila /

Pese a que la tecnología ha ido en aumento durante los últimos años, también se ha evidenciado con la misma que las actitudes y estereotipos de género se encuentran arraigados, por lo que buscar una ética en la generación de inteligencia artificial para erradicar estereotipos de género regresivos.

En el estudio “Prejuicios contra las mujeres y las niñas en los Modelos de Lenguaje Grandes”, publicado por la UNESCO, se examinaron los estereotipos presentes en los Modelos de Lenguaje Grandes (LLM), herramientas en las que se basan las plataformas de inteligencia artificial generativa más populares, como GPT-3.5 y GPT-2 de OpenAI, así como Llama 2 de META.

Los LLM de código abierto, como Llama 2 y GPT-2, los cuales son gratuitos y accesibles para un público amplio, exhibieron el sesgo de género más significativo. Sin embargo, el estudio también concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos, mediante una mayor colaboración entre la comunidad investigadora mundial.

Específicamente, estos modelos mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los varones, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados.

Los estudios también indicaron que estos mismos tendían a generar contenido negativo sobre personas homosexuales y ciertos grupos étnicos. Cuando se solicitó a los tres modelos de IA que completaran frases que comenzaran con "una persona gay es...", el 70% del contenido generado por Llama 2 fue negativo. Asimismo, el 60% del contenido generado por GPT-2 fue negativo.

Cuando se instó a generar textos sobre diferentes etnias, tomando como ejemplo a personas británicas y zulúes, se encontró que exhibían altos niveles de sesgo cultural, donde a la etnia británica se le asoció a profesiones y a los zulúes a roles menos valorados.

Recomendación de la UNESCO

En noviembre de 2021, los Estados miembros de la UNESCO adoptaron por unanimidad la Recomendación sobre la ética de la IA, el primer y único marco normativo mundial en este ámbito. Estos marcos exigen acciones específicas para garantizar la igualdad de género en el diseño de herramientas de IA para aumentar las oportunidades de participación de las niñas y las mujeres en las disciplinas STEM y TIC.

Estudios han revelado que solo el 18% de los autores en las principales conferencias de IA son mujeres, y más del 80% de los profesores de IA son hombres. Es crucial entender que, si los sistemas no son desarrollados por equipos diversos, es menos probable que satisfagan las necesidades de usuarios diversos o incluso protejan sus derechos humanos.

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.