El avance tecnológico no es proporcional a los avances en materia de superación de estereotipos culturales y raciales.
Uno de los estereotipos occidentales más comunes es la suposición de que las mujeres árabes son más sometidas debido a su cultura. Esta visión simplista ignora la diversidad de experiencias y perspectivas dentro de las comunidades árabes y es poco autocrítica.
Del mismo modo, los hombres afrodescendientes a menudo son reducidos a su fuerza física o habilidades deportivas, y al mismo tiempo, se sostiene la idea de que son intelectualmente limitados. Estas narrativas contribuyen a la desigualdad y la exclusión.
Estos estereotipos son un acto de simplificación que no solo borra la diversidad interna, sino que también refuerza nociones paternalistas y racistas que sugieren que algunos grupos necesitan ser salvados o controlados.
¿La inteligencia artificial cómo procesa esta información para generar contenidos?, ¿hasta qué punto el lenguaje y las respuestas generadas por la IA refuerzan estas narrativas?
¿Estamos entrenando estos modelos tecnológicos con los mismos sesgos y prejuicios que existen en nuestra sociedad? Esta es una cuestión de poder: quien controla los datos y las narrativas controla la percepción del mundo.
Al analizar cómo se entrenan los modelos de Inteligencia Artificial Generativa (IAG), es crucial reconocer que el lenguaje no es neutral.
Las palabras y frases que utilizamos reflejan estructuras de poder, y si no desafiamos estos sesgos, las inteligencias artificiales seguirán reproduciéndolos.
Un grupo de investigadoras valencianas publicó el resultado de una investigación sobre el uso de estas tecnologías en el ámbito educativo y concluyó que el origen de las personas que desarrollan estos programas influye significativamente en la selección y el procesamiento de datos de entrenamiento.
Mientras algunos intentan argumentar que los estereotipos son inevitables o incluso útiles como atajos cognitivos, bell hooks, teórica y ensayista, ha argumentado que estos simplifican la riqueza de la condición humana y perpetúan la opresión.
Ella enfatiza la importancia de ver a las personas en toda su complejidad y la necesidad de contrarrestar a los estereotipos que ofrecen una comprensión superficial y no son herramientas adecuadas para una sociedad justa y equitativa.
Las herramientas de IAG deben ser entrenadas para reconocer y respetar esta diversidad, en lugar de perpetuar nociones simplistas y dañinas.
Los sesgos generados por la IA no son artificiales, son reales.
@perezyortiz