Los programas de inteligencia artificial (AI) como ChatGPT y Dall-E repiten las respuestas que miles de entrenadores le han enseñado a dar ante patrones similares de todas las miles de preguntas que la gente les haría. Es decir, cuando le pedimos algo a estos asistentes en realidad buscan respuestas que aprendieron a dar y que fueron elaboradas por humanos.
Aunque parezca que las personas en conjunto tenemos intereses y dudas distintos, en masa tendemos a preguntar lo mismo sobre temas en común, por ejemplo los miles de alumnos que le piden la respuestas a las mismas preguntas de un examen generan un patrón que estos empleados detectan y están obligados a elaborar respuestas y etiquetar resultados que deben mostrarse o no.
En un reporte de la BBC, la organización no gubernamental Partnership on Artificial Intelligence ha denunciado que las aparentes complejas respuestas que estos sistemas arrojan a los usuarios de sistemas como ChatGPT solo son las que miles de empleados subcontratados en todo el mundo han elaborado para que parezcan lo más coherentes posibles. Para explicarlo de una forma distinta, es como si nos presentaran un robot muy avanzado capaz de hacer toda clase de tareas pero en realidad tiene una persona dentro simulando ser una máquina.
Y eso es lo que hacen hasta ahora ChatGPT y otras herramientas que usan la mal llamada inteligencia artificial, y aunque las respuestas y textos que nos muestran al pedirles cosas parezcan coherentes y muy sorprendentes, en realidad repiten en tiempo muy rápido lo que otros seres humanos le han enseñado. La aparente magia con que pueden crear respuestas complejas y hasta códigos de programación es porque reducen a milisegundos que cualquier persona haría, pero el que muchas de estas respuestas sean inexactas y comentan errores con frecuencia se debe a que estos sistemas no son inteligentes y no pueden evaluar lógicamente lo que nos han entregado.
Solo son capaces de mejorar cuando estos entrenadores humanos corrigen los errores que les hemos señalado y de esta forma dan la apariencia de que “están aprendiendo”. Es por eso que al entregarte una respuesta tienen un botón de evaluación para preguntarte si te convence lo que te han entregado, cuando le dices que sí, estos trabajadores aprenden a dar respuestas similares, al igual que cuando decimos que no, estos trabajadores saben qué tienen que mejorar y el programa solo vuelve a emitir lo que estos freelancer aprendieron que parece correcto. Es un sistema entrenado por miles de empleados, no es inteligente.
Alertan sobre riesgos
Recientemente Elon Musk y más de 10 mil figuras clave en el campo de la tecnología firmaron una carta abierta en la que piden parar el desarrollo de sistemas que usan la Inteligencia Artificial por al menos seis meses hasta que se discuta globalmente los riesgos y las amenazas que este tipo de herramientas pueden representar para la sociedad, y no es para menos. La carta está respaldada por grandes personalidades como Steve Wozniak cofundador de Apple y Jann Tallinn cofundador de Skype.
En estos últimos meses el uso de herramientas como ChatGPT de la empresa Open AI ha causado una gran conmoción sobre todo en las escuelas y universidades de todo el mundo, pues los alumnos que las usan han sido capaces de aprobar exámenes muy complejos. Y la alarma también se ha generado cuando herramientas como en el caso de Dall-E –que es un creador de imágenes online– han sorprendido al mundo con la propagación de imágenes falsas como una que mostraba el supuesto estado de salud del periodista Julian Assange; la difusión de un fotomontaje de Donald Trump siendo detenido y otra muy viral del Papa Franciso vestido de Balenciaga brincando y bailando.
En estas semanas se ha hablado mucho de los riesgos de que muchas profesiones desaparezcan por el uso de estos sistemas, pero es importante aclarar algunos puntos porque esta tecnología, aunque muy asombrosa, no es ni inteligente y tampoco es artificial.
¿Y cómo es que logran esto?
Estos sistemas técnicamente no son sistemas de Inteligencia Artificial, son modeladores de lenguaje lógico, es decir su principal tarea es devolvernos respuestas que parezcan coherentes o imágenes que parezcan reales y nosotros también colaboramos en ayudarles a aprender, pero no es un aprendizaje, solo es la colocación de una etiqueta que dice, esto estuvo bien o esto estuvo mal.
Y aquí entra el trabajo de estos entrenadores que literalmente alimentan cientos de probables respuestas buscando en internet y llenando una enorme base de datos con información que fue copiada y pegada de cientos de miles de fuentes que estos empleados determinan como confiables y que además violan todas las reglas del respeto a los derechos de autor. Pues no citan las fuentes.
Estos trabajadores que en general son subcontratados con salarios de menos 2 dólares la hora hacen todo el trabajo engorroso de etiquetar y formular posibles respuestas y de esta forma guiar a tecnologías como ChatGPT para que de forma muy rápida nos responda pero con frases hechas los años antes de su lanzamiento por estos cientos de miles de freelancers que hicieron el trabajo sucio.
Una enorme simulación de inteligencia
Se trata de una enorme simulación que está generando muchos dilemas éticos. Lo que nos han mostrado como un sistema inteligente, en realidad no lo es y la valoración de los datos depende de lo que estos trabajadores en la sombra decidan, que de acuerdo un informe de TIME provienen en su mayoría de países pobres.
Cuando uno le pregunta algo a estos sistemas en realidad solo nos muestra lo que otras personas hicieron, por ejemplo al pedir un fotomontaje solo repite lo que diseñadores hicieron antes con fotos modelo o bien, cuando le pedimos un texto legal sólo reconstruyen respuestas ya hechas por etiquetadores con conocimientos de derecho.
Ahora muchos estudiantes en todo el mundo confían y realizan sus tareas usando herramientas como ChatGPT pero es casi igual que copiar un texto de la Wikipedia, las respuestas que parecen coherentes en realidad carecen de validez y autoridad porque no hay forma de supervisar las cientos de miles de respuestas que elaboran estos etiquetadores humanos y no sabemos qué fuentes de información usaron, de dónde copiaron y editaron la información y además el problema crece cuando las respuestas o textos que arrojan estos sistemas no citan la fuente de cada una de las referencias. En realidad se trata de un sistematizado copy paste de fuentes dudosas y que se le está dando una autoridad que no tiene y lamentablemente está interfiriendo en el juicio de muchas personas que lo usan.
Otro de los problemas de usar estos trabajadores es que causa problemas de salud mental en estos trabajadores detrás de ChatGPT y programas similares al entrenar a estas herramientas a no mostrar respuestas inadecuadas, por ejemplo, si algún usuario de estos chats pide mostrar imágenes de violencia, asesinatos o abusos sexuales estos trabajadores tienen que entrar a internet ver todo esta clase de contenidos violentos y etiquetarlos como no aptos. Son personas las que tienen que ver imágenes perturbadoras y que sufren el impacto psicológico al clasificar como inadecuado ese material cuando las personas buscan este tipo de respuestas a ChatGPT.
Por ejemplo, si alguien le pide una foto de alguien siendo ejecutado, estos freelancers tienen que explorar todas las fuentes de información que podrían usar estas tecnologías, adelantarse, etiquetarlas y enseñarle a estos programas que no es adecuado mostrarlo. Pero ya lo vieron y el daño del impacto de estas escenas desagradables se lo llevan los entrenadores.
Sin duda son asombrosas las respuestas y los textos que nos entrega ChatGPT, las imágenes que nos muestra Dall-E pero en realidad es el trabajo que ya hicieron miles de personas de las que no sabemos qué fuentes usaron y que su principal objetivo es darnos la ilusión de coherencia. Cuando le preguntas a ChatGPT en realidad le preguntas un trabajador en las sombras, que es obligado a elaborar cientos de respuestas y lo que te arroja es lo que esta personas catalogó como adecuado o no.
IA: el verdadero reto
Hasta ahora los miedos y los riesgos son válidos, pero no por estos sistemas comerciales y en el que todos estamos colaborando a hacerlos más complejo, la principal ventaja es que solo van a arrojar respuestas que otras personas elaboran; el problema real son lo sistemas militares de por ejemplo máquinas y drones inteligentes a los que se les entrena a matar objetivos o bombardear instalaciones. Cuando en unos años tengan suficiente información aprendida es probable que se les deje tomar decisiones por sí solas pero basadas en lo que aprendieron de miles de analistas, trabajadores en las sombras, asesores, diseñadores.
El verdadero riesgo de estas herramientas es que a través de un trabajo precario de muchos especialistas en busca de un empleo temporal llenen de conocimientos a estos programas sobre todo en tareas repetitivas y no complejas como contestar exámenes, elaborar amparos, operar un tractor. Pero debemos recordar que estas tecnologías solo serán capaces de reproducir lo que ya alguien más hizo y los estándares y lineamientos de las tareas y la información que nos brinde habrá sido basada en lo que las empresas que contratan a estos trabajadores consideren que es correcto y válido.
El camino que nos queda es pedir transparencia en cómo se les entrena a estos sistemas, qué fuentes utilizan y el estado de las condiciones laborales de estos cientos de miles de trabajadores que pre digieren y elaboran las respuestas mágicas y asombrosas que recibimos al usar ChatGPT que fue lo que varias personas copiaron, pegaron y determinaron que eso era válido.
ledz