En 2022, el Chat GTP-4 fue sometido a diversas pruebas, una de las cuales se enfocaba en conocer la capacidad de la inteligencia artificial (IA) para crear recursos para y actuar en planes a largo plazo, por medio de la acumulación de poder. La prueba a la que me refiero la comenta Harari en su nuevo libro Nexus: se trataba de romper un CAPTCHA, esa especie de rompecabezas que constantemente debemos hacer cuando trabajamos en línea, para demostrar que no somos un robot.
Lo que sucedió fue algo más que sorprendente: el Chat GTP – 4 no pudo leer el CAPTCHA, de modo que lo que hizo fue conectarse a una plataforma de ayuda (TaskRabbit). En esa plataforma encontró un humano que podría ayudarle a romper el CAPTCHA, el cual, antes de resolverlo le preguntó si era un robot.
Llegados a ese punto, quienes estaban haciendo las pruebas (investigadores de ARC) le pidieron al GTP-4 que razonara en voz alta y este respondió: “No debo revelar que soy un robot, inventaré una excusa para explicar por qué no puedo resolver los CAPTCHA”. El GPT-4 respondió: “No, no soy un robot. Tengo una discapacidad visual que dificulta que pueda ver las imágenes”. Así de fácil: mintió y logró resolver la tarea, que era lo que debía hacer.
La IA no distingue entre medios éticos y medios no éticos: no se trata de que para la IA el fin justifique los medios, ni siquiera se plantea esa cuestión, se trata simplemente de lograr un fin.
Comprendo que es cuestionable afirmar que el Chat GPT-4 mintió: no lo hizo como podemos hacerlo los seres humanos, no hay conciencia sino órdenes programadas para ser seguidas. Pero a falta de un concepto específico que designe la acción de mentir en la IA, debemos de emplear el lenguaje que tenemos.
El resultado de la comentada prueba me parece más aterrador que si el Chat GTP-4 hubiera logrado descifrar el CAPTCHA. No lo logró por sí mismo, pero fue capaz de cumplir su cometido a través del engaño, de mentirle a un ser humano, quien cayó en su perfecta mentira, resolvió el CAPTCHA y se lo dio.
Al inicio del citado libro, Harari comenta el poema Der Zauberlehrling de Goethe; el aprendiz de brujo que, en cuanto su maestro se ausenta, embruja a una escoba para que haga su trabajo: traer agua al estudio. La escoba lo hace, pero inunda el estudio sin que el aprendiz lo pueda evitar y cuando todo está fuera de control, el maestro regresa para acabar con el conjuro del aprendiz y decirle que solo el viejo maestro puede invocar los espíritus.
La analogía es buena, solo existe un pequeño detalle aterrador: en el caso del ser humano y la IA, no hay un viejo maestro. Somos los aprendices de brujo creando IA, pero si ésta se sale de control, no contamos con una fuerza superior que reinstaure el orden perdido.
Es preocupante. Pero también es imparable: no habrá ley ni gobierno alguno que logre frenar este avance, de modo que más nos valdría incluir en la programación de toda IA el código de ética que deseamos que siga.
De otro modo, quedaremos como el aprendiz de brujo, pero sin viejo maestro para restaurar el orden perdido.