Corre el año 2027. Algunos potentes sistemas de inteligencia artificial se están volviendo más inteligentes que los humanos y están causando estragos en el orden mundial. Un grupo de espías chinos robaron secretos de IA de Estados Unidos y la Casa Blanca se apresura a tomar represalias. En un importante laboratorio de IA, varios ingenieros se asustan al descubrir que sus modelos empezaron a engañarlos y, al final, podrían rebelarse.
Estas no son escenas de un guion de ciencia ficción. Son situaciones previstas por una organización sin ánimo de lucro de Berkeley, California, llamada AI Futures Project, que dedicó un año de trabajo a predecir cómo cambiará el mundo en los próximos años, a medida que se desarrollarán sistemas de IA cada vez más potentes.
El proyecto está dirigido por Daniel Kokotajlo, antiguo investigador de OpenAI que abandonó la empresa el año pasado porque le preocupaban algunas acciones imprudentes.
Durante su estancia en OpenAI, donde formó parte del equipo de gobierno, Kokotajlo redactó informes internos detallados sobre posibles sucesos en la carrera hacia la inteligencia artificial general (o AGI, por su sigla en inglés), un término vago que se refiere a máquinas con inteligencia similar a la humana. Tras dejar la empresa, se asoció con Eli Lifland, un investigador de IA que ha hecho predicciones precisas sobre acontecimientos mundiales, y se puso manos a la obra para intentar predecir la próxima oleada de IA.
El resultado es AI 2027, un informe y un sitio web publicados esta semana que emplean un relato ficticio detallado para plantear lo que podría ocurrir si los sistemas de IA superan la inteligencia humana, algo que los autores prevén que suceda en los próximos dos o tres años.
“Predecimos que las IA seguirán mejorando hasta convertirse en agentes totalmente autónomos y mejores que los seres humanos en todos los aspectos a finales de 2027 más o menos”, declaró Kokotajlo en una entrevista reciente.
Hoy en día abundan las especulaciones sobre la IA. El fervor por la IA se ha apoderado de San Francisco, y la esfera tecnológica del Área de la Bahía se ha convertido en un conjunto de tribus antagónicas y sectas disidentes, cada una de ellas convencida de que sabe qué pasará en el futuro.
Algunas predicciones sobre la IA se difunden en manifiestos, como Machines of Loving Grace, un ensayo de 14 mil palabras escrito el año pasado por Dario Amodei, director ejecutivo de Anthropic; o Situational Awareness, un informe de un antiguo investigador de OpenAI, Leopold Aschenbrenner, que fue muy leído en los círculos políticos.
AI Futures Project optó por una situación hipotética que, en esencia, es una obra de ciencia ficción elaborada a partir de una investigación rigurosa que utiliza como puntos de la trama sus mejores conjeturas sobre el futuro. El grupo trabajó durante casi un año a fin de perfeccionar cientos de predicciones sobre la IA. Después, contrataron a un escritor, Scott Alexander (autor del blog Astral Codex Ten), para que les ayude a convertir sus previsiones en una narración.
“Tomamos lo que pensábamos que ocurriría e intentamos crear una relación atractiva”, explicó Lifland.
Los detractores de este enfoque argumentan que las historias ficticias sobre IA, más que educar a la gente, la asustan. Sin duda, también habrá expertos en IA que se opongan a la afirmación central del grupo de que la inteligencia artificial superará a la humana.
Ali Farhadi, director general del Instituto Allen de Inteligencia Artificial, un laboratorio de IA de Seattle, preparó una reseña del informe IA 2027 en la que indicó que no le había dejado una buena impresión.
“Soy partidario de las proyecciones y previsiones, pero esta previsión no parece estar basada en pruebas científicas ni en la evolución real de la IA en este momento”, afirmó.
No cabe duda de que algunas de las opiniones del grupo son extremas. (Por ejemplo, Kokotajlo me dijo el año pasado que, en su opinión, era un 70 por ciento probable que la IA destruyera o causara daños catastróficos a la humanidad). Además, tanto Kokotajlo como Lifland tienen vínculos con el altruismo eficaz, otro movimiento filosófico popular entre quienes se dedican a la tecnología, que lleva años lanzando advertencias funestas sobre la IA.
No obstante, también vale la pena señalar que algunas de las mayores empresas de Silicon Valley puntualizan que muchas pasadas predicciones sobre la IA que parecían disparatadas (como la opinión de que las máquinas pasarían la prueba de Turing, un experimento mental que determina si una máquina puede dar la impresión de comunicarse como un ser humano), se han hecho realidad.
En 2021, el año anterior al lanzamiento de ChatGPT, Kokotajlo escribió una entrada en su blog titulada Cómo será 2026, en la que esbozaba su visión sobre el posible progreso de los sistemas de IA. Varias de sus predicciones resultaron premonitorias, lo que lo convenció de que este tipo de previsión es valioso y se le da bien. “Es una forma elegante y práctica de comunicarles tu punto de vista a otras personas”, comentó.
La semana pasada, Kokotajlo y Lifland me invitaron a su oficina (una pequeña habitación en un espacio de trabajo conjunto de Berkeley llamado Constellation, donde operan varias organizaciones de seguridad de la IA) para mostrarme cómo trabajan.
Kokotajlo, que vestía una chaqueta de estilo militar color canela, tomó un rotulador y escribió cuatro abreviaturas en un gran pizarrón blanco: SC > SAR > SIAR > ASI. Me explicó que cada una representaba un hito en el desarrollo de la IA.
En primer lugar, afirmó, si se mantienen las tendencias actuales, a principios de 2027 la IA será un programador sobrehumano. Después, a mediados de 2027, será un investigador de IA sobrehumano, un agente autónomo capaz de supervisar equipos de programadores de IA y hacer nuevos descubrimientos. Luego, a finales de 2027 o principios de 2028, se convertirá en un investigador de IA super inteligente: una inteligencia artificial más diestra que nosotros en la creación de IA avanzada y capaz de automatizar su propia investigación y desarrollo, que básicamente podrá crear versiones más inteligentes de sí misma. Indicó que, llegado ese punto, en poco tiempo tendremos superinteligencia artificial (ASI, por su sigla en inglés), y es imposible predecir qué pasará después.
Si todo esto suena una fantasía... es porque eso es. Nada remotamente parecido a lo que predicen Kokotajlo y Lifland es posible con las herramientas actuales de IA, que con dificultades pueden pedir un burrito en DoorDash. Pero confía en que los puntos ciegos se reduzcan rápidamente a medida que los sistemas de IA logren codificar mejor y acelerar la investigación y el desarrollo de la IA.
Su informe se centra en OpenBrain, una empresa ficticia de IA que construye un potente sistema de IA conocido como Agente-1. (Decidieron no destacar a una empresa de IA en particular, sino crear una que amalgama a los principales laboratorios de IA estadounidenses).
A medida que el Agente-1 mejora en las tareas de codificación, empieza a automatizar gran parte del trabajo de ingeniería en OpenBrain, lo que le permite a la empresa avanzar más rápido y ayuda a construir el Agente-2, un investigador de IA aún más capaz. A finales de 2027, cuando finaliza el relato hipotético, el Agente-4 consigue cada semana avances en la investigación de la IA equivalentes a un año de trabajo, y amenaza con rebelarse.
Aunque estoy convencido con los autores de IA 2027 en que pronto habrá potentes sistemas de IA, no estoy convencido de que sea posible que los programadores sobrehumanos de IA adquieran automáticamente las demás habilidades necesarias para abrirse camino hacia la inteligencia general. Además, desconfío de las predicciones que suponen que el progreso de la IA será exponencial y sin percances, sin grandes cuellos de botella ni obstáculos en el camino.
Sin embargo, aunque no esté de acuerdo con algunas de las predicciones concretas, creo que vale la pena hacer este tipo de previsiones. Si la IA potente de verdad está a la vuelta de la esquina, todos vamos a tener que empezar a imaginar futuros muy extraños.