OpenAI y Meta están a punto de lanzar nuevos modelos de inteligencia artificial (IA) que, según afirman, serán capaces de razonar y planear, pasos clave para lograr una capacidad cognitiva sobrehumana en las máquinas.
Esta semana, los ejecutivos de OpenAI y Meta señalaron que se preparan para lanzar las próximas versiones de sus modelos de gran lenguaje, los sistemas que impulsan aplicaciones de IA generativa como ChatGPT.
Meta empezará el despliegue de Llama 3 en las próximas semanas, mientras que OpenAI, respaldada por Microsoft, indicó que su próximo modelo llegará “pronto”.
“Estamos trabajando duro para lograr que estos modelos no solo hablen, sino que razonen, planeen… tengan memoria”, dice Joelle Pineau, vicepresidenta de Investigación en Inteligencia Artificial de Meta.
El director de operaciones de OpenAI, Brad Lightcap, dijo a Financial Times en entrevista que la próxima generación de GPT mostrará avances en la resolución de “problemas difíciles” como el razonamiento.
“Vamos a empezar a ver IA capaz de asumir tareas más complejas de una forma más sofisticada”, dijo. “Creo que apenas empezamos a rascar la superficie de la capacidad que tienen estos modelos para razonar”.
Lightcap añade que los sistemas de IA actuales son “buenos en pequeñas tareas puntuales”, pero sus capacidades son “limitadas”.
Las actualizaciones de Meta y OpenAI son parte de una ola de nuevos modelos de gran lenguaje que lanzan este año compañías como Google, Anthropic y Cohere.
A medida que las compañías de tecnología se apresuran a crear una IA cada vez más sofisticada —software que puede crear palabras, imágenes, programación y videos similares a las de los humanos de una calidad indistinguible de la producción humana— el ritmo del progreso se acelera.
El razonamiento y la planeación son pasos clave hacia lo que los investigadores llaman “inteligencia artificial general” —capacidad cognitiva a nivel humano— porque permiten a los chatbots y asistentes virtuales completar secuencias de tareas relacionadas y predecir las consecuencias de sus acciones.
- Te recomendamos Meta identificará audios, imágenes y videos generados por inteligencia artificial Negocios
En un evento en Londres, el científico jefe de IA de Meta, Yann LeCun, dijo que los sistemas de inteligencia artificial actuales “producen una palabra tras otra sin pensar ni planear”.
Debido a que tienen dificultades para lidiar con preguntas complejas o retener información durante mucho tiempo, todavía “cometen errores tontos”, afirmó.
Agregar el razonamiento significa que un modelo de IA “busca entre las posibles respuestas, planea la secuencia de acciones” y construye un “modelo mental de cuál será el efecto de (sus) acciones”, dijo.
Esta es la “gran pieza que nos falta en la que estamos trabajando para que las máquinas alcancen el siguiente nivel de inteligencia”, añadió.
LeCun trabaja en “agentes” de IA que puedan, por ejemplo, planear y reservar cada paso de un viaje, desde la oficina de alguien en París a otra en Nueva York, incluido el traslado al aeropuerto.
Meta prevé integrar su nuevo modelo de IA en WhatsApp y lentes inteligentes Ray-Ban. Está preparando el lanzamiento de Llama 3 en una variedad de modelos de diferentes tamaños, para diferentes aplicaciones y dispositivos, en los próximos meses.
Lightcap agregó que OpenAI “pronto tendrá más que decir” sobre la próxima versión de GPT.
“Creo que con el tiempo…veremos que los modelos se dirigen hacia tareas más largas y algo más complejas”, dijo. “Y eso requiere implícitamente la mejora de su capacidad de razonamiento”.
En su evento en Londres, Chris Cox, director de producto de Meta, dijo que las cámaras de los lentes Ray-Ban de Meta podrán usarse para ver, por ejemplo, una cafetera descompuesta, y un asistente de inteligencia artificial ―alimentado por Llama 3― explicaría al usuario cómo arreglarla.
“Hablaremos con estos asistentes de IA todo el tiempo”, dijo LeCun. “Toda nuestra dieta digital estará mediada por sistemas de inteligencia artificial”.