Fei-Fei Li habla de mantener la inteligencia artificial a salvo de la humanidad

FT MERCADOS

La tecnóloga Fei-Fei Li habla de la cultura ‘bros’ de Silicon Valley.

Fei-Fei Li, científica especializada en IA.
George Hammond
Ciudad de México /

Mientras espero que Fei-Fei Li se reúna conmigo para almorzar, grupos de estudiantes comienzan a hacer fila a mi alrededor para asistir a seminarios. A través de las paredes de cristal puedo oír el chirrido de un marcador sobre el pizarrón y ver las cejas fruncidas de una docena de entusiastas científicos en ciernes. Siento un temor nostálgico mientras espero la llegada de una profesora y me pregunto si estoy suficientemente preparado.

La sensación desaparece rápidamente cuando Li llega al anodino café, aquí en el campus de la Universidad de Stanford, que ella eligió para nuestra reunión. “Tenía la impresión de que había triunfado si tenía un almuerzo con el Financial Times, dice Li, cuando llega para lo que seguramente estará entre los almuerzos más baratos que haya organizado el diario.

Li es una de las pocas académicas y tecnólogas responsables de sentar las bases de la revolución actual en inteligencia artificial (IA). Ahora presiona para garantizar que la revolución se lleve a cabo de manera responsable desde un nuevo instituto en Stanford, su base desde 2013. De una forma u otra, los campus han sido el hogar de Li durante más de 25 años.

Durante ese tiempo, las universidades y los laboratorios de investigación han impulsado una serie de avances en el aprendizaje automático, la visión por computadora y el procesamiento del lenguaje natural. La propia Li dirigió el desarrollo de ImageNet, un vasto depósito de imágenes categorizadas que demostró la importancia de los macrodatos (big data) para impulsar la IA y abrió el camino para avances significativos en la visión por computadora durante la última década.

Pero en su lugar, las herramientas de IA que se despliegan en la actualidad, que demuestran capacidades de comunicación casi humanas provienen de startups respaldadas por las compañías de tecnología más grandes del mundo. ¿Alguna universidad puede seguir el ritmo?

“Entiendo por qué preguntas esto”, dice Li. “Pero realmente me preocupa si colectivamente asumimos que solo hay un centro de gravedad (en la IA)”. Insiste en que el sector público, con las universidades como eje, todavía tiene un papel muy importante. “Estamos impulsando la investigación en neurociencia, impulsamos la investigación sobre el clima… todavía tenemos un pensamiento interdisciplinario muy singular. Disponemos de datos interdisciplinarios únicos. Y tenemos las mentes más jóvenes y audaces”.

En 2019, Li creó un nuevo instituto de Inteligencia Artificial Centrada en el Humano (HAI, por sus siglas en inglés) en Stanford con el profesor de filosofía John Etchemendy. Su objetivo es garantizar que las nuevas y poderosas herramientas y políticas de IA estén diseñadas explícitamente para mejorar la condición humana, en lugar de simplemente aumentar la productividad o el juego. Li se describe a sí misma como que “camina entre ser científica y ser humanista”.

En la búsqueda de la IA, dice, “la civilización es como un gran barco y navegamos avanzando en la oscuridad”. Ella considera a HAI y a otros organismos públicos como faros que iluminan un camino seguro.

Trazar ese paso se ha vuelto cada vez más complicado desde el lanzamiento del potente chatbot ChatGPT de OpenAI a finales de 2022. Eso puso a los consumidores frente a frente con el enorme poder de la IA moderna y desató una carrera por la supremacía tecnológica entre las startups y los grandes grupos de tecnología, como Microsoft y Google.

El gran avance de la capacidad que mostró ChatGPT también agravó los temores sobre los peligros de la IA: la disrupción de la fuerza laboral, la desinformación e incluso riesgos existenciales, el tema de una importante cumbre organizada por el Reino Unido a principios de este año.

Más que una simple carrera para construir el mejor chatbot, los últimos 12 meses han sido una competencia cada vez más feroz para determinar cómo se desarrolla, implementa y gobierna la IA. Li no descarta la idea de la IA como una amenaza para la humanidad, pero su trabajo se centra en frenar sus peligros más inmediatos y garantizar que se utilicen nuevas y poderosas herramientas para el bien.

Las universidades se mantienen como lugares vitales desde donde buscar beneficios públicos, como encontrar curas para enfermedades raras o mapear la biodiversidad de la Tierra, dice, y pueden proporcionar un contrapeso útil a las compañías que solo tienen fines de lucro.

Pero Li también es consciente de cómo se encuentran las probabilidades de éxito, y subrayó su titularidad en Stanford con un paso como científica jefe de IA y aprendizaje automático en Google Cloud de 2017 a 2018. Al llegar allí, le pareció que la abundancia de bocadillos era “asombrosa”, por no hablar de la tecnología y la profundidad del talento.

Es un comentario que recuerdo mientras examinamos el menú, más que limitado, en el mostrador de Coupa Café, un restaurante familiar que surte todos sus productos del área de la Bahía de San Francisco. Pedimos dos raciones de arepas de pollo, pan de maíz venezolano relleno de pollo, queso y cebolla caramelizada.

“En este momento, en el ámbito de la IA, lo que me preocupa es que no tenemos los recursos para garantizar que la IA académica siga siendo un centro de gravedad. Porque si perdemos ese centro de gravedad, el otro centro de gravedad será impulsado por el capitalismo”, dice Li, cuando regresamos a nuestra mesa. 

La inversión del sector público en IA está fatal. En la actualidad, ni una sola universidad puede entrenar un modelo ChatGPT… la academia no puede desarrollar completamente sus propias versiones para que puedan usarse para investigaciones científicas más abiertas. Eso es un problema”.

Li se reunió con un ejecutivo de OpenAI poco después del lanzamiento de la compañía como una organización sin fines de lucro en 2015. Al brindar con una copa, el ejecutivo dijo: “Todos los que hacen investigación en IA deberían cuestionar seriamente su papel en el mundo académico en el futuro”. En la actualidad, el comentario parece profético. OpenAI pasó a ser un modelo con fines de lucro y tiene una valoración teórica de casi 90,000 millones de dólares (mdd). Esta y otras startups rivales se convirtieron en imanes para los mejores investigadores.

Li tiene “mucho respeto” por OpenAI. Pero un golpe de estado en la Junta Directiva de la startup de San Francisco en noviembre sugirió que la empresa privada podría ser un lugar más precario para desarrollar la IA de lo que parecía. Despidieron abruptamente al cofundador y director ejecutivo Sam Altman por no ser “consistentemente sincero” con su comité, solo para regresar a su cargo días después, luego de que empleados e inversionistas se apresuraron a ponerse de su lado.

“Es una compañía muy importante y voy a confiar en que incluso con fallas como las que hemos visto -una falla del tamaño de un tsunami- llegaremos a un lugar mejor”, dice Li. “Revitalizaron la IA”.

Un insistente zumbido mecánico interrumpe nuestra conversación; Nuestro almuerzo nos espera en el mostrador. El mío lo combiné con un café vietnamita helado, Li opta por un pumpkin spiced latte. Regresamos a nuestra mesa y empezamos a preparar las arepas, acompañadas de un montón de lechuga rallada y un aderezo espeso y picante.

Li acaba de publicar su autobiografía The Worlds I See, en la que relata su trayecto desde China a Estados Unidos (EU) cuando era una adolescente y su camino hasta Stanford. Ella insiste en que no es de “emociones en público” y, sin embargo, su libro de memorias son profundamente personales. Capta una vida en la que “ha habido injusticia, ha habido dolor y humillación”, pero es fundamentalmente “una carta de amor a la ciencia que adoro”.

Li escribe más íntimamente sobre sus padres. Ella describe a su padre como curioso, juguetón y propenso a sufrir contratiempos. Su madre es tremendamente brillante e intelectual, limitada por las circunstancias de su época y su mala salud.

Los padres de Li abandonaron una vida de clase media en China después de la masacre de la Plaza Tiananmen en 1989 y llegaron a los suburbios de Nueva Jersey con la esperanza de un futuro mejor para su hija en EU. Hasta la pandemia de covid-19 vivieron con Li, su marido, el académico Silvio Savarese, y sus dos hijos. Ahora viven cerca, un corto trayecto en bicicleta.

Pero en otros aspectos, los padres de Li se mantienen muy alejados de su mundo. Cuando Stanford organizó una fiesta para celebrar la publicación de The Worlds I See el mes pasado, sus padres hicieron una rara excursión para asistir. Li aprovechó la oportunidad para decir cuánto los apreciaba y que los amaba.

“Después de eso, mis padres me llamaron al día siguiente y me dijeron: ‘Vimos tanta gente aplaudiendo e incluso vimos gente llorando, no teníamos idea de lo que dijiste’. Probablemente fue la primera vez en mi vida que dije esas palabras para ellos y en un ambiente tan público y fue muy, muy sincero, y todavía no lo entendieron; no entendían el inglés”, dice Li.
“Es la vida de un inmigrante…esa barrera no es solo la expresión, es el mundo. Los inmigrantes como ellos todavía tienen una barrera con este mundo… en mi caso, rompí esa barrera”, añade, antes de dudar. “O no lo hice, no lo sé. Sabes, tal vez la rompí porque, mírame: soy profesora de Stanford. Pero no lo hice porque no soy parte del mundo de los ‘bros’ de Silicon Valley”.

Las figuras más destacadas y las voces más resonantes en la IA siguen siendo abrumadoramente masculinas. Li rinde homenaje a varios colaboradores, compañeros y estudiantes varones, pero se siente frustrada por la falta de diversidad en el campo. Esto es un problema, dice Li, porque una mayor variedad de orígenes significa que “vemos el mundo de formas distintas: por eso tu ciencia puede ser única”.

En 2017, ella y su exalumna Olga Russakovsky crearon AI4ALL, una organización sin fines de lucro cuyo objetivo es corregir un persistente desequilibrio de género en el sector. Russakovsky es una de las personas con las que hablé sobre Li y que elogiaron la agudeza de su mente y su humanidad al mismo tiempo.

La combinación es esencial para el trabajo de Li, dice Russakovsky. “La forma en que los investigadores abordan los problemas, las preguntas que formulan, todo eso se basa en sus perspectivas. Todo eso se guía por su formación”.

Li dice que tuvo dificultades para escribir un libro sobre ella. “Soy demasiado tímida para contar mi historia…¿Quién soy yo a mis cuarenta para escribir una memoria? No soy Einstein”. 

Al final, la convencieron de que revelara tanto de sí misma, en parte para demostrar que había espacio para voces más diversas en su campo.

Unos días antes de que Li y yo nos reuniéramos, The New York Times publicó un artículo sobre “Quién es quién detrás del amanecer del movimiento moderno de IA”. La docena de participantes eran hombres -un hecho que Li ha criticado públicamente- entre ellos Elon Musk, Dario Amodei y el cofundador de OpenAI, Sam Altman.

¿La IA todavía tiene un problema de género? “Si hoy me dices que hay un trasfondo de sexismo, te creo totalmente”, dice Li. “¿Se escuchan las voces de las mujeres, hay mujeres en los salones de clases y en las juntas directivas, hay mujeres en las noticias? Esa es una pregunta más importante y eso me preocupa mucho”.

Cuando Altman regresó a OpenAI el mes pasado, los términos de su reintegro estipulaban que los dos miembros restantes de la Junta Directiva -que resultaron ser las únicas directoras- renunciaron. El episodio reforzó la impresión de que el destino de la startup más poderosa en IA hoy en día dependía en gran medida de Altman; mientras que gran parte de la cobertura dio poca importancia a las mujeres que quedaron fuera de la junta.

Li se muestra cautelosa a la hora de reducir una historia que lleva décadas gestándose a una viñeta sobre un hombre, o incluso sobre un puñado de ellos. 

“Me molestaría que la historia de la IA se escribiera solo para unas cuantas personas y se olvidara de las demás. Eso me molestaría. Ese no es un problema de Sam Altman, es un problema de cómo se escribe la historia”.

Su libro es una forma de reparación, que contextualiza el auge actual de la IA haciendo referencia a décadas de innovación tecnológica, refinamiento y aumento de la potencia informática bruta que la sustentan. También destaca que los momentos que parecen avances inmensos pueden, en retrospectiva, parecer falsos amaneceres.

Cuando Li dejó Stanford para ir a Google Cloud en 2017, su búsqueda de la ciencia se topó con la fría realidad corporativa. Tenía muchos más recursos, un equipo de personal mucho más grande y acceso a todos, desde “los productores japoneses de pepinos hasta las compañías de la lista Fortune 500”. Pero, por primera vez, también tenía una línea empresarial. “Por lo general, estaba feliz de seguir el guión”, escribe en sus memorias.

Eso se volvió más difícil en 2018, cuando Google estuvo en el centro de una controversia con respecto al uso de su IA por parte del Departamento de Defensa de EU. Li no era directamente responsable de la asociación, pero, sin embargo, se vio atrapada en una crisis interna que provocó que varios empleados renunciaran a la compañía.

El tiempo de Li en Google “realmente me hizo sentir que mi generación había introducido esta tecnología y que debíamos ser responsables’... fue una lección de humildad darme cuenta de que: las matemáticas son fáciles, las ecuaciones pueden ser largas pero son bastante claras. Los seres humanos y las sociedades son desordenados”, dice Li. “Me pasé meses pensando ‘¿qué hago?’ ¿Simplemente me dejo llevar por esta ola? ¿Me regreso, cierro la puerta, finjo que el mundo no existe y sigo escribiendo mis artículos? ¿Qué tengo que hacer?”.

Al final, decidió regresar a Stanford. “Estaba muy motivada por la misión. Es fácil olvidarse de los GPU (chips de computadora de alta potencia) y de los cheques de pago cuando estás motivado por una misión”.

A estas alturas, dejamos a un lado nuestras arepas. Un colega de Li llega con un té de boba, para su deleite. “Tengo debilidad por el té de boba”, dice, usando su popote para arponear la tapa de su bebida. Luego confunde mi mirada de curiosidad con una de codicia. “¿Lo quieres?”, ofrece. No lo quiero.

Un compañero que conoce a Li desde hace más de una década dice que Li “realmente se ha centrado en el lado correcto de la IA. A ella le importa profundamente asegurarse de que la IA tenga las barreras adecuadas. Muy pocos investigadores en IA tienen esa hermosa resonancia entre lo que dicen y cómo actúan”.

Ella ya emprendió anteriormente proyectos pasados de moda, a menudo en contra del consejo de sus pares y mentores. Se necesitaron años para compilar y etiquetar los más de 14 millones de imágenes que se utilizaron para entrenar ImageNet, una tarea de Sísifo que dio sus frutos solo después de un largo periodo de dudas y soledad. Como dice Li: “Si persigues el algoritmo de moda, no estás haciendo la mejor ciencia”.

ella dice...

"Hay que estar solo para ser un buen científico,

porque la ciencia como profesión implica enfrentarse a lo desconocido".

Su trabajo posterior -que incluye llevar la IA a la atención de salud y unir a expertos en ética, economistas, tecnólogos y responsables de la formulación de políticas en pos de una inteligencia artificial centrada en el ser humano- es igual de pionero. Russell Wald, subdirector de HAI, dice que tiene la clarividencia y la visión de una adivina.

“Hay que estar solo para ser un buen científico, porque la ciencia como profesión implica enfrentarse a lo desconocido. Tienes que estar solo. Hay que tener miedo. No tienes que ver a nadie a tu alrededor”, dice Li. “Y podrías estar equivocado, pero al menos tienes muchas posibilidades de descubrir algo grandioso”.

PRL




LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.