Proyecto para regular la IA divide a Silicon Valley

OpenAI y Google DeepMind piden aprobar la ley que exige pruebas de seguridad y fija multas, pero los detractores temen que EU pierda competitividad

El gobernador Gavin Newsom debe promulgarla antes del 30 de septiembre . S. MARCUS/REUTERS
George Hammond y Cristina Criddle
San Francisco /

El intento de California de regular la inteligencia artificial (IA) causa división en Silicon Valley, ya que los que se oponen advierten que el marco legal puede socavar la competencia y la posición de Estados Unidos como líder mundial en esta tecnología.

Después de librar una feroz batalla para modificar o diluir el proyecto de ley a medida que pasaba por la legislatura de California, los ejecutivos de compañías como OpenAI y Meta esperan ansiosamente para ver si Gavin Newsom, gobernador demócrata del estado, lo promulga como ley. Tiene hasta el 30 de septiembre para decidir.

California es el corazón de la floreciente industria de la inteligencia artificial y, sin una ley federal que regule la tecnología a lo largo de EU —y mucho menos un estándar global uniforme— las ramificaciones se extenderían mucho más allá del estado.

“El resto del mundo sin duda está prestando mucha atención a lo que está sucediendo en California y en EU en general en este momento, y es probable que el resultado allí tenga repercusiones en los esfuerzos regulatorios de otros países”, dijo a Financial Times Yoshua Bengio, profesor de la Universidad de Montreal y un “padrino” de la IA.

¿Por qué quieren normas?


El rápido desarrollo de herramientas de inteligencia artificial que pueden generar respuestas similares a las humanas magnifica los riesgos percibidos en torno a la tecnología, que van desde disputas jurídicas como la violación de derechos de autor hasta la desinformación y la proliferación de deepfakes. Algunos incluso piensan que puede representar una amenaza para la humanidad.

El presidente estadunidense, Joe Biden, emitió una orden ejecutiva el año pasado con el objetivo de establecer estándares nacionales para la seguridad ante la inteligencia artificial, pero el Congreso no ha avanzado en la aprobación de leyes.

El estado liberal de California a menudo ha intervenido para regular cuestiones en las que el gobierno federal se ha quedado rezagado. La inteligencia artificial ahora está en el foco de la atención con la Ley para una Innovación Segura en Modelos Pioneros de Inteligencia Artificial de California, que fue presentada por el senador estatal Scott Wiener.

De los diversos proyectos presentados en diferentes estados, el de California es el que tiene más probabilidades de tener un impacto real, ya que el estado está en el centro del auge de la inteligencia artificial y alberga a importantes empresas como OpenAI, Anthropic, Meta y Google.

“Las grandes empresas de inteligencia artificial que han sido las más vocales en este tema actualmente están atrapadas en su carrera por la participación de mercado y la maximización de las utilidades, lo que puede llevar a tomar atajos en lo que respecta a la seguridad, y es por eso que necesitamos algunas reglas para aquellos que lideran esta carrera”, dijo Bengio.

¿Qué dice el proyecto de ley?


Wiener afirma que su proyecto de ley “solo requiere que los desarrolladores de inteligencia artificial generativa más grandes hagan lo que todos y cada uno de ellos se han comprometido en repetidas ocasiones a hacer: realizar pruebas de seguridad básicas en modelos de IA tremendamente potentes”.

El proyecto de ley requerirá que los desarrolladores que construyan modelos grandes evalúen si son “razonablemente capaces de causar o permitir un daño crítico”, que abarca desde el uso malintencionado o el robo hasta la creación de un arma biológica. Luego lo que se espera es que las empresas tomen medidas de seguridad razonables contra esos riesgos identificados.

Los desarrolladores tendrán que construir un “interruptor de emergencia” en cualquier modelo nuevo de inteligencia artificial que supere un tamaño determinado en caso de que se use de manera indebida o se vuelva corrupto. También estarán obligados a redactar un informe de seguridad antes de entrenar un nuevo modelo y a ser más transparentes, tendrán que “informar de cada incidente de seguridad de inteligencia artificial” al fiscal general del estado y realizar una auditoría por parte de terceros para garantizar el cumplimiento cada año.

Está dirigido a modelos cuyo entrenamiento cuesta más de 100 millones de dólares, aproximadamente la cantidad necesaria para entrenar a los mejores modelos de la actualidad. Sin embargo, ese es un objetivo que se mueve rápido: el director ejecutivo de Anthropic, Dario Amodei, predice que el siguiente grupo de modelos de vanguardia costará mil millones de dólares para entrenar y 10 mil millones para 2026.

El proyecto de ley se aplicaría a todas las empresas que hacen negocios en California, independientemente de dónde se encuentren sus sedes, lo que cubrirá a todas las compañías que en la actualidad son capaces de desarrollar los mejores modelos de inteligencia artificial generativa, explicó Bengio.

Además introducirá sanciones civiles de hasta 10 por ciento del costo de entrenamiento de un modelo contra los desarrolladores cuyas herramientas provoquen muerte, robo o daño a la propiedad. También creará responsabilidades para las empresas que ofrecen recursos informáticos para entrenar esos modelos y las firmas de auditoría, haciéndolas responsables de recopilar y retener información detallada sobre las identidades e intenciones de los clientes. El incumplimiento puede resultar en multas de hasta 10 millones de dólares.

A favor y en contra


Wiener y sus colegas aseguran que hay un fuerte apoyo público para las nuevas barreras de protección de la inteligencia artificial. También ganó apoyo calificado de la importante startup de IA Anthropic y de Elon Musk, así como de SAG-Aftra, el sindicato de actores y dos grupos de mujeres.

El lunes pasado, 100 empleados de las principales empresas de inteligencia artificial, entre ellas OpenAI, xAI y Google DeepMind, firmaron una carta en la que pedían a Newsom que firme el proyecto de ley.

“Es viable y apropiado que las empresas de inteligencia artificial de vanguardia prueben si los modelos de IA más potentes pueden causar daños graves, y que estas empresas implementen salvaguardas razonables contra ese tipo de riesgos”, escribieron.

Los críticos —incluidos académicos como el profesor de inteligencia artificial de Stanford Fei-Fei Li, la firma de capital de riesgo Andreessen Horowitz y la aceleradora de startups Y Combinator— argumentan que el proyecto de ley afectará a las empresas en fase inicial y a los desarrolladores de código abierto que comparten públicamente el código subyacente a sus modelos.

La ley SB 1047 “desacelerará el ritmo de la innovación y llevará a los ingenieros y empresarios de clase mundial de California a dejar el estado en busca de mayores oportunidades en otro lugar”, advirtió el director de estrategia de OpenAI, Jason Kwon, en una carta a Wiener enviada el mes pasado. Coincide con una de las quejas más comunes: que Wiener interviene en un área que se debe tratar a escala federal.

Los que se oponen también dicen que la ley sofocará la innovación al acumular requisitos onerosos para los desarrolladores y hacerlos responsables del uso de sus modelos de inteligencia artificial por parte de actores maliciosos. Legisla sobre riesgos que todavía no existen, agregan.

“Filosóficamente, anticipar las consecuencias de cómo la gente va a usar su código en el software es un problema muy difícil. ¿Cómo lo va a usar la gente, cómo anticiparás que alguien va a hacer daño? Es un gran inhibidor. Es un terreno muy resbaladizo”, dijo Dario Gil, director de investigación de IBM.

Dan Hendrycks, director del Center for AI Safety (CAIS), que desempeñó un papel fundamental en la formulación del proyecto de ley, indicó que quienes se oponen “quieren que los gobiernos les den un cheque en blanco para desarrollar y desplegar las tecnologías que quieran, independientemente del riesgo o el daño a la sociedad”.

Hendrycks, quien también es asesor de xAI, de Elon Musk, es blanco de ataques de los críticos que describen al CAIS como un grupo marginal que está demasiado preocupado por los riesgos existenciales de la inteligencia artificial.

Los que se oponen también expresaron su preocupación por el hecho de que el CAIS cabildeara para influir en una “Junta de Modelos Pioneros” que creará el proyecto de ley, integrada por nueve directores que surjan de la industria y el mundo académico y con la tarea de actualizar las regulaciones en torno a los modelos de inteligencia artificial y garantizar el cumplimiento.

Wiener rechazó esos argumentos y los calificó como “una teoría de la conspiración”.

“Los que se oponen tratan de pintar a cualquiera que apoye el proyecto de ley como doomers (personas que se preparan para una catástrofe)”, señaló Wiener. “Dijeron que estos eran riesgos de ciencia ficción, que estábamos concentrados en Terminator. No es así, nos enfocamos en riesgos muy reales como la caída de la red eléctrica o del sistema bancario, o la creación de un arma química o biológica”.

¿Cómo abordar los temores?


Wiener dijo que él y su equipo pasaron los últimos 18 meses interactuando con “cualquiera que quisiera reunirse con nosotros” para discutir el proyecto de ley, incluidos Li y socios de Andreessen e Y Combinator.

Una de sus preocupaciones era que exigir un interruptor de seguridad para los modelos de código abierto impediría que otros desarrolladores los modificaran o construyeran sobre ellos por temor a que se apagaran en cualquier momento. Eso podría ser fatal para las empresas jóvenes y el mundo académico, que dependen de modelos de código abierto más baratos o de libre acceso.

El proyecto de ley de Wiener se modificó para excluir los modelos de código abierto que hayan sido ajustados más allá de cierto nivel por terceros. Tampoco se les exigirá que tengan un interruptor de seguridad.

Algunas de las restricciones originales del proyecto de ley también se moderaron, incluida la reducción del alcance de las sanciones civiles y el limitar el número de modelos que se cubren por las nuevas reglas.

¿Se convertirá en ley?


La ley SB 1047 fue aprobada con holgura por la legislatura del estado. Ahora Newsom tiene que decidir si firma el proyecto, permite que se convierta en ley sin su firma o lo veta.

Si lo veta, la legislatura de California podría anular eso con una mayoría de dos tercios de los votos. Sin embargo, de acuerdo con un portavoz de Wiener, prácticamente no hay posibilidades de que eso ocurra. La última vez que se anuló el veto de un gobernador de California fue en 1980.

El gobernador está en una situación difícil, dada la importancia de la industria de tecnología para su estado. Pero dejar que la inteligencia artificial generativa crezca sin control puede ser aún más problemático.

“Me encantaría que esto fuera una legislación federal: si el Congreso actuara en este espacio y aprobara un proyecto de ley sólido sobre seguridad de la inteligencia artificial, estaría feliz de hacer las maletas e irme a casa”, dijo Wiener.
“Pero la triste realidad es que, si bien el Congreso ha tenido mucho, mucho éxito en materia de atención de salud, infraestructura y clima, ha tenido muchas dificultades con la regulación de la tecnología… hasta que el Congreso actúe, California tiene la obligación de liderar porque somos el corazón de la industria de tecnología”.
Financial Times Limited. Declaimer 2021


LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.