A los reguladores de todo el mundo no les faltan problemas sobre los que preocuparse con el ascenso de la inteligencia artificial (IA).
¿Deben intervenir en algoritmos que puedan sesgar o distorsionar decisiones que afectan a la vida cotidiana de miles de millones de personas? ¿Qué pasa con el riesgo de que los chatbots, como ChatGPT, potencien la producción de desinformación en línea o conduzcan al uso indebido de grandes cantidades de datos personales? ¿Y qué deben hacer ante las advertencias de que las computadoras podrán alcanzar pronto tal nivel de inteligencia que escapen al control de sus creadores, con consecuencias nefastas para la humanidad?
La tecnología avanza con tanta rapidez que ha habido poco acuerdo sobre una agenda regulatoria, aunque en ambos lados del Atlántico la atención se centra cada vez más en los sistemas de IA más potentes y de uso general. Desarrollados por empresas como OpenAI, Google y Anthropic, y conocidos como modelos fundacionales, estos sistemas dan soporte a una amplia gama de aplicaciones de diferentes compañías, lo que les confiere un amplio impacto en toda la sociedad y la economía.
¿Qué problemas de IA se están analizando primero?
La Unión Europea estaba a punto de finalizar una ley de IA, la primera de su clase, que habría controlado, o incluso prohibido, usos de “alto riesgo” de la inteligencia artificial, como la toma de decisiones sobre solicitudes de empleo o préstamos o tratamientos de salud. Entonces estalló la manía de ChatGPT, el enorme interés público en el chatbot de OpenAI disponible de forma gratuita.
Los legisladores rápido ajustaron sus planes, estableciendo nuevas reglas que obligarán a las empresas a revelar en qué datos se han entrenado modelos de base como el utilizado en ChatGPT. Los creadores de los sistemas más potentes, que Bruselas cree que pueden plantear riesgos sistémicos, se enfrentan a requisitos adicionales, como evaluar y mitigar los riesgos en sus modelos e informar de cualquier incidente grave. La ley, que se adoptó en mayo de 2024 y empieza a entrar en vigor un año después, también creó una nueva y poderosa Oficina de IA encargada de establecer los estándares que deben cumplir los sistemas avanzados.
Sin embargo, Patrick Van Eecke, copresidente de la práctica global de privacidad, datos y cibernética del bufete de abogados Cooley, cree que Bruselas se movió demasiado pronto para tratar de regular una tecnología que todavía es “un blanco móvil”, lo que refleja un sesgo cultural hacia la reacción instintiva: regulación. “Nos gusta regular la realidad incluso antes de que se convierta en realidad”, dice, en consonancia con una opinión muy extendida en el mundo de la IA.
Muchos ejecutivos del sector de tecnología de Estados Unidos tienen una explicación diferente. Consideran la prisa de Bruselas por regular los sistemas de IA más poderosos como una medida proteccionista deliberada por parte de la Unión Europea, imponiendo limitaciones a un grupo de compañías principalmente estadunidenses que dominan la industria.
¿Se convertirán las regulaciones de la UE en IA en un modelo para el resto del mundo?
Eso es lo que sucedió con la legislación de protección de datos del bloque, y es un desarrollo potencial que preocupa a las compañías estadunidenses de tecnología. Los partidarios de la Ley de la Unión Europea dicen que se aplicará de manera flexible para reflejar los cambios en los estándares y los avances tecnológicos. Pero los críticos advierten que la experiencia muestra que Bruselas adopta un enfoque más dogmático y que las reglas incorporadas ahora pueden limitar la evolución de la tecnología.
Algunas compañías europeas están de acuerdo. En una carta dirigida a la Comisión Europea en 2023, 150 grandes empresas europeas advirtieron que la ley puede obstaculizar la economía del bloque al impedir que las compañías utilicen libremente importante tecnología de IA.
¿No están las empresas de IA pidiendo regulación?
La industria de la IA aprendió de la reacción negativa contra las redes sociales que no vale la pena eludir la regulación de tecnologías que pueden tener un impacto social y político significativo.
Pero eso no significa que les guste lo que planea la Unión Europea. Sam Altman, director de OpenAI y voluble partidario de la regulación de la inteligencia artificial, dijo a Financial Times que su empresa puede tener que retirarse de la Unión Europea por completo si las normas finales sobre la IA son demasiado estrictas. El furor que provocaron sus palabras lo llevó rápido a dar marcha atrás, pero, tras bambalinas, las preocupaciones de EU no han disminuido.
La disposición de las grandes empresas de tecnología a hacer un llamado para una regulación también provocó sospechas de que la ven como una forma de afianzar su control en el mercado de la inteligencia artificial. El aumento de los costos y la burocracia pueden dificultar la entrada de nuevos competidores.
¿Cuál es la alternativa al enfoque de la UE?
Antes de tomar una decisión sobre nuevas leyes, muchos países están analizando detenidamente cómo se aplican sus regulaciones vigentes a las aplicaciones basadas en inteligencia artificial.
En EU, por ejemplo, la Comisión Federal de Comercio abrió una investigación sobre ChatGPT, utilizando sus competencias. Una de sus preocupaciones es que la firma esté absorbiendo datos personales y que en ocasiones los utilice para regurgitar información falsa y perjudicial sobre la gente común. Los legisladores estadunidenses también se embarcaron en una amplia revisión de la IA que intenta equilibrar los beneficios de la tecnología con sus posibles perjuicios.
El líder de la mayoría del Senado de EU, Chuck Schumer, convocó una serie de sesiones informativas y foros de expertos para los comités más importantes del Senado, para ayudarles a decidir qué aspectos de la inteligencia artificial necesitan regulación.
Holly Fechner, copresidenta del grupo de industria tecnológica del bufete de abogados Covington & Burling, dijo: “El bipartidismo significativo en el Congreso sobre la competencia de EU con China” hace que el enfoque de Schumer sea “un mensaje ganador, y es una señal de que Estados Unidos se mueve en una dirección diferente a la de Europa”.
Sin embargo, al igual que Bruselas, Washington también empezó a imponer requisitos a los modelos más poderosos. En una orden ejecutiva adoptada a finales de 2023, la Casa Blanca de Biden exigió a las empresas que crean sistemas potentes de doble uso —es decir, aquellos que también tienen un posible uso militar— que revelen las capacidades de sus sistemas a los funcionarios, al tiempo que promueven formas de establecer estándares y directrices sobre cómo se entrenan, prueban y monitorean ese tipo de modelos. Aunque menos estricta que la nueva ley de la Unión Europea, la orden fue el primer intento integral en EU de abordar la inteligencia artificial.
Si los gobiernos no regulan ahora, ¿la carrera de la IA no se convertirá en una peligrosa catalla campal?
Muchas compañías de tecnología dicen que el desarrollo de la inteligencia artificial debe ser un reflejo de los primeros días de internet: los reguladores se contuvieron entonces, dejaron que floreciera la innovación y solo intervinieron más tarde, cuando fue necesario.
Ya hay señales de que se empiezan a arraigar nuevos estándares y acuerdos industriales sobre buenas prácticas en inteligencia artificial, incluso sin una regulación explícita. En EU, por ejemplo, la industria trabaja con el Instituto Nacional de Estándares y Tecnología para codificar las mejores formas de diseñar, entrenar e implementar sistemas con esta tecnología. A instancias de la Casa Blanca, un grupo de empresas líderes en IA firmó el año pasado una serie de compromisos voluntarios.
Sin embargo, los críticos advierten que una avalancha de capital en la industria de la inteligencia artificial y el aumento vertiginoso de las valoraciones de las startups de IA han llevado a un desarrollo desenfrenado de la tecnología, independientemente de los riesgos. En una de las señales más claras de las tensiones que crea esto dentro de las compañías de tecnología, Sam Altman, director ejecutivo de OpenAI, fue despedido por la junta directiva de la compañía en 2023 por preocupaciones sobre su liderazgo, antes de que una revuelta entre el personal le permitiera su reincorporación cinco días después. Otros que han advertido sobre los peligros de una carrera precipitada en la IA —como Elon Musk— al parecer también dejaron de lado sus preocupaciones y se unieron a la carrera.
Algunas personas que desarrollan inteligencia artificial dicen que podría destruir a la humanidad. ¿No es ese un motivo para una regulación inmediata?
Nadie en la industria de tecnología cree que los sistemas de inteligencia artificial actuales representen una amenaza existencial para la humanidad, y no hay acuerdo sobre cuándo puede llegar la tecnología a ese punto (si es que alguna vez lo hace). Pero el año pasado, una carta abierta firmada por muchos tecnólogos pedía una moratoria de seis meses sobre el trabajo en los sistemas más avanzados, para dar tiempo a idear nuevos protocolos de seguridad.
Si bien los gobiernos ya comenzaron a considerar esta cuestión, se necesitarán nuevos acuerdos internacionales para tratar de controlar la propagación de la inteligencia artificial peligrosa. Incluso entonces, ese tipo de esfuerzos pueden resultar poco prácticos, dada la amplia disponibilidad de recursos informáticos y conjuntos de datos necesarios para entrenar sistemas de IA.
Por ahora, las mismas empresas que lideran el avance hacia la inteligencia artificial afirman que también están a la vanguardia para tratar de controlarla. OpenAI informó a mediados del año pasado que estaba creando un equipo interno para comenzar a investigar formas de controlar las computadoras superinteligentes, que cree que pueden aparecer en esta década; sin embargo, menos de un año después,la compañía disolvió el equipo y una de las personas que lo había dirigido acusó a la empresa de estar más interesada en construir “productos brillantes” que en crear una cultura real en torno a la seguridad de la inteligencia artificial. _
La Suprema Corte de Justicia de la Nación de México ordenó que se suspendiera la emisión de sentencias de 19 amparos promovidos en contra de la Ley Minera y otras regulaciones en materia de uso de agua y protección al medio ambiente para concesionarios del ramo.
La ministra Lenia Batres solicitó que la Corte asuma su competencia respecto a los juicios promovidos por varias empresas mineras contra las reformas del 8 de mayo del año pasado en materia de protección de la vida, salud, agua y medio ambiente de comunidades cercanas a minas y zonas de explotación.