Debemos crear barreras de seguridad para la IA

Opinión. La inteligencia artificial tiene un gran potencial para elevar la productividad y la innovación, pero aún le falta un marco regulatorio nuevo para esta tecnología

Microsoft lanzó GPT-4, la nueva versión de su chatbot.DADO RUVIC/REUTERS
Rana Foroohar
Londres /

¿Y si lo único en lo que se pudiera confiar fuera algo o alguien tan cercano como para tocarlo? Ese puede ser el mundo al que nos está llevando la inteligencia artificial (IA). Un grupo de académicos de Harvard y expertos en la materia acaba de publicar un informe que tiene como objetivo poner barreras éticas al desarrollo de tecnologías potencialmente distópicas como el chatbot, en apariencia consciente de OpenAI, respaldado por Microsoft, que debutó la semana pasada en una nueva y “mejorada” versión (dependiendo de tu punto de vista), el GPT-4.

El grupo, del que forman parte Glen Weyl, economista e investigador de Microsoft; Danielle Allen, filósofa de Harvard y directora del Centro Safra para la Ética, y muchas otras personalidades de la industria, hace sonar la alarma ante “la plétora de experimentos con tecnologías sociales descentralizadas”. Entre ellos, el desarrollo de “contenidos altamente convincentes generados por máquinas (por ejemplo, ChatGPT)” que amenazan con disrumpir la estructura de nuestra economía, política y sociedad.

Creen que ya llegamos a un “momento constitucional” de cambio que requiere un marco regulatorio totalmente nuevo para este tipo de tecnologías.

Algunos de los riesgos de la inteligencia artificial, como un futuro al estilo de la película Terminator en el que las máquinas decidan que ya pasó la época de los humanos, ya han sido muy discutidos en la ciencia ficción, que, cabe señalar, ha tenido un historial bastante bueno de predicción de hacia dónde se dirigía la propia ciencia en los últimos 100 años más o menos. Pero hay otros que no se comprenden tan bien. Si, por ejemplo, la IA puede generar ahora un documento de identidad falso imposible de detectar, ¿de qué sirven los marcos legales y de gobierno que dependen de ese tipo de documentos para permitirnos conducir, viajar o pagar impuestos?

Una cosa que ya sabemos es que la inteligencia artificial puede permitir a los delincuentes hacerse pasar por cualquiera, en cualquier lugar y en cualquier momento. “Hay que asumir que el engaño será mucho más barato y frecuente en esta nueva era”, dice Weyl, que publicó un libro en línea con la ministra de asuntos digitales de Taiwán, Audrey Tang. En él se exponen los riesgos que la IA y otras tecnologías de la información avanzadas plantean para la democracia, sobre todo que ponen en esteroides el problema de la desinformación.

Las ramificaciones potenciales abarcan todos los aspectos de la sociedad y la economía. ¿Cómo vamos a saber que las transferencias digitales de fondos son seguras o incluso auténticas? ¿Serán confiables los notarios y los contratos en línea? ¿Las noticias falsas, que ya son un gran problema, serán casi imposibles de detectar? Y qué decir de las ramificaciones políticas del incalculable número de disrupciones laborales, un tema que los académicos Daron Acemoglu y Simon Johnson explorarán en un libro a finales de este año.

Es fácil imaginar un mundo en el que los gobiernos tengan dificultades para seguir el ritmo de estos cambios y, como dice el informe de Harvard, “los procesos democráticos existentes, muy imperfectos, resultan impotentes… y por tanto los abandonan los ciudadanos que cada vez son más cínicos”.

Ya pudimos ver indicios de esto. La ciudad privada de Texas que está construyendo Elon Musk para alojar a sus empleados de SpaceX, Tesla y Boring es solo la última iteración de la fantasía libertaria de Silicon Valley en la que los ricos se refugian en complejos privados en Nueva Zelanda, o trasladan su riqueza y sus negocios a jurisdicciones extragubernamentales y “zonas económicas especiales”.

En este escenario, los ingresos fiscales caen, la proporción de mano de obra se erosiona y el mundo de suma cero resultante exacerba una exitocracy (una tecnocracia con extensas opciones de salida) de los privilegiados.

El futuro también puede ser mucho más brillante. La IA tiene un potencial increíble para aumentar la productividad y la innovación, e incluso puede permitirnos redistribuir la riqueza digital de nuevas formas, pero lo que ya está claro es que las empresas no van a cejar en su empeño de desarrollar tecnologías de vanguardia, desde la inteligencia artificial hasta el blockchain, tan rápido como puedan.

Como tal, están buscando formas de vender no solo la inteligencia artificial, sino las soluciones de seguridad para ella. Por ejemplo, en un mundo en el que la confianza no puede verificarse de forma digital, los desarrolladores de inteligencia artificial de Microsoft y otras empresas están pensando si puede haber un método para crear versiones más avanzadas de “secretos compartidos” (o cosas que solo tú y otra persona cercana pueden conocer) digitalmente y a escala.

Eso suena un poco a resolver el problema de la tecnología con más tecnología. De hecho, la mejor solución al dilema de la IA en la medida en que exista una, puede ser analógica.

“Lo que necesitamos es un marco para una vigilancia más prudente”, dice Allen, citando el informe de la Comisión Presidencial sobre Bioética de 2010. Creó directrices para una experimentación responsable, lo que permitió un desarrollo tecnológico más seguro.

Por ahora, en lugar de prohibir la inteligencia artificial o de tener algún método perfecto de regulación, podemos empezar por obligar a las compañías a revelar qué experimentos están haciendo, qué ha funcionado, qué no y dónde pueden estar surgiendo consecuencias imprevistas. La transparencia es el primer paso para garantizar que la IA no le saque ventaja a sus creadores.

Financial Times Limited. Declaimer 2021


LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.