Los riesgos que plantean los chatbots con inteligencia artificial son investigados oficialmente por primera vez por los reguladores estadunidenses después de que la Comisión Federal de Comercio (FTC, por su sigla en inglés) inició una indagatoria de gran alcance sobre OpenAI, fabricante de ChatGPT.
En una carta que se envió a la compañía respaldada por Microsoft, la FTC indicó que estudiará si los usuarios se han visto perjudicados por la creación de información falsa sobre ellos por parte del chatbot de inteligencia artificial, así como si OpenAI incurrió en prácticas “desleales o engañosas” en materia de privacidad y seguridad de datos.
Los productos de inteligencia artificial generativa están cada vez más en la mira de los reguladores de todo el mundo, ya que los expertos en la tecnología y en ética hacen sonar la alarma por la enorme cantidad de datos personales que consume la tecnología, así como por sus resultados potencialmente perjudiciales, que van desde la desinformación a los comentarios sexistas y racistas.
En mayo, la FTC lanzó una advertencia a la industria, al decir que “se estaba enfocando en cómo las empresas pueden utilizar la inteligencia artificial, incluidas las nuevas herramientas, de maneras que pueden tener un impacto real y sustancial en los consumidores”.
En su carta, el regulador estadunidense le pidió a OpenAI que compartiera material interno que abarcara desde la forma en que el grupo utiliza o conserva la información de los usuarios hasta las medidas que la compañía adopta para hacer frente al riesgo de que su modelo produzca declaraciones “falsas, engañosas o en las que hable mal de alguien”.
La FTC y OpenAI declinaron hacer comentarios sobre la carta, de la que el primero en informar fue el Washington Post.
Lina Khan, presidenta de la FTC, testificó ante el comité judicial de la Cámara de Representantes y se enfrentó a fuertes críticas de los legisladores republicanos por su dura postura en materia de aplicación de la ley.
Khan declinó hacer comentarios sobre la investigación, pero dijo que las preocupaciones más amplias del regulador se referían a que a ChatGPT y a otros servicios de inteligencia artificial “se les alimenta con un enorme caudal de datos”, mientras que “no había controles sobre qué tipo de informacón se están introduciendo en estas empresas”.
Y añadió: “Hemos escuchado sobre casos en los que la información sensible de los usuarios aparece en respuesta a una consulta de otra persona. Hemos escuchado sobre calumnias, declaraciones difamatorias, cosas rotundamente falsas que están apareciendo. Ese es el tipo de fraude y engaño que nos preocupa”.
También recibió preguntas de los legisladores sobre su historial mixto en los tribunales, después de que la FTC sufriera una gran derrota esta semana en su intento de bloquear la adquisición de Activision Blizzard por parte de Microsoft por 75 mil millones de dólares. La FTC apeló la decisión.
Mientras, el republicano Jim Jordan, presidente del comité, acusó a Khan de “acosar” a Twitter después de que la compañía alegara en un expediente judicial que la FTC había tenido un comportamiento “irregular e inapropiado” al implementar una orden de consentimiento que impuso el año pasado. Khan no hizo comentarios sobre la presentación de Twitter, pero dijo que lo único que le importa a la FTC “es que la compañía esté siguiendo la ley”.
Los expertos están preocupados por la enorme cantidad de datos que engullen los modelos lingüísticos de ChatGPT. OpenAI tenía más de 100 millones de usuarios activos mensuales a dos meses de su lanzamiento. El nuevo motor de búsqueda de Microsoft, Bing, también basado en OpenAI, era utilizado por más de un millón de personas en 169 países a las dos semanas de ver la luz en enero.
Los usuarios denunciaron que ChatGPT inventó nombres, fechas y hechos, así como enlaces falsos a sitios web de noticias y referencias a artículos académicos, un problema conocido en el sector como alucinaciones.
La investigación de la FTC indaga en los detalles técnicos del diseño de ChatGPT, incluido el trabajo de la compañía para solucionar los problemas de las alucinaciones, y en la supervisión de las personas que se encargan de hacer las evaluaciones, que afecta directamente a los consumidores. También solicitó información sobre las quejas de los consumidores y los esfuerzos realizados por la empresa para evaluar la comprensión de los consumidores sobre la precisión y confiabilidad del chatbot.