El generador de imágenes a través de Inteligencia Artificial (IA) de Microsoft,Copilot Designer, puede generar "verdaderos daños a nuestras comunidades", alertó Shane Jones, líder de IA en la compañía de Bill Gates.
En una denuncia pública, el ingeniero compartió una experiencia personal. De acuerdo con su testimonio, en diciembre, mientras utilizaba la herramienta Copilot Designer, descubrió que el servicio de IA asociaba imágenes monstruosas con palabras como aborto, además de que genera otras de tipo sexual y violentas e ignora derechos de autor.
"Fue un momento revelador; entonces me di cuenta por primera vez de que realmente no es un modelo seguro", dijo el ingeniero.
Jones trabaja en Microsoft como gerente principal de ingeniería de software en la sede corporativa de Redmont.
El ingeniero no es responsable directo de la herramienta, pero forma parte de un grupo denominado equipo rojo, conformado por empleados y personas externas y cuya tarea es probar la tecnología de inteligencia artificial de la compañía y detectar posibles errores.
Tras el hallazgo, Jones alertó a la empresa y, posteriormente, en su perfil de LinkedIn, publicó cartas abiertas.
“No creo que tengamos que esperar a la regulación gubernamental para asegurarnos de que somos transparentes con los consumidores sobre los riesgos de la IA", señaló en una de ellas.
rarr