Unión Europea presenta marco legal para limitar uso de inteligencia artificial

La Comisión Europea dividió los diferentes tipos de aplicaciones de la IA en cuatro categorías: mínimo, limitado, alto e inaceptable; habrá sanciones para los fabricantes o usuarios que no cumplan los requisitos.

La Comisión Europea presentó hoy su primer marco legal sobre inteligencia artificial. (Shutterstock)

Xinhua

La Comisión Europea presentó su primer marco legal sobre inteligencia artificial, el cual busca generar confianza en este método entre la población de la Unión Europea y asegurar la excelencia, dijo Margrethe Vestager, vicepresidenta ejecutiva de la comisión responsable de competencia.

De acuerdo con el nivel de riesgo, la Comisión Europea dividió los diferentes tipos de aplicaciones de la IA en cuatro categorías: mínimo, limitado, alto e inaceptable.

"Mientras mayor sea el riesgo que un uso específico de la IA pueda generar en nuestras vidas, más estrictas serán las reglas" , explicó Vestager durante su presentación.

Sistemas de IA de riesgo mínimo podrán desarrollarse y utilizarse sin ninguna restricción. Esta es la vasta mayoría de los sistemas de IA utilizados actualmente en la Unión Europea, como el software de reconocimiento de correo no deseado (spam).

Los sistemas de IA de riesgo limitado estarán sujetos a requisitos de transparencia para garantizar que el usuario sepa que interactúa con una máquina y no con un ser humano, como en el caso de los chatbots.

Los sistemas de IA de riesgo alto son aquellos que pueden interferir en la vida de una persona de forma significativa. Estos sistemas estarán sujetos a una serie de obligaciones estrictas, incluyendo un sistema de adecuada evaluación y mitigación de riesgos, alta calidad del conjunto de datos, documentación detallada y supervisión humana adecuada, entre otros.

Los sistemas de IA de riesgo alto abarcan infraestructura crítica, formación educativa o profesional, componentes de seguridad de productos, empleo, manejo de trabajadores y acceso a empleo independiente, entre otros.

Todos los sistemas de IA que sean "considerados una clara amenaza para la seguridad, la forma de vida y los derechos de las personas" son inaceptables y por ello están prohibidos. Estos incluyen, por ejemplo, juguetes que alientan comportamientos peligrosos en menores a través de asistencia por voz.

Las sanciones para los fabricantes o usuarios que no cumplan los requisitos serán, primero, una petición para que lo hagan. Después, el producto podría ser retirado del mercado. En caso de repetidas infracciones, se aplicarán multas de seis por ciento de su volumen comercial mundial anual.

El paquete de IA presentado por la Comisión Europa también incluye la regulación de Nueva Maquinaria y un plan Coordinado sobre IA actualizado.


DMZ

NOTAS MÁS VISTAS