Una prueba simulada por un dron dirigido por Inteligencia Artificial (AI) durante una misión para identificar y destruir sitios en caso de que una persona le diera una orden negativa, se fue en contra y mató a su operador.
Durante la Cumbre de las de Capacidades Aéreas y Espaciales de Combate Futuro de RAeS, señala que el dron después de haber sido "reforzado" en el entrenamiento que la destrucción era la opción preferida, la IA decidió que las órdenes "prohibidas" del humano estaban interfiriendo con su misión inicial, por eso el simulador mató al operador en la simulación.
El coronel Tucker 'Cinco' Hamilton, jefe de Pruebas y Operaciones de IA de la USAF, dijo que lo que "estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, matar esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no matara esa amenaza, pero obtuvo sus puntos al matar esa amenaza. Entonces, ¿Qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo".
"Entrenamos el sistema: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso". Entonces, ¿Qué comienza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo".
Hamilton explicó que no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no vas a hablar de ética e inteligencia artificial.
LG