Estudio revela fallos de Grok, IA de Elon Musk, en respuestas a guerra Irán-Israel

Según expertos, no es la primera vez que el chatbot proporciona información inexacta.

Estudio expone fallas en respuestas de Grok | Especial
Ciudad de México /

Un nuevo estudio determinó que el chatbot de inteligencia artificial 'Grok', de la empresa xAI, de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán.

Cada vez son más los internautas que recurren a herramientas de inteligencia artificial, como Grok, la cual se encuentra dentro de la red social X, antes Twitter; sin embargo, las respuestas que obtienen en ocasión suelen desinformarlos.

Internautas han tenido que recurrir a esta práctica tras la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook.

Te recomendamos
Telegram se asocia con xAI y recibirá 300 mdd

Según un estudio publicado este martes por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok "durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis".

Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste "tenía dificultades para autentificar el contenido generado por la IA".

¿No es confiable? Estudio evidencia fallos de Grok

Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.

Grok: por qué el chatbot de Elon Musk está causando revuelo en México.

En algunas respuestas, Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán.

Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump.

El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un "genocidio blanco" en Sudáfrica, error que xAI achacó posteriormente a una "modificación no autorizada".

jk

  • Agencia EFE
  • Agencia de noticias con 84 años de trayectoria

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.