Búsqueda de Taylor Swift en X falla al arrojar resultados

MILENIO comprobó esta situación poniendo el nombre de Taylor en el buscador de la plataforma.

Esta situación sorprendió a los usuarios de la red social | Instagram
y AFP
Ciudad de México /

Luego de que en X (antes Twitter) circularon imágenes generadas con inteligencia artificial donde Taylor Swift luce desnuda, este sábado usuarios de la plataforma reportaron un fallo al buscar el nombre de la cantante estadunidense.

Esto ocurre luego de que en la red social miles de fans de la artista hicieron tendencia el hashtag #ProtectTaylorSwift, con el que exigieron que se proteja la imagen de la celebridad.

X falla en la búsqueda de Taylor Swift


Estos montajes cobraron notoriedad en X, y posteriormente en otras plataformas, por lo que la noche de este sábado la red social de Elon Musk falló al buscar el nombre de la cantante.

MILENIO comprobó esta situación poniendo el nombre de Taylor en el buscador de la plataforma, y al dar click apareció el mensaje: "Something went wrong. Try reloading (Algo salió mal. Intenta recargar la página)".

El resultado al poner el nombre de la cantante | Captura

​Las imágenes falsas de Taylor Swift 

Fanáticos de la cantante Taylor Swift, políticos estadunidenses e incluso la Casa Blanca expresaron su indignación por imágenes falsas de la estrella, generadas por inteligencia artificial, que se volvieron virales en la red social X y todavía estaban disponibles en otras plataformas.

Una de esas imágenes fue vista 47 millones de veces en X, antes Twitter, antes de su eliminación el jueves. Según medios estadunidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.

Las imágenes pornográficas deepfake -falsas, pero extremadamente realistas- de celebridades no son nuevas. Pero a activistas y autoridades les preocupa que herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino.

El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno.

"El único lado positivo de que esto le haya sucedido a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que lo elimine. Ustedes están enfermos", escribió la influencer Danisha Carter en X.

Incluso la Casa Blanca expresó su preocupación sobre el tema: "Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas", dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.

"Infortunadamente, con demasiada frecuencia notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales blancos del acoso en línea", añadió.

En un comunicado, X aclaró que "publicar imágenes de desnudos no consensuales (NCN) está estrictamente prohibido" en su plataforma. "Tenemos una política de tolerancia cero hacia ese contenido".

La red social afirmó que estaba "eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas".

Además, resaltó que estaba "vigilando de cerca la situación para garantizar que cualquier otra violación se aborde de inmediato y se elimine el contenido".

Los representantes de Swift no respondieron de inmediato a una solicitud de comentarios de la agencia AFP.



hc

  • Milenio Digital
  • digital@milenio.com
  • Noticias, análisis, opinión, cultura, deportes y entretenimiento en México y el mundo.

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.