Luego de que en X (antes Twitter) circularon imágenes generadas con inteligencia artificial donde Taylor Swift luce desnuda, este sábado usuarios de la plataforma reportaron un fallo al buscar el nombre de la cantante estadunidense.
Esto ocurre luego de que en la red social miles de fans de la artista hicieron tendencia el hashtag #ProtectTaylorSwift, con el que exigieron que se proteja la imagen de la celebridad.
- Te recomendamos Taylor Swift es víctima de 'deepfake'; generan imagen explícitas con IA: "No puedo creerlo" Famosos
X falla en la búsqueda de Taylor Swift
Estos montajes cobraron notoriedad en X, y posteriormente en otras plataformas, por lo que la noche de este sábado la red social de Elon Musk falló al buscar el nombre de la cantante.
MILENIO comprobó esta situación poniendo el nombre de Taylor en el buscador de la plataforma, y al dar click apareció el mensaje: "Something went wrong. Try reloading (Algo salió mal. Intenta recargar la página)".
Las imágenes falsas de Taylor Swift
Fanáticos de la cantante Taylor Swift, políticos estadunidenses e incluso la Casa Blanca expresaron su indignación por imágenes falsas de la estrella, generadas por inteligencia artificial, que se volvieron virales en la red social X y todavía estaban disponibles en otras plataformas.
Una de esas imágenes fue vista 47 millones de veces en X, antes Twitter, antes de su eliminación el jueves. Según medios estadunidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.
Las imágenes pornográficas deepfake -falsas, pero extremadamente realistas- de celebridades no son nuevas. Pero a activistas y autoridades les preocupa que herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino.
El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno.
"El único lado positivo de que esto le haya sucedido a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que lo elimine. Ustedes están enfermos", escribió la influencer Danisha Carter en X.
Incluso la Casa Blanca expresó su preocupación sobre el tema: "Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas", dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.
"Infortunadamente, con demasiada frecuencia notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales blancos del acoso en línea", añadió.
En un comunicado, X aclaró que "publicar imágenes de desnudos no consensuales (NCN) está estrictamente prohibido" en su plataforma. "Tenemos una política de tolerancia cero hacia ese contenido".
La red social afirmó que estaba "eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas".
Además, resaltó que estaba "vigilando de cerca la situación para garantizar que cualquier otra violación se aborde de inmediato y se elimine el contenido".
Los representantes de Swift no respondieron de inmediato a una solicitud de comentarios de la agencia AFP.
hc