YouTube lanza protección de identidad con IA: celebridades podrán detectar y eliminar deepfakes

El proyecto estaba inicialmente dirigido a funcionarios de gobierno, pero esta semana YouTube amplió el acceso a la industria del entretenimiento, incluidos actores y músicos.

Una herramienta para proteger a las celebridades. | Pexels
Milenio Entretenimiento y Agencia AFP
Ciudad de México /

Ante la proliferación de deepfakes, contenidos en video, audio o fotos que, mediante inteligencia artificial, usurpan la identidad, YouTube pone a disposición de las celebridades una nueva herramienta gratuita para luchar contra eso.

Con el objetivo de evitar que un rostro aparezca modificado o generado con tecnologías de IA para imitar el de una persona real —como le sucedió a la influencer mexicana Alana Flores—, la plataforma de videos propiedad de Google lanzó el mes pasado su herramienta de protección de la imagen. 

Te recomendamos
¿Qué es 'Deepfake'? Técnica de creación de contenido del que fue víctima Alana Flores

¿Cómo funciona la herramienta de YouTube?

El proyecto estaba inicialmente dirigido a funcionarios de gobierno, candidatos políticos y periodistas. Pero esta semana YouTube amplió el acceso a la industria del entretenimiento, incluidos actores y músicos, a través agencias de talentos y representantes de celebridades.

La herramienta permite "buscar contenidos generados por IA que reproduzcan la apariencia de una persona inscrita, como un 'deepfake' de su rostro, y le da la facultad de localizarlos y solicitar su eliminación".

Las celebridades y los artistas pueden acceder a ella incluso sin disponer de un canal en YouTube.

"El hecho de que YouTube abra sus capacidades de detección de deepfakes a las personalidades públicas marca un punto de inflexión en la manera en que las plataformas abordan la protección de la identidad en la era de la IA generativa", declaró Alon Yamin, director ejecutivo y cofundador de la plataforma Copyleaks de detección de contenido de IA.

Añadió: "La tecnología que permite reproducir el rostro, la voz y los gestos de una persona ha avanzado más rápido que las salvaguardas que la rodean, creando una brecha que actores malintencionados ya están explotando".

Imagen ilustrativa 'deepfake'. | Pexesl

Casos cada vez más abundantes

La iniciativa llega en un momento en que se multiplican los vídeos hiperrealistas de celebridades fallecidas, como Michael Jackson o Elvis Presley, creados con aplicaciones de uso general como Sora, la herramienta de OpenAI. 

El mes pasado, OpenAI anunció que cerraría su aplicación Sora.

En febrero, el director irlandés Ruairí Robinson creó un clip sorprendentemente realista que mostraba a Brad Pitt luchando contra Tom Cruise en una azotea mediante una instrucción de dos frases.

El clip, que provocó gran inquietud en Hollywood, fue generado con Seedance 2.0, una herramienta perteneciente al grupo chino ByteDance.

Robinson también creó otros videos: uno en el que Pitt lucha contra un zombi ninja armado con una espada, y otro en el que se une a Cruise para combatir a un robot.

Charles Rivkin, presidente de la Motion Picture Association (MPA) que agrupa a los grandes estudios de producción estadunidenses, instó a ByteDance a "cesar inmediatamente sus actividades de falsificación", acusándola de pisotear la los derechos de autor.

YouTube dijo que estaba trabajando con las principales agencias de talentos para mejorar la detección de imágenes problemáticas y proteger mejor a los artistas.

Riesgos de los deepfakes de artistas

YouTube "hace lo correcto al proporcionar estas herramientas gratuitamente a los talentos, para que puedan

proteger su patrimonio

", señaló Jason Newman, de la empresa de representación y producción Untitled Entertainment.

"Su patrimonio es su rostro, su cuerpo, quiénes son, lo que hacen, su forma de expresarse", añadió en una entrevista con la revista Hollywood Reporter.

El desarrollo de la herramienta se produce tras las quejas de destacadas personalidades estadunidenses que denunciaban lo engorroso del procedimiento en YouTube para señalar y retirar un deepfake.

"Los riesgos son especialmente elevados porque los deepfakes pueden utilizarse para difundir desinformación, manipular los mercados, dañar reputaciones o hacer creer en un apoyo engañoso. Una detección robusta ya no es opcional", explicó el responsable de Copyleaks.

Apuntó: "Los sistemas de detección deben ser extremadamente precisos, actualizarse continuamente y estar asociados a normas claras y procedimientos de retirada rápidos para ser eficaces".

"Esto no eliminará por completo los deepfakes, pero puede reducir considerablemente su alcance y su impacto, al dificultar la circulación de contenidos manipulados sin ser detectados o cuestionados", argumentó Yamin.
Imagen ilustrativa| Pexels


​hc

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.

Suscríbete al
periodismo con carácter y continua leyendo sin límite