¿Cómo te quedó el ojo, chato? Así 'revivieron' a Cantinflas para comercial

Tras el éxito de su nueva campaña protagonizada por Mario Moreno, Soriana compartió el detrás de cámaras para revivir al icónico actor y comediante.

El detrás de cámaras del comercial de Soriana protagonizado por Mario Moreno 'Cantinflas' (Especial)
Ciudad de México /

Hace unas semanas, Soriana presentó un comercial de un minuto en el que aparece Cantinflas hablando sobre lo que significa ser mexicano y qué lo llena de orgullo. Sin embargo, se trató de un trabajo realizado gracias a la magia del deepfake, término que hace referencia a videos manipulados usando técnicas de inteligencia artificial.

"¿Qué hubo, chatos? ¿Saben qué me llenó de orgullo siempre? Ser mexicano. Porque todos los mexicanos tenemos ese no sé qué que qué se yo que nos hace bien diferentes, pero bien mexicanos", dice el supuesto Mario Moreno en el spot. Recientemente, la cadena de supermercados compartió del proceso para crearlo.

Así 'revivieron' a Cantinflas

En un video compartido en su canal oficial de YouTube, Soriana mostró el detrás de cámaras de su nueva campaña, la cual fue realizada por la agencia de publicidad Ferrer, la casa productora Malasaña y la postproductora Metropolitana.

De acuerdo con el metraje, juntaron cientos de escenas y clips originales del actor y comediante fallecido el 20 de abril de 1993 en la Ciudad de México. Del material disponible se extrajeron todos los fotogramas. Entre más fuentes audiovisuales, más real fue el resultado. Además, se observa cómo utilizaron a un imitador para hacer los gestos que se ven en el comercial.

"Esta técnica de realización se llama Deepfake. Mediante inteligencia artificial se crean videos hiperrealistas. Así, Soriana innova para rendir un homenaje a los mexicanos, a través de un mexicano universal", se lee en el making of.

Deepfake

Los deepfake son videomontajes hiperrealistas que se están convirtiendo en algo casi habitual, porque empieza a ser fácil crearlos. Una práctica que tiene aspectos divertidos, pero también peligrosos por su capacidad para suplantar identidades.

Se crean al falsificar la cara y voz de una persona en archivos de video y audio usando inteligencia artificial, con una calidad que hace difícil diferenciar realidad de ficción.

Con esta técnica es posible ver y oír decir al ex presidente de Estados Unidos Barack Obama (2009-2017) arremeter contra su sucesor, Donald Trump, (2017-2021); escuchar un discurso falso del presidente de Rusia, Vladímir Putin, etcétera.

CAR

  • Milenio Digital
  • digital@milenio.com
  • Noticias, análisis, opinión, cultura, deportes y entretenimiento en México y el mundo.

LAS MÁS VISTAS