La empresa especializada en pruebas de seguridad, Fluid Attacks advirtió que con la inteligencia artificial, los hackers maliciosos han ido mejorando y automatizando técnicas de ataque de ingeniería social como el phishing y han ido incursionando en estrategias más complejas y cautivadoras como los llamados deepfakes, que, apenas hace unos pocos años, comenzaron a marcar tendencia.
De acuerdo con Fluid Attacks, deepfake es un término que tuvo origen en 2017 y, en pocas palabras, se refiere al empleo de inteligencia artificial para crear y modificar contenido de audio y visual con narrativas falsas que parezcan provenir de fuentes auténticas y confiables.
- Te recomendamos Sener publica estatuto orgánico y dirección de Litio para México Negocios
La compañía señaló que si bien fue una práctica que inició con usos recreativos o cómicos, como hacer videos en los que parezca real que un presidente está diciendo cosas ridículas, el deepfake ya se está usando para propósitos perversos.
Por ejemplo, ya han ocurrido casos en los que el deepfake ha permitido a criminales hacerse pasar por directivos de compañías en reuniones virtuales (porque esta tecnología es incluso aplicable en transmisiones en vivo) o a través de mensajes de voz o llamadas para engañar a sus empleados y extraerles información sensible o incitarlos a transferir fondos monetarios. Ya se han visto incidentes en los que los delincuentes solicitan miles e incluso millones de dólares a las víctimas.
El deepfake se desarrolla gracias a redes neuronales, que son algoritmos en cierta medida inspirados en el cerebro humano, que examinan imágenes y sonidos y encuentran patrones necesarios para luego producir material convincente del mismo tipo. Entre más grande sea la base de datos de entrenamiento de dichos algoritmos, más precisos serán estos en su elaboración de deepfakes.
Fluid Attacks advirtió que esta tecnología es cada vez de más fácil acceso, incluso para personas con poco conocimiento técnico , tanto así que ya existe el deepfakes-as-a-service, y lo que es aún más preocupante es que, al parecer, los mecanismos de detección de deepfakes andan algo rezagados.
Acciones
En este contexto, indicó que algunas recomendaciones pueden tenerse en cuenta para prevenir daños por culpa de estos intentos de engaño, tales como entrenar a empleados y usuarios, mantener controles internos de seguridad suficientemente sólidos y prestar mayor atención a las solicitudes y a su autorización.
srgs