ChatGPT representa diferentes amenazas cibernéticas, ya que demostró que puede ser usado para generar códigos maliciosos, lo que permite a personas poco calificadas realizar ataques cibernéticos, esto debido a que la inteligencia artificial (IA) puede escribir softwares en diferentes lenguajes de programación, advirtió la compañía de ciberseguridad ESET.
En su artículo titulado ChatGPT: 6 maneras en que los cibercriminales pueden beneficiarse se resalta que éste además es usado para facilitar los ataques phishing, redactando los correos y haciendo que sea más difícil identificar los e-mails que estén infectados.
“La herramienta claramente puede ser utilizada por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales”, explicó Sol González, investigadora de Seguridad Informática de ESET Latinoamérica.
También se destaca que puede usarse para crear noticias falsas, pues solo se le debe solicitar a la inteligencia artificial que redacte una noticia sobre un tema específico y esta hará el resto, aunque este hecho no haya sucedido.
A su vez ayuda al robo de identidad, pues puede redactar mensajes como si fuera un empresa, una sucursal bancaria o una celebridad; en su artículo ESET ejemplifica, de forma exitosa, solicitando que redacte un tweet como si fuera Elon Musk anunciando la venta de Twitter.
Otra de las funciones es la creación de chats maliciosos, esto debido a que ChatGPT es compatible con otros chats, que si bien esto puede tener muchos usos beneficiosos, igualmente puede ser usado para engañar a las personas y realizar estafas a través de otras plataformas.
El último de los usos destacados por ESET es la automatización de procesos de hackeo, pues los ciberdelincuentes deben cumplir tareas repetitivas como ingresar al servidor de una empresa y revisar constantemente que usuarios acceden a esta, pero la IA puede ayudarles a crear comandos que faciliten la búsqueda.
AMP