La empresa de ciberseguridad, ESET, advirtió que como toda herramienta de uso masivo, ChatGPT resulta un blanco muy atractivo para los actores maliciosos, ya sea para utilizarla con fines criminales, como suplantar su identidad y engañar a personas desprevenidas.
“Probablemente esta tendencia continuará y no llamará la atención que se sigan viendo casos donde se intente explotar vulnerabilidades o realizar fraudes en su nombre. Tal como sucede con los avances tecnológicos en general, todo depende de la intención u objetivo con que se usen”, refirió el jefe del Laboratorio de Investigación de ESET Latinoamérica, Camilo Gutiérrez.
De acuerdo con información de la compañía, quizás todavía sea prematuro medir el impacto de la inteligencia artificial y de ChatGPT, “que se convierta en su mejor aliado o en su peor enemigo, como siempre, está en nuestras manos.”, señaló el especialista de ESET.
¿Cuáles son los riesgos de ChatGPT?
La compañía indicó que más allá del debate del impacto que puede generar la utilización de la inteligencia artificial como una herramienta más en la educación, hay un tema que es ineludible, el de la seguridad.
De hecho, apuntó, son varios los países en los que ChatGPT no se encuentra disponible en línea con las leyes regulatorias vinculadas a internet; por ejemplo, Italia fue el país pionero en occidente en prohibirlo, debido a las preocupaciones y dudas respecto de la privacidad y el uso de los datos; y prometió investigar si cumplía o no con el Reglamento General de Protección de Datos.
En marzo de este año, abundó, un fallo en una librería de código abierto expuso el historial de preguntas de otros usuarios, además de información de pago de suscriptores a ChatGPT Plus.
ESET precisó que esto resulta relevante porque desde el lanzamiento de ChatGPT, fueron más de 100 mil millones de personas las que ingresaron para obtener algún tipo de respuesta del chatbot y las empresas, en la actualidad, lo utilizan para responder consultas de usuarios, redactar correos electrónicos, setear reuniones, por solo citar algunas.
MRA