El uso de la inteligencia artificial (IA) continúa expandiéndose y el Banco de Desarrollo de América Latina (CAF) estima que las inversiones en esta herramienta en el sector salud a escala global superarán los 36 mil millones de dólares para 2025.
Sin embargo, pese al avance tecnológico, la IA representa un riesgo para la información, privacidad y seguridad de los datos en laboratorios, advirtió Medu Protection, startup mexicana de indumentaria sustentable. Existe riesgo de que los datos personales puedan ser robados, indicó la empresa en un comunicado.
Tamara Chayo, CEO y fundadora de Medu Protection, resaltó que los laboratorios que utilicen IA deben asegurarse que el uso de esta tecnología tenga más beneficios que riesgos. En el caso de la detección de enfermedades, si la información es mal interpretada puede ocasionar un mal diagnóstico y en consecuencia el tratamiento incorrecto.
Para evitar lo anterior, la directiva recomienda un constante entrenamiento y mantenimiento de los algoritmos para evitar análisis y diagnósticos erróneos dentro del sector salud. De lo contrario, afirmó, pueden generar consecuencias adversas para los pacientes, entre ellas las económicas.
Señaló que la Unesco publicó una recomendación alusiva a la IA con el fin de promover esta herramienta digital de manera responsable, inhibiendo su uso malicioso o con fines que fomenten la desigualdad o divisiones.
Para la CEO de Medu Protection existen tres riesgos en el uso de esta herramienta: la dependencia excesiva en ésta porque los sistemas pueden fallar, provocando contratiempos en las empresas; los sesgos en la información que influirán en las decisiones médicas de tratamientos o diagnósticos, y la privacidad y seguridad de los datos pues si éstos no están debidamente protegidos la información puede ser robada, filtrada o mal usada.
AMP