Así es el sistema de Facebook para detectar pornografía infantil

El sistema, apoyado en la inteligencia artificial, es capaz de identificar a un solo niño entre un mar de imágenes de desnudos.

Facebook cerró 68 páginas y 43 cuentas asociadas con el grupo Raposo Fernandes Associados. (Reuters)
Editorial Milenio
San Francisco /

Facebook anunció que eliminó en el último trimestre 8.7 millones de imágenes de usuarios con desnudos infantiles gracias a la ayuda de un software que detecta automáticamente este tipo de fotos.

La herramienta de aprendizaje automático implementada el año pasado identifica imágenes que contienen desnudos y un niño, lo que permite un mayor cumplimiento de la prohibición de Facebook de exhibir fotos que muestren a menores en un contexto sexualizado.

Un sistema similar también reveló la detección de usuarios involucrados en intentar hacerse amigos de menores para la explotación sexual, una práctica conocida como grooming o ciberacoso.

La jefe de seguridad global de Facebook, Antigone Davis, dijo a Reuters en una entrevista que la "máquina nos ayuda a priorizar" y "organizar de manera más eficiente" el contenido problemático para el equipo de supervisores de la compañía, que está analizando la utilización de la misma tecnología a su aplicación Instagram.


Presionado por reguladores y legisladores, Facebook ha prometido acelerar la eliminación del material considerado radical e ilícito. Los programas de aprendizaje automático que analizan las miles de millones de publicaciones diarias de los usuarios son esenciales para el éxito de su plan.

El aprendizaje automático es imperfecto y las agencias de noticias y los patrocinadores se encuentran entre los que se han quejado este año de los sistemas automatizados de Facebook que bloquean erróneamente sus publicaciones.

Davis dijo que los sistemas de seguridad infantil cometen errores, pero los usuarios pueden apelar.

"Preferimos errar por el lado de la precaución con los niños", sostuvo.

Durante años, las reglas de Facebook han prohibido incluso fotos familiares de niños con poca ropa subidas con "buenas intenciones", preocupado por cómo otros podrían abusar de esas imágenes.


mrf

LAS MÁS VISTAS