Facebook publicó por primera vez un balance cifrado de sus esfuerzos para suprimir de su plataforma los contenidos que infringen las reglas de uso, ya sean imágenes de carácter sexual, comentarios de odio o propaganda terrorista.
Según este informe inédito, que se inscribe dentro de los esfuerzos de transparencia del grupo confrontado al escándalo de Cambrige Analytica, 3.4 millones de imágenes violentas fueron suprimidas o acompañadas de una advertencia durante el primer trimestre de 2018, casi el triple que en el trimestre anterior.
- Te recomendamos Facebook enseñará a jóvenes sobre privacidad en internet Tecnología
Un aumento debido principalmente, según la red social, a una mejoría de sus tecnologías de análisis, que recurren cada vez más a la inteligencia artificial. En cerca del 86 por ciento de los casos, estas imágenes fueron detectadas por la red antes de que le fueran señaladas, y representaron menos del 0.3 por ciento de los contenidos visionados en su plataforma entre enero y marzo.
Respecto a las imágenes de desnudez o actividad sexual (con excepción de la pornografía infantil), el grupo dice haber eliminado 21 millones de elementos durante el primer trimestre, tantos como en el precedente. Esto supone menos del 0.1 por ciento de los contenidos visionados, y en casi el 96 por ciento de los casos las imágenes se suprimen antes de cualquier denuncia. A veces con demasiado celo, como cuando la red social censuró obras de arte toleradas por sus reglas como La libertad guiando al pueblo del pintor francés Delacroix.
Respecto a la propaganda terrorista, el grupo confirmó cifras de fin de abril: 1.9 millones de contenidos se suprimieron en el primer trimestre, un 73 por ciento más que en el cuarto trimestre de 2017, gracias a mejoras tecnológicas. Un 99.5 por ciento de los contenidos se eliminaron antes de que se señalaran.
En cambio, Facebook tiene problemas para detectar los mensajes de odio. El grupo dice haber suprimido 2.5 millones de estos mensajes en el primer trimestre (un 56 por ciento más que en el trimestre anterior), pero sólo el 38 por ciento fueron detectados antes de que fueran señalados. Lamentablemente, Facebook no dio ninguna estimación de su prevalencia en la plataforma.
El grupo explica que le cuesta gestionar estos mensajes porque la inteligencia artificial todavía tiene dificultades para separar el grano de la paja. Algunas minorías, por ejemplo, pueden "reapropiarse" de los insultos racistas u homófobos en su contra para denunciarlos, lo que en principio está autorizado por la plataforma. Y sólo los ataques contra las personas están prohibidos, no así los que están dirigidos contra una ideología o una institución.
RL