Facebook Papers: cuatro hallazgos sobre omisiones

La ex empleada Frances Haugen desató un escándalo con miles de archivos donde se muestra que la red social no hace lo suficiente para garantizar la seguridad de sus 2 mil 900 millones de usuarios

Entre los problemas está la incapacidad para moderar los discursos de odio y la violencia. Bruna Prado/AP
HANNAH MURPHY
Londres /

Facebook está luchando contra su crisis más grave desde el escándalo de Cambridge Analytica, después de que un denunciante que acusó a la compañía de anteponer “las utilidades sobre la seguridad” arrojó una luz sobre su funcionamiento interno a través de miles de páginas de memorandos filtrados.

Los documentos se entregaron a reguladores estadunidenses y se proporcionaron al Congreso en una versión redactada por el asesor jurídico de la ex gerente de Facebook Frances Haugen. Un consorcio de organizaciones de noticias, entre ellos Financial Times, obtuvo el texto dado al legisladores.

A principios de este mes, Haugen testificó en el Congreso que la firma de redes sociales no hace lo suficiente para garantizar la seguridad de sus 2 mil 900 millones de usuarios, le resta importancia al daño que puede causar a la sociedad y engañó en repetidas ocasiones a los inversionistas y al público. Wall Street Journal también publicó una serie de artículos llamados Facebook Files (Archivos Facebook).

A continuación cuatro revelaciones de los documentos.

 

Problema de idioma

A menudo se acusa a Facebook de no moderar el discurso de odio en sus sitios en inglés, pero el problema es mucho peor en países que hablan otros idiomas, incluso después de que prometió invertir más después de que se le culpó por su papel en la facilitación del genocidio en Birmania en 2017.

En un documento de 2021 se advirtió sobre su muy bajo número de moderadores de contenido en dialectos árabes. En otro estudio en Afganistán, donde Facebook tiene 5 millones de usuarios, se encontró que las páginas que explicaban cómo denunciar el discurso de odio se tradujeron de forma incorrecta.

Las fallas ocurrieron a pesar de que la propia investigación de Facebook marcó a algunos de los países como de “alto riesgo” debido a su frágil panorama político y la frecuencia de los discursos de odio.

De acuerdo con un documento, la firma asignó 87 por ciento del presupuesto para desarrollar algoritmos de detección de desinformación a Estados Unidos en 2020, frente a 13 por ciento para el resto del mundo.

Haugen dijo que Facebook debe ser transparente sobre los recursos que tiene por país y por idioma.

Función de sus algoritmos

En varios documentos se muestra a Facebook perplejo por sus propios algoritmos. En un memorando de septiembre de 2019 se encontró que los hombres recibían hasta 64 por ciento más publicaciones políticas que las mujeres en “casi todos los países”, y el problema era importante en los países africanos y asiáticos.

Si bien era más probable que los hombres siguieran cuentas que producen contenido político, en el memorando se lee que los algoritmos de clasificación de feeds de Facebook también desempeñó un papel importante.

En un memorando de junio de 2020 se encontró que estaba “prácticamente garantizado” que los “sistemas principales de Facebook mostraban sesgos sistémicos con base en la raza del usuario afectado”.

El autor sugirió que quizá la clasificación de los feeds de noticias está más influenciada por las personas que comparten con frecuencia que por las que comparten y participan con menos frecuencia, lo que puede correlacionarse con la raza. Eso da como resultado que se le dé prioridad al contenido de ciertas razas sobre otras.

Cuando su inteligencia artificial falló, Facebook dificultó las denuncias sobre el discurso de odio

Facebook afirma desde hace mucho tiempo que sus programas de inteligencia artificial pueden detectar y eliminar el discurso de odio y maltrato, pero los archivos muestran sus límites.

De acuerdo con una nota de marzo de un grupo de investigadores, la firma toma medidas en entre 3 y 5 por ciento de los discursos de odio y 0.6 por ciento de contenido violento. En otro memorando se sugiere que es posible que nunca logre ir más allá de 10 a 20 por ciento, debido a que es “extraordinariamente difícil” para la inteligencia artificial comprender el contexto del lenguaje.

Sin embargo, Facebook ya había decidido en 2019 depender más de la inteligencia artificial y recortar el dinero que gastaba en moderación por parte de humanos en lo que respecta al discurso del odio. En particular, la firma dificultó las denuncias y las apelaciones de decisiones sobre los discursos de odio. 

Sobre el discurso de odio, Facebook indicó que su “objetivo es reducir su preponderancia, que es la cantidad que la gente realmente ve”. Agregó que esto representa solo 0.5 por ciento de lo que ven los usuarios, una cifra que ya se redujo en 50 por ciento en los últimos tres trimestres.

Incendio en el Capitolio

Los documentos revelan las dificultades de Facebook para contener la explosión de discursos de odio y desinformación en su plataforma alrededor de los disturbios del 6 de enero en Washington, lo que provocó agitación interna.

En los memorandos se muestra que la firma desactivó ciertas salvaguardas de emergencia a raíz de las elecciones de noviembre de 2020, solo para batallar para volver a activar algunas cuando la violencia estalló. En una evaluación interna se encontró que la implementación de las medidas se vio obstaculizada por la espera de la aprobación del equipo de políticas.

Incluso las acciones proactivas no lograron el efecto deseado. En octubre de 2020, Facebook anunció que dejará de recomendar “grupos cívicos”, que discuten temas sociales y políticos. Sin embargo, debido a las dificultades técnicas para implementar el cambio, a 3 millones de usuarios estadunidenses se les recomendaba al menos uno de los 700 mil grupos cívicos identificados diario entre mediados de octubre de 2020 y mediados de enero de 2021.

La respuesta

Facebook no quiso hacer comentarios sobre algunos detalles de las acusaciones, en su lugar aseguró que no antepone las utilidades sobre la seguridad o bienestar de las personas y que “la verdad es que invertimos 13 mil millones de dólares y tenemos más de 40 mil personas para hacer un trabajo: mantener a la gente segura en Facebook”.


LAS MÁS VISTAS