Youtube anunció que eliminó 7.8 millones de videos, 224 millones de comentarios y 1.6 millones de canales por violar su política de contenido en el periodo de julio a septiembre de este año.
Gran parte de este contenido fue eliminado porque violaba las normas de la plataforma sobre contenido adulto (sexo) y spam. Según los datos hechos públicos en su informe trimestral, el 90 por ciento de los canales y el 80 por ciento de los videos eliminados en septiembre correspondieron a estas razones.
- Te recomendamos Los videos más populares de 2018 en YouTube Tecnología
¿Cómo detecta estos videos?
Youtube utiliza un sistema de control que combina personas que revisan el contenido y tecnología de aprendizaje automático. Esta última ha sido la responsable de la detección del 81 por ciento de los videos eliminados y, esta rápida detección, consiguió que el 74.5 por ciento nunca llegara a recibir visitas.
Los videos eliminados en septiembre por razones de protección de la infancia y violencia extrema, dos áreas con categoría especial para la plataforma, fueron vistos menos de diez veces, gracias a este sistema de control combinado.
En el caso de los comentarios eliminados - un total de 224 millones, el 99 por ciento también fue detectado por inteligencia artificial. En su mayoría fue retirado por estar considerado spam y, según la compañía, supone un mínimo porcentaje de los miles de millones de comentarios que se comparten cada año en la plataforma.
El debate sobre la prolifera del discurso de odio, el acoso y el contenido terrorista en internet ha forzado a los gigantes tecnológicos como Facebook, Twitter y Google a incrementar sus esfuerzos en controlar los contenidos sus plataformas.
mrf