Un algoritmo de Facebook analizará tendencias suicidas

La herramienta de inteligencia artificial, aprenderá a detectar si alguien está contemplando el suicidio para acercarlo con especialistas para ayudarlo. 

Con la red social, también participan Mozilla y el Graduate School of Journalism de NY.
Editorial Milenio
Washington, EU /

Facebook pondrá en marcha una nueva herramienta de inteligencia artificial para ayudar a usuarios que puedan estar contemplando el suicidio mientras usan la plataforma, con objeto de evitar que den ese paso, informó Mark Zuckerberg a través de una publicación en su página en la red social.

La compañía buscará reconocer patrones en las publicaciones y en los videos en directo de los usuarios que sugieran que un persona está considerando la opción de acabar con su vida, tal y como señaló la empresa en un comunicado.

TE RECOMENDAMOS: ¿Cómo hace Facebook para volverte adicto a él?

Según el vicepresidente de Gestión Productiva de Facebook, Guy Rosen, también mejorarán los mecanismos de identificación de quienes serían los primeros en responder ante un caso así, y añadirán más investigadores en su equipo para informar de suicidios y autolesiones.

Las técnicas, que ya están siendo probadas en usuarios, incluyen un nuevo algoritmo para detectar situaciones que, hasta ahora, pasaban desapercibidas.

Facebook, que lleva más de diez años trabajando en la prevención del suicidio, indicó que pretende que la herramienta esté disponible no sólo en territorio estadunidense, sino también en la mayoría de países del mundo, salvo la Unión Europea (UE).

"Podemos conectar a una persona angustiada con alguien que pueda apoyarla", afirmó Rosen, quien aseguró que en las labores de prevención se analizan la aparición de comentarios como "¿estás bien?" o una gran cantidad de respuesta de los usuarios ante la emisión de un vídeo.

Con el mismo fin, la compañía ya contrató en marzo a tres mil personas para revisar el contenido que pudiera estar relacionado con el crimen o el suicidio, que se añadieron a los cuatro mil 500 que trabajaban en Facebook para evitar prácticas que violaran sus estándares.

La empresa intenta atajar casos como el ocurrido el pasado abril, cuando un tailandés retransmitió en directo a través de la red social cómo mataba a su hija de 11 meses y posteriormente se suicidaba, un vídeo que después fue eliminado por la plataforma.


mrf

LAS MÁS VISTAS