Los últimos minutos de la vida de Ian Ezquerra, de 16 años, los pasó en Snapchat. Por fuera, el adolescente era feliz. Pero a medida que aumentaba su uso de las redes sociales, lo mismo ocurría con su ansiedad.
Su madre, Jennifer Mitchell, no sabía que Ian estaba viendo contenidos peligrosos en diversas plataformas que serían inapropiados para adultos. “Hubo cambios sutiles en su comportamiento que no percibí en ese momento. Una de estas cosas fue que dijo algo como: ‘Soy una carga’”, dice Mitchell.
En 2019, encontraron muerto a Ian. La policía registró su deceso como un suicidio, pero Mitchell dice que su hijo murió jugando un oscuro desafío que los potentes algoritmos de las redes sociales pusieron frente a él.
La historia de Ian se suma a la evidencia del deterioro de la salud mental de los niños. Según los Centros para el Control y la Prevención de Enfermedades (CDC, por sus siglas en inglés), el número de suicidios entre personas de 10 a 19 años en Estados Unidos (EU) aumentó 45.5 por ciento entre 2010 y 2020. Un estudio realizado el mes pasado, por el mismo organismo, reveló que casi 1 de cada 3 chicas adolescentes había considerado seriamente quitarse la vida, frente a 1 de cada 5 en 2011.
Muchos padres y legisladores culpan a las redes sociales que, según ellos, están desarrollando productos adictivos, que exponen a los jóvenes a material nocivo que tiene consecuencias en el mundo real. Las plataformas se defienden alegando que su tecnología permite a las personas establecer relaciones beneficiosas para la salud mental.
Sin embargo, algunos académicos señalan que la proliferación de los smartphones, el internet de alta velocidad y las redes sociales están reconfigurando el cerebro de los niños y provocando un aumento de los trastornos alimenticios, la depresión y la ansiedad. “Cuando aparecieron las redes sociales, (los estudios) encontraron la misma historia, que es que la salud mental se está desplomando”, dice Jonathan Haidt, psicólogo social de la Universidad de Nueva York.
Otros argumentan que las pruebas todavía no son definitivas y dicen que la crisis de salud mental de los adolescentes tiene más matices.
La falta de consenso no calma el escrutinio. La familia de Ian interpuso una de las 147 demandas colectivas de responsabilidad presentadas contra Facebook, TikTok y Snapchat.
El litigio se suma a la creciente atención de los legisladores. El presidente Joe Biden acusó a la industria de realizar experimentos con “los niños para obtener utilidades” y quiere que el Congreso apruebe leyes que impidan recopilar datos de menores de edad.
Una mayor regulación de las empresas podría amenazar sus modelos de negocio basados en la publicidad, que para prosperar dependen de un público joven amplio.
45.5 por ciento...
Aumentaron los suicidios entre personas de 10 a 19 años en EU entre 2010 y 2022
Depresión y trastornos alimenticios
La Clínica Carrier de Hackensack Meridian Health está en la primera línea de esta crisis. “Los chicos vienen y hablan de hostigamiento en las redes sociales”, dice Thomas Ricart, jefe de los servicios de Carrier. Aunque los especialistas mantienen la mente abierta, las investigaciones que analizan el vínculo entre las redes sociales y la salud mental son contundentes.
Una revisión de 68 estudios relacionados con el riesgo del uso de las redes sociales en los jóvenes publicada en agosto de 2022, por la revista International Journal of Environmental Research and Public Health, señala que mientras más tiempo pasan los adolescentes en línea, mayores son los niveles de depresión y otras consecuencias adversas, especialmente en los más vulnerables.
Pero otros investigadores rebaten la valoración de Haidt y su coautora habitual Jean Twenge, profesora de psicología de la Universidad Estatal de San Diego, de que existan pruebas definitivas de que las redes sociales son la causa principal de la crisis de salud mental juvenil. Algunos señalan que los adolescentes pueden beneficiarse de las redes sociales, si se usan con moderación.
Los investigadores que quieren profundizar en los efectos de las redes sociales dicen que las respuestas podrían encontrarse en datos muy bien guardados por las empresas, que los utilizan para mejorar sus algoritmos.
El manual de adicciones
Los demandantes en los casos de lesiones personales presentados en el Tribunal Federal de Oakland, California, van a argumentar que las compañías de redes sociales saben que sus productos están dañando la salud mental de los niños y están ocultando esa información.
Alegan que Meta, la matriz propietaria de Facebook e Instagram, y sus rivales TikTok, Snapchat y YouTube, se han inspirado en las técnicas conductuales y neurobiológicas utilizadas por las industrias del tabaco y los juegos de azar, para lograr que los niños se vuelvan adictos a sus productos.
Estas características, que varían de una plataforma a otra, incluyen feeds interminables generados por algoritmos para mantener a los usuarios recorriendo las páginas; recompensas variables intermitentes, que manipulan el mecanismo de suministro de dopamina en el cerebro para intensificar el uso; métricas y gráficas para explotar la comparación social; notificaciones incesantes, que fomentan que se revise constantemente la cuenta; protocolos de verificación de edad inadecuados; y herramientas deficientes para los padres que crean la ilusión de control.
Douglas Westwood, uno de los padres de la demanda, dice que su hija quedó enganchada con Instagram a los pocos meses de recibir su primer smartphone a los nueve años.
El algoritmo bombardeó a la niña con imágenes y videos dañinos, incluidos los que promovían trastornos alimenticios, dice. Su salud mental empeoró y, a los 14 años, había ingresado en una institución para recibir tratamiento por anorexia.
Su hija, que ahora tiene 17 años, se está recuperando, pero sigue enfrentándose a contenidos nocivos, dice Westwood, que añade que no quiere que deje de usar su smartphone porque es la forma como se comunica.
“Cuando (las plataformas de redes sociales) descubrieron cómo monetizar la atención, lo hicieron con una crueldad de la que los niños son el daño colateral”, dice Beeban Kidron, presidenta de la organización benéfica 5Rights Foundation, dedicada a los derechos digitales de los niños.
Como su regulación es poco estricta, las plataformas pueden salirse con la suya con técnicas más invasivas para atraer a los usuarios más jóvenes. En los documentos judiciales se alega que algunos empleados de Meta son conscientes de los efectos nocivos de sus productos, pero ignoraron la información.
También se alega que a Mark Zuckerberg, director ejecutivo de Meta, se le advirtió que la compañía se estaba quedando rezagada a la hora de abordar los problemas de bienestar, incluido el uso excesivo, el hostigamiento y el acoso.
Muchos de estos problemas fueron denunciados por Frances Haugen, exempleada de Facebook, “La compañía tiene miedo de que si son los primeros en actuar y llegan con todas estas medidas de seguridad sobre el uso compulsivo, los problemas de imagen corporal y la depresión, la gente diga: ‘Vaya, Instagram es peligroso. Las redes sociales son peligrosas’”, dice Haugen.
El camino hacia la regulación
Haugen tiene razón cuando Meta refuta la idea de que las redes sociales están alimentando la crisis de salud mental de los adolescentes. “La salud mental es compleja, individualizada... (implica) muchos factores”, dice Antigone Davis, responsable de seguridad de Meta.
Sin embargo, reconoce la necesidad de garantizar una “experiencia segura y positiva” para los usuarios jóvenes, y añade que la compañía desarrolló alrededor de 30 herramientas que incluyen controles parentales, funciones que alientan a los adolescentes a tomar un descanso y tecnología de verificación de la edad.
Meta dice que sus plataformas también eliminan contenidos relacionados con el suicidio, las autolesiones y los trastornos alimenticios. Estas políticas se aplicaron de forma más enérgica después de la muerte de la estudiante británica de 14 años, Molly Russell, que se quitó la vida después de ver miles de publicaciones sobre el suicidio. Desde entonces, la compañía lanzó una configuración predeterminada para menores de 16 años, que reduce la cantidad de contenido sensible que ven y suspendió temporalmente los planes para Instagram Kids, un producto para menores de 13 años.
Otros gigantes empezaron a moverse a medida que la amenaza de regulación cobra fuerza. Snapchat, introdujo controles parentales y desarrolló un centro de bienestar para los usuarios. Mientras que YouTube también “invirtió mucho” en experiencias seguras para los niños, como su aplicación YouTube Kids para menores de 13 años.
TikTok, que ha tenido que lidiar con niños que accidentalmente se hacían daño o en algunos casos se suicidaban como parte de peligrosos retos virales en línea en su plataforma, dice que eliminó este tipo de contenido en los resultados de búsqueda. También anunció que las cuentas de todos los usuarios menores de 18 años tendrán automáticamente un límite de 60 minutos diarios de pantalla, además de controles parentales.
4.8 millones...
De perfiles de Facebook fueron eliminados durante la segunda mitad de 2021, por no cumplir los requisitos de edad mínima
Los cambios no impresionan a Jennifer Mitchell, que ahora hace campaña para aumentar la conciencia sobre los peligros que entrañan las redes sociales desde la muerte de su hijo. Solo las restricciones de edad respaldadas por una verificación efectiva protegerán a los niños, dice.
Otros, como Haidt, creen que las cuentas en las redes sociales deberían prohibirse completamente a los menores de 16 años y reforzarse con mejores programas de verificación de la edad, como Clear, que exige un documento oficial, como el pasaporte o la licencia para conducir.
“Sabemos que no hacen ningún esfuerzo por mantener a los chicos menores de 13 años fuera (de sus plataformas)”, añade Haidt de la Universidad de Nueva York. “Y ahí es donde creo que está su mayor responsabilidad legal”.
Las compañías de redes sociales rebaten esta afirmación. Meta dice que eliminó 1.7 millones de cuentas de Instagram y 4.8 millones de perfiles de Facebook en la segunda mitad de 2021, por no cumplir los requisitos de edad mínima. Por su parte, Snapchat eliminó 700 cuentas de menores de edad entre abril de 2021 y abril de 2022, frente a los cerca de 2 millones de TikTok, según datos que informó Reuters. Snapchat dice que las cifras se sacaron de contexto y “tergiversaron” su trabajo para mantener a los menores de 13 años fuera de la plataforma.
Cualquier fallo que declare a las compañías responsables de muertes y lesiones causadas a niños podría obligar al retiro masivo de contenidos en línea y perjudicar los ingresos.
Aunque la demanda no prospere, centró la atención pública en la salud mental y la seguridad en internet, una de las pocas cuestiones políticas con apoyo bipartidista en Estados Unidos y otros países.
Padres afligidos, como Mitchell, dicen que no dejarán de hacer campaña hasta que se aplique una regulación más estricta. “Si puedo evitar que otro niño y padre experimenten mi horror. Entonces hice lo que tenía que hacer”, dice.
jegb