El caso de Molly Russell, una adolescente británica de 14 años que se quitó la vida el 21 de noviembre de 2017 ahora se convirtió en el primer caso en el que empresas tecnológicas que representan a las redes sociales participan de un proceso legal relacionado con el suicidio de un usuario.
Todo inició luego de que su padre la encontrara sin vida en su habitación. El hombre no se explicaba la muerte de su hija que apenas comenzaba a vivir y se dedicó a investigar las posibles razones de su decisión y se encontró con varios elementos que apuntaban a una responsabilidad directa de las redes sociales. Al revisar los correos electrónicos de la adolescente, Ian Russell se dio cuenta de su influencia en los pensamientos de su hija, puesto que ella consumió durante mucho tiempo contenido relacionado a la tristeza y a la depresión.
Lea: The Lycra actualizará su programa de sostenibilidad con metas hasta 2030
El primer indicio para culpar a las redes fue un correo proveniente de la red social Pinterest que tenía de asunto “Pins de depresión que te pueden gustar”.
Eso lo sorprendió, por lo que siguió indagando y se dio cuenta de que su hija durante los seis meses anteriores a su muerte había reaccionado a más de 2.000 publicaciones relacionadas con la depresión, las autolesiones y el suicidio.
Tras cinco años de lo sucedido, las autoridades británicas llamaron a declarar a Instagram y Pinterest por el tipo de contenido que Molly habría estado consumiendo. ¿Por qué no había ninguna restricción en estas publicaciones?
Se debe mencionar que las empresas tecnológicas no fueron llamadas para presentar multas o sanciones como un juicio penal o civil sino a debates forenses para determinar las causas por las que Molly se habría quitado la vida.
Los de la vista gorda
Con este caso se reabrió el debate sobre la responsabilidad que tienen estas plataformas en las alteraciones de la salud mental de niños y jóvenes que están en las redes.
En 2021, la compañía Meta atravesó una de sus peores crisis éticas, luego de que Frances Haugen, exempleada de la compañía, revelara datos alarmantes sobre la empresa, al decir que en Instagram trabajaban con algoritmos tóxicos que enviaban a niños y adolescentes, porque era más adictivo.
Ella denunció que esto le costaba la vida a muchas personas y a ellos no les importaba porque generaban ganancias. Además, informó que Meta hacía poco por controlar el crimen organizado.
Infórmese: Inclusión financiera mejora sustancialmente en Colombia
Los documentos revelados por Haugen nutrieron una investigación periodística de The Wall Street Journal que concluyó que un 13 % de las jóvenes británicas, como Molly Russell, y un 6 % de las estadounidenses, habían tenido pensamientos suicidas.
“Las grandes empresas de tecnología tienen departamentos de psicometría y de biología para hacer una lectura psicológica y en el caso de Meta se dieron cuenta de que la adicción se da a través de la vulnerabilidad. Por eso este tipo de contenidos es el más adictivo”, explica Paola Hincapié, directora de contenidos en Agencia El Grifo.
Hincapié insiste en que el llamado de atención es para los entes reguladores del mundo para que creen reglamentos sobre los contenidos que circulan por redes. Sin embargo, ella sabe que eso es difícil, porque el contenido triste, depresivo y ansioso es uno de los que más consumen y a las empresas les gusta ganar dinero.
“El reglamento de la Unión Europea es el más actualizado en estos temas digitales, pero en Latinoamérica casi no se habla de esto, porque todavía no se comprende muy bien lo que es un algoritmo y la influencia que puede tener en los niños y jóvenes”, agrega.
Los especialistas en redes sociales y los de salud coinciden en que el algoritmo influye en los niños y jóvenes y el contenido que consumen son definitivos en al momento de tomar decisiones, como en el caso de Molly Russell.
¿Cómo influye?
Los niños y adolescentes están en proceso de construcción de la personalidad y el contenido que ven influye en su percepción del mundo y de su formación como personas. Verónica Echeverry, psicóloga de Uniremington, comenta que las edades más sensibles frente al contenido nocivo son los que están pasando de la niñez a la adolescencia y tienen características particulares. “Son niños que están solos, que no tienen una niñez tranquila y que sus papás han estado ausentes o no los han acompañado en sus miedos, sus dudas, sus frustraciones. Son personas inseguras”.
La responsabilidad de las redes sociales en la salud mental es significativa. “Los tipos de contenido a los que accede, la información sin contexto, invitaciones a publicar contenido privado e íntimo, sensación de estar siendo evaluados, son factores de riesgo para el desarrollo de problemas de autoestima, adicciones, depresión, trastornos de ansiedad y conductas suicidas”, agrega Cristóbal Ovidio Muñoz, psicólogo PhD en epidemiología.
Esté alerta si su hijo pasa mucho tiempo en redes sociales, si tiene conductas retraídas, si está solitario o preocupado, si presenta problemas de sueño, bajo rendimiento académico o abandona sus actividades de ocio o no quiere compartir con su familia.
Le puede interesar: Banco de la República aumentó la tasa de interés a 11%
¿Qué hacer?
El contenido de algunas aplicaciones y redes sociales puede ser controlado por los padres. De los más “seguros” son Facebook (Meta) por la cantidad de exigencias que le han hecho a Mark Zuckerberg después de los escándalos, dice Paola Hincapié, y los más inseguros ahora son TikTok y Telegram. No hay filtros en estas redes.
El llamado de los psicólogos es a estar pendientes de lo que consumen los niños y adolescentes, que investiguen las redes antes de dejarlos entrar, definir horarios para su consumo y preferiblemente estar presentes. Es importante que no haya una prohibición sino enseñarles a usar bien estas herramientas. Recuerde que entre más lo prohiba, más interés suscita. Es importante que ellos puedan tener dudas, que se frustren y se cuestionen.
No se trata de ser permisivos, pero tampoco prohibirles el acceso la información. Es mirar qué tipo de contenido consumen y hablarlo, porque la mirada de los adultos es importante. Además que cada vez hay más retos. Con tendencias como el Metaverso se está desfigurando la percepción que tienen los usuarios de sí mismos, porque los muñecos se ven diferentes y después se ven en el espejo y no se reconocen. Es fundamental que los niños y jóvenes sepan que ese mundo no es la realidad.
¿Y en lo legal realmente qué responsabilidad tienen las redes?
Diego Buitrago, coordinador de la Especialización en Derecho Informático y de las Tecnologías de la Facultad de Derecho del CES, dice que es difícil desde una perspectiva legal atribuirles cargos a las redes sociales por el suicidio o las autolesiones de un usuario porque estas son públicas y no están bajo un estado determinado. La responsabilidad, en términos legales, sería de las personas que han compartido este contenido directamente. La única responsabilidad sería la ética, de ofrecer vías de ayuda psicológica para los usuarios que detecten estén deprimidos. Algunas ya lo hacen: Google no muestra información si una persona en el buscador intenta encontrar la manera de suicidarse. Antes le recomienda que busque ayuda psicológica.
Fuente: El Colombiano.
Gracias por valorar La Opinión Digital. Suscríbete y disfruta de todos los contenidos y beneficios en: http://bit.ly/SuscripcionesLaOpinion