<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=378526515676058&amp;ev=PageView&amp;noscript=1">
x
language COL arrow_drop_down

Instagram y Pinterest llamados a hablar por primera vez de salud mental en la corte británica

Es una audiencia en la que Instagram y Pinterest deben responder si tuvieron que ver con un suicidio.

  • Instagram y Pinterest llamados a hablar por primera vez de salud mental en la corte británica
01 de noviembre de 2022
bookmark

El caso de Molly Russell, una adolescente británica de 14 años que se quitó la vida el 21 de noviembre de 2017 ahora se convirtió en el primer caso en el que empresas tecnológicas que representan a las redes sociales participan de un proceso legal relacionado con el suicidio de un usuario.

Todo inició luego de que su padre la encontrara sin vida en su habitación. El hombre no se explicaba la muerte de su hija que apenas comenzaba a vivir y se dedicó a investigar las posibles razones de su decisión y se encontró con varios elementos que apuntaban a una responsabilidad directa de las redes sociales. Al revisar los correos electrónicos de la adolescente, Ian Russell se dio cuenta de su influencia en los pensamientos de su hija, puesto que ella consumió durante mucho tiempo contenido relacionado a la tristeza y a la depresión.

El primer indicio para culpar a las redes fue un correo proveniente de la red social Pinterest que tenía de asunto “Pins de depresión que te pueden gustar”.

Eso lo sorprendió, por lo que siguió indagando y se dio cuenta de que su hija durante los seis meses anteriores a su muerte había reaccionado a más de 2.000 publicaciones relacionadas con la depresión, las autolesiones y el suicidio.

Tras cinco años de lo sucedido, las autoridades británicas llamaron a declarar a Instagram y Pinterest por el tipo de contenido que Molly habría estado consumiendo. ¿Por qué no había ninguna restricción en estas publicaciones?

Se debe mencionar que las empresas tecnológicas no fueron llamadas para presentar multas o sanciones como un juicio penal o civil sino a debates forenses para determinar las causas por las que Molly se habría quitado la vida.

Los de la vista gorda

Con este caso se reabrió el debate sobre la responsabilidad que tienen estas plataformas en las alteraciones de la salud mental de niños y jóvenes que están en las redes.

En 2021, la compañía Meta atravesó una de sus peores crisis éticas, luego de que Frances Haugen, exempleada de la compañía, revelara datos alarmantes sobre la empresa, al decir que en Instagram trabajaban con algoritmos tóxicos que enviaban a niños y adolescentes, porque era más adictivo.

Ella denunció que esto le costaba la vida a muchas personas y a ellos no les importaba porque generaban ganancias. Además, informó que Meta hacía poco por controlar el crimen organizado.

Los documentos revelados por Haugen nutrieron una investigación periodística de The Wall Street Journal que concluyó que un 13 % de las jóvenes británicas, como Molly Russell, y un 6 % de las estadounidenses, habían tenido pensamientos suicidas.

“Las grandes empresas de tecnología tienen departamentos de psicometría y de biología para hacer una lectura psicológica y en el caso de Meta se dieron cuenta de que la adicción se da a través de la vulnerabilidad. Por eso este tipo de contenidos es el más adictivo”, explica Paola Hincapié, directora de contenidos en Agencia El Grifo.

Hincapié insiste en que el llamado de atención es para los entes reguladores del mundo para que creen reglamentos sobre los contenidos que circulan por redes. Sin embargo, ella sabe que eso es difícil, porque el contenido triste, depresivo y ansioso es uno de los que más consumen y a las empresas les gusta ganar dinero.

“El reglamento de la Unión Europea es el más actualizado en estos temas digitales, pero en Latinoamérica casi no se habla de esto, porque todavía no se comprende muy bien lo que es un algoritmo y la influencia que puede tener en los niños y jóvenes”, agrega.

Los especialistas en redes sociales y los de salud coinciden en que el algoritmo influye en los niños y jóvenes y el contenido que consumen son definitivos en al momento de tomar decisiones, como en el caso de Molly Russell.

¿Cómo influye?

Los niños y adolescentes están en proceso de construcción de la personalidad y el contenido que ven influye en su percepción del mundo y de su formación como personas. Verónica Echeverry, psicóloga de Uniremington, comenta que las edades más sensibles frente al contenido nocivo son los que están pasando de la niñez a la adolescencia y tienen características particulares. “Son niños que están solos, que no tienen una niñez tranquila y que sus papás han estado ausentes o no los han acompañado en sus miedos, sus dudas, sus frustraciones. Son personas inseguras”.

La responsabilidad de las redes sociales en la salud mental es significativa. “Los tipos de contenido a los que accede, la información sin contexto, invitaciones a publicar contenido privado e íntimo, sensación de estar siendo evaluados, son factores de riesgo para el desarrollo de problemas de autoestima, adicciones, depresión, trastornos de ansiedad y conductas suicidas”, agrega Cristóbal Ovidio Muñoz, psicólogo PhD en epidemiología.

Esté alerta si su hijo pasa mucho tiempo en redes sociales, si tiene conductas retraídas, si está solitario o preocupado, si presenta problemas de sueño, bajo rendimiento académico o abandona sus actividades de ocio o no quiere compartir con su familia.

¿Qué hacer?

El contenido de algunas aplicaciones y redes sociales puede ser controlado por los padres. De los más “seguros” son Facebook (Meta) por la cantidad de exigencias que le han hecho a Mark Zuckerberg después de los escándalos, dice Paola Hincapié, y los más inseguros ahora son TikTok y Telegram. No hay filtros en estas redes.

El llamado de los psicólogos es a estar pendientes de lo que consumen los niños y adolescentes, que investiguen las redes antes de dejarlos entrar, definir horarios para su consumo y preferiblemente estar presentes. Es importante que no haya una prohibición sino enseñarles a usar bien estas herramientas. Recuerde que entre más lo prohiba, más interés suscita. Es importante que ellos puedan tener dudas, que se frustren y se cuestionen.

No se trata de ser permisivos, pero tampoco prohibirles el acceso la información. Es mirar qué tipo de contenido consumen y hablarlo, porque la mirada de los adultos es importante. Además que cada vez hay más retos. Con tendencias como el Metaverso se está desfigurando la percepción que tienen los usuarios de sí mismos, porque los muñecos se ven diferentes y después se ven en el espejo y no se reconocen. Es fundamental que los niños y jóvenes sepan que ese mundo no es la realidad.

¿Y en lo legal realmente qué responsabilidad tienen las redes?

Diego Buitrago, coordinador de la Especialización en Derecho Informático y de las Tecnologías de la Facultad de Derecho del CES, dice que es difícil desde una perspectiva legal atribuirles cargos a las redes sociales por el suicidio o las autolesiones de un usuario porque estas son públicas y no están bajo un estado determinado. La responsabilidad, en términos legales, sería de las personas que han compartido este contenido directamente. La única responsabilidad sería la ética, de ofrecer vías de ayuda psicológica para los usuarios que detecten estén deprimidos. Algunas ya lo hacen: Google no muestra información si una persona en el buscador intenta encontrar la manera de suicidarse. Antes le recomienda que busque ayuda psicológica.

Te puede interesar

El empleo que busca está a un clic

Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD