Investigación de Molly Russell escucha defender las políticas de contenido de Instagram | Noticias del Reino Unido

Un alto ejecutivo de la empresa matriz de Instagram defendió las políticas de la plataforma sobre contenido suicida y autodestructivo y dijo a la investigación sobre la muerte de Molly Russell que las pautas siempre se escribieron en consulta con expertos.

Elizabeth Lagone, jefa de política de salud y bienestar de Meta, dijo que el grupo de redes sociales trabajó «ampliamente con expertos» al redactar las pautas, que permiten a los usuarios hablar sobre los sentimientos relacionados con el suicidio o la autolesión.

Molly, de 14 años, de Harrow, al noroeste de Londres, se suicidó en noviembre de 2017 después de ver una gran cantidad de material en plataformas, incluido Instagram, relacionado con el suicidio, la depresión, las autolesiones y la ansiedad.

Lagone le dijo al Tribunal Forense del Norte de Londres que, en el momento de la muerte de Molly, a los usuarios se les permitía publicar contenido sobre suicidio y autolesiones para «facilitar la unión en apoyo» de otros usuarios, pero no si «alentaba o promovía» tales acciones.

En febrero de 2019, Instagram cambió sus pautas para prohibir «todo contenido gráfico sobre suicidio y autolesiones». Todavía permite a los usuarios «hablar sobre sus propios sentimientos relacionados con el suicidio o las autolesiones», siempre que dicho contenido no sea gráfico, promocional o muestre métodos o material.

En una declaración de testigo presentada ante el tribunal, Lagone dijo: “Los expertos nos han dicho constantemente que, en las circunstancias adecuadas, el contenido que toca el suicidio y las autolesiones se puede compartir en un contexto positivo y puede desempeñar un papel importante en la desestigmatización mental. salud. dificultades.»

Elizabeth Lagone de Meta llega al Tribunal Forense del norte de Londres.Elizabeth Lagone, Jefa de Política de Salud y Bienestar de Meta, llega al Tribunal Forense del Norte de Londres. Fotografía: Beresford Hodge/PA

Lagone dijo que un usuario podría haber publicado material sobre suicidio y autolesiones como una «llamada de ayuda». También le dijo a la corte que era importante que la compañía «considerara el daño tremendo e increíble que puede causar silenciar [a user’s] luchas El forense principal, Andrew Walker, ordenó a Lagone, que reside en los Estados Unidos, que compareciera en persona.

Oliver Sanders KC, en representación de la familia Russell, preguntó a Lagone si Instagram trató a los usuarios más jóvenes como Russell como «conejillos de indias» cuando introdujo un sistema conocido como Clasificación de contenido en 2016. Como parte de la clasificación de contenido, los usuarios reciben mensajes que podrían ser de su interés. interés para ellos, en función de factores como el contenido que les gusta y comentan. Instagram tiene un límite de edad mínimo de 13 años.

«Es cierto, ¿no eran los niños, incluidos los niños con depresión como Molly que estaban en Instagram en 2016, solo conejillos de indias en un experimento?» dijo Sanders. Lagone respondió: «Específicamente, no es así como desarrollamos políticas y procedimientos en la empresa».

Al abordar la política de Instagram de no glorificar las autolesiones pero permitir que los usuarios sean conscientes de ellas, Sanders también preguntó: «¿Crees que un niño promedio de 13 años podría notar la diferencia? entre alentar y promover las autolesiones y crear conciencia de autolesionarse? »

Lagone respondió: «No puedo responder a esa pregunta porque no permitimos contenido que fomente la autolesión».

El tribunal también escuchó que Instagram recomendó que Molly siguiera al menos 34 cuentas con identificadores vinculados a contenido «triste o depresivo». Cuatro se ocuparon de los sentimientos suicidas, dos de la mortalidad, con recomendaciones adicionales relacionadas con las autolesiones, el borde de la muerte, los sentimientos suicidas y el entierro.

Más temprano el viernes por la mañana, la investigación mostró videos de Instagram de «la naturaleza más desgarradora» que vio la adolescente antes de quitarse la vida.

El tribunal vio 17 videoclips que Molly había guardado o le habían gustado en Instagram antes de su muerte. Walker advirtió que las imágenes «parecen glorificar el daño causado a los jóvenes» y son «de la naturaleza más desgarradora y casi imposible de ver».

Luego, el tribunal vio una serie de montajes de video gráficos que mostraban a personas en situaciones suicidas. Las ediciones se editaron con música y algunas tenían subtítulos con referencias al suicidio. La familia de Molly decidió quedarse en la sala del tribunal mientras se reproducían los videos, pero el forense optó por tomarse un descanso de 15 minutos del proceso después.

El jueves, un alto ejecutivo de la plataforma para compartir imágenes Pinterest admitió que la plataforma «no era segura» cuando Molly Russell la usó y se disculpó por el material gráfico que el servicio mostró al adolescente antes de su muerte.

La investigación continúa.

  • A R. @samaritans.ie. En los Estados Unidos, la Línea Nacional de Prevención del Suicidio llama al 800-273-8255 o chatea para obtener ayuda. También puede enviar un mensaje de texto con HOME al 741741 para ponerse en contacto con un consejero de línea de texto de crisis. En Australia, la línea de ayuda para crisis de Lifeline es 13 11 14. Se pueden encontrar otras líneas de ayuda internacionales en befrienders.org

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *