[ad_1]
Une enquête sur la mort de l’adolescente londonienne Molly Russell a vu un dirigeant d’Instagram défendre le partage de contenu suicidaire sur les réseaux sociaux, affirmant que cela aide les gens à « partager des sentiments et à s’exprimer ».
Par Le télégrapheElizabeth Lagone, responsable de la santé et du bien-être chez Meta – la société mère d’Instagram – a témoigné le 23 septembre, exprimant qu’Instagram autorise certains contenus parce qu’ils sont « publiés afin de sensibiliser », pour que les gens « se réunissent pour se soutenir » ou pour que quelqu’un « parle de sa propre expérience ».
Cela est venu après que des représentants de Pinterest et de Meta se sont envolés pour le Royaume-Uni pour témoigner dans le cadre de l’enquête – tous deux ont présenté des excuses officielles à la famille de Molly.
Molly, qui n’avait que 14 ans lorsqu’elle s’est suicidée, avait vu des milliers de messages dérangeants sur les réseaux sociaux dans les mois qui ont précédé sa mort.
Oliver Sanders KC, représentant la famille Russell, a demandé à plusieurs reprises à Lagone si un enfant serait capable de faire la différence entre « un contenu qui encourage ou sensibilise » au suicide et à l’automutilation, selon Le télégraphe.
Lagone a répondu: « Je ne peux vraiment pas répondre à cette question car nous n’autorisons pas les contenus qui encouragent l’automutilation. »
Elle a également ajouté qu’il était important pour Meta de prendre en compte « le préjudice large et incroyable » que le silence d’une affiche pourrait causer « lorsqu’on parle de ses problèmes ».
Le tribunal a été informé des directives d’Instagram au moment de la mort de Molly, qui stipulaient que les utilisateurs étaient autorisés à publier du contenu sur le suicide et l’automutilation pour « faciliter le rassemblement pour soutenir » d’autres utilisateurs, mais pas s’il « l’encourageait ou le promouvait ».
L’enquête a également vu certains des contenus vidéo dérangeants que Molly a consommés avant sa mort – qui décrivaient des incidents d’automutilation et de suicide – ainsi que les récits «recommandés» qu’elle était encouragée à suivre. Sept pour cent de ces comptes étaient soit « tristes ou dépressifs ».
Un porte-parole de Meta a déclaré CHARME: « Nos plus sincères condoléances restent avec la famille de Molly et nous continuerons d’aider le coroner dans cette enquête. Ce sont des problèmes incroyablement complexes. Nous n’avons jamais autorisé le contenu qui encourage ou glorifie le suicide et l’automutilation et, depuis 2019 seulement, nous avons mis à jour nos politiques, déployé une nouvelle technologie pour supprimer davantage de contenus non conformes, montré plus de ressources expertes lorsque quelqu’un recherche ou publie du contenu lié au suicide ou à l’automutilation, et introduit des contrôles conçus pour limiter les types de contenu que les adolescents voient.
« Nous continuons d’améliorer la technologie que nous utilisons, et entre avril et juin 2022, nous avons trouvé et pris des mesures contre 98,4 % des contenus suicidaires ou autodestructeurs identifiés sur Instagram avant qu’ils ne nous soient signalés, contre 93,8 % il y a deux ans. Nous continuerons à travailler en étroite collaboration avec des experts indépendants, ainsi qu’avec des adolescents et des parents, pour nous assurer que nos applications offrent la meilleure expérience et le meilleur soutien possible aux adolescents. »
[ad_2]
Source link