DIGITALE ATTITUDE : Les gouvernements sont de plus en plus inquiets par les algorithmes déployés sur les réseaux sociaux qui ciblent les intérêts – parfois morbides – des adolescents.
Facebook, Instagram et YouTube, affichent tous des versions personnalisées de leurs pages à leurs abonnés, ayant détectés leurs intérêts d’après leurs recherches sur leurs plateformes et sur le Web. Mais lorsqu’un(e) adolescent(e) est tourné(e) vers l’automutilation, l’anorexie ou le suicide, ces sites nourrissent sa curiosité en affichant des lectures et des images pouvant l’inciter à passer à l’acte.
C’est le suicide d’une adolescente de 14 ans qui vient réanimer ce débat car sa page de partage de photos était couverte d’images d’automutilation. Pour son père Ian Russell, interviewé par la BBC, «sans aucun doute, Instagram à contribuer à tuer ma fille ».
Menacé par des législateurs britanniques de passer de nouvelles lois si les réseaux sociaux n’intensifient pas leurs efforts pour protéger les mineurs, Instagram a aussitôt réagit. Sur son blog, la société s’est engagée à «interdire et/ou flouter les images violemment explicites et de ne plus afficher de contenu lié à l’automutilation dans les résultats de recherche, les hashtags et l’onglet «explorer». Mais une phrase de trop dérange: «Nous ne retirons pas entièrement ce type de contenu, car nous ne voulons pas isoler les personnes qui pourraient être en détresse et dont les publications sont un appel au secours.»
Une semaine après la publication de ce communiqué, une recherche du hashtag #automutilation montrent toujours des images de coupures et de blessures, précédées d’un avertissement: «Pouvons-nous vous aider? Les photos suivantes pourraient vous inciter à vous faire du mal.» Puis, à choix: «Trouvez de l’aide» ou «Voir les images quand même» Les photos sont toujours là. Instagram malgré ses promesses n’a encore rien fait.
Pourtant Facebook, propriétaire de ce dernier, a mis en place des mesures préventives sur sa propre plateforme depuis 2017. Des algorithmes identifient les utilisateurs à haut risque suicidaire, puis les signalent à une hot line ou une police de proximité. Selon The Guardian, plus de 3.500 «wellness checks» ont été effectués globalement. Un effort qui va dans le bon sens.
so sad…
C’est honteux que de tels vidéos circulent sur le net. Tout le monde doit signaler des pages comme celles-ci sur Youtube, Facebook et Instagram car l’effet boule de neige (foule ) est scientifiquement prouvé par les sociologues qui ont étudié l’impact des réseaux sociaux sur les internautes spécialement les adolescents.