TikTok pousse-t-il des ados à se suicider ? Des familles endeuillées s’apprêtent à porter plainte contre le réseau social. Avant de mettre fin à leur jour, leurs enfants avaient massivement été exposés à des vidéos prônant le mal-être, la mutilation ou le suicide.

Extrait de La Chronique 454 de septembre 2024
— Par Maïa Courtois (texte) et Valentina Camu (photos).
Charlize s’est suicidée le mercredi 22 novembre 2023. Elle avait 15 ans. Son portrait trône à l’entrée de l’appartement où elle vivait avec ses parents et sa sœur, à Nice. D’un geste doux, son père, Jérémy, rallume l’une des bougies disposées devant le cadre. Sur la photo, l’ado, brunette aux yeux noisette, est souriante. Certes, leur enfant traversait un moment difficile. Victime de harcèlement scolaire au collège, elle avait dû changer d’établissement. Elle avait aussi été confrontée au deuil de son grand-père. Puis victime d’une agression sexuelle. Mais « le fait qu’elle ait été alors bombardée de vidéos négatives ne l’a pas aidée », soutient Jérémy.
Lui est gérant d’une boutique de piercings. Delphine, la maman, est virologue à l’hôpital. S’ils avaient aménagé leur vie professionnelle pour soutenir Charlize, ni l’un ni l’autre n’avaient songé à scruter son profil TikTok pour voir ce qu’il s’y passait. Plébiscité par les ados, ce réseau social propose de courtes vidéos, réalisées par les utilisateurs eux-mêmes, que l’on peut liker ou partager sur son profil.

Jérémy, le père de Charlize, porte un tee-shirt avec l’année de naissance et de décès de sa fille.
« Donnez-moi une corde et un tabouret, SVP »
« Dès que TikTok détecte qu’un utilisateur a de l’intérêt pour une thématique, il promeut les contenus liés à ce sujet, afin de le garder en ligne le plus longtemps possible », explique Katia Roux, chargée de plaidoyer Libertés chez Amnesty International France. Ainsi, une ado comme Charlize, repérée par l’algorithme comme cliquant sur des contenus autour du mal-être, sera ensuite exposée à des vagues de vidéos sur le même sujet. D’ailleurs, la veille de son suicide, elle en avait republié une sur son profil TikTok. On y voyait l’image d’une jeune femme montant sur un échafaud où était accrochée une corde de pendaison, accompagnée de deux phrases : « La nuit porte conseil. Ce qu’elle me conseille. » La voix pleine de colère Jérémy raconte : « Deux jours après son suicide, j’ai pris son téléphone et j’ai mis un commentaire sous cette atroce vidéo : “merci d’avoir posté ça, ma fille t’a écouté”… » Sur l’écran du téléphone de Charlize, ses parents voient défiler des contenus dont ils ne soupçonnaient pas l’existence : face caméra, une jeune femme conseille « les douches brûlantes à en avoir des plaques rouges en sortant, pour se faire du mal sans laisser de traces » (voir p. 31). Une autre vidéo, sur fond de mer grise, va encore plus loin : « Donnez-moi une corde et un tabouret, SVP. »

* En français : « Peut-être que dans un autre univers, je n’envisage pas le suicide comme une solution possible. » Sur son compte TikTok, Charlize avait reçu ces images prônant l’automutilation ou le suicide. Le terme est écrit « $uicid€ » pour que le réseau social ne supprime pas le post.
.« Avant le décès de Charlize, j’avais signalé plusieurs fois des vidéos de ce genre pour “incitation au suicide” sur l’application », raconte Tess, l’une des amies de Charlize au collège. « Une demi-heure après mon dernier signalement, le 5 juin, j’ai reçu la réponse : ”aucune infraction trouvée”. Je n’ai jamais eu d’autre retour », déplore-t-elle, avant d’ajouter : « À moi aussi, ça m’est arrivé de ne pas aller bien et de recevoir en boucle des vidéos sur la dépression, sans parvenir à m’en détacher. » Amnesty International parle de « spirale » pour décrire ce phénomène. Pour l’une de ses études publiées fin 20231, l’ONG a créé 40 faux profils de tiktokeurs de 13 ans, aux États-Unis, au Kenya et aux Philippines, manifestant un intérêt pour la santé mentale. Conclusion : entre trois et vingt et une minutes après le lancement de ces profils, plus de la moitié des vidéos du fil « Pour toi » – la page d’accueil personnalisée – était en rapport avec des problèmes de santé mentale. De nombreuses vidéos « en l’espace d’une heure seulement, idéalisaient, banalisaient, voire encourageaient le suicide ».
Le Centre américain de lutte contre la haine en ligne avait déjà démontré fin 2022 qu’un profil d’adolescent de 13 ans qui like des contenus liés à la santé mentale et l’image de soi est exposé, en à peine plus de deux minutes, à des posts relatifs à l’automutilation, au suicide, aux overdoses ou à la scarification. Katia Roux d’Amnesty International explique : « Plus les contenus sont extrêmes ou provocants, plus ils génèrent des réactions, de l’engagement. L’algorithme va pousser ces contenus qui sont les plus commentés et partagés. C’est ce que l’on appelle l’économie de l’attention. » Ainsi, plus un utilisateur passe de temps à interagir sur une plateforme, plus son ciblage publicitaire sera performant. « TikTok transforme la vulnérabilité psychologique des adolescents en moyen de maximiser leur participation sur leur plateforme, et donc, de maximiser les revenus publicitaires ».
« Non-assistance à personne en péril »
Deux mois après le suicide de Charlize, sa mère, Delphine, entend parler du combat d’une autre maman, Stéphanie Mistre. Celle-ci a perdu sa fille de 15 ans, Marie, en 2021. Elle a déposé une plainte – toujours en cours – contre TikTok en septembre 2023 pour « provocation au suicide », « propagande ou publicité des moyens de se donner la mort » et « non-assistance à personne en péril ». Aujourd’hui, son collectif, Algos Victima, réunit une dizaine de familles pour monter une plainte collective contre TikTok. Les parents de Charlize l’ont rejoint. Leur avocate, Me Laure Boutron-Marmion, planche sur un recours en responsabilité. Cette procédure au civil « a pour but de reconnaître TikTok comme responsable dans le préjudice subi par les enfants et par les parents qui portent le recours, eu égard à un contenu non régulé par la plateforme, résume celle-ci. Il faut systématiser le bannissement des contenus manifestement illicites. Ce qui n’est toujours pas le cas… Sinon, je n’aurais pas autant de familles qui continuent de me contacter ».
Sollicité, TikTok renvoie à ses règles communautaires : « Nous supprimons tout contenu évoquant un acte, ou tentative de suicide, des idées suicidaires ou tout autre contenu qui pourrait inciter à commettre des actes de suicide ou d’automutilation. » La plateforme souligne l’existence d’employés modérateurs qui travaillent en parallèle des systèmes de modération automatisés. TikTok met aussi en avant de nouvelles fonctionnalités. Depuis 2022, l’une d’elles permet selon l’entreprise d’« éviter que soit recommandée une série de contenus similaires sur des sujets qui, pris en tant que vidéo unique, ne posent pas de problèmes, mais sont problématiques si visionnés à plusieurs reprises. Cela concerne les contenus liés aux régimes, les injonctions à un exercice physique extrême, au mal-être, etc. ». Enfin, lorsqu’un utilisateur entre certains mots clés dans la barre de recherche, comme « suicide », il est orienté vers une ligne téléphonique d’assistance, ainsi que nous avons pu le constater.
« En l’espace d’une heure seulement, [des vidéos] idéalisaient, banalisaient, voire encourageaient le suicide »
— Amnesty International
« On ne peut pas à la fois créer le problème, et essayer de rediriger vers des ressources face à ce problème ! Il y a une contradiction intrinsèque », réagit Katia Roux. Pour elle, renforcer la modération ou l’orientation vers des contenus de prévention ne suffit pas. « La solution, c’est de changer profondément le modèle d’activité de TikTok. Ne plus se baser sur la surveillance en ligne, le profilage et la captation de données personnelles. Mais laisser l’utilisateur définir d’entrée de jeu les contenus qu’il souhaite voir, avec son consentement libre et éclairé. »
Quelles que soient les dispositions prises par TikTok pour modérer ces contenus dangereux, le problème n’est, manifestement, toujours pas réglé. Nous avons nous-mêmes fait le test, début juillet en créant un compte TikTok et en entrant le mot « triste » dans la barre de recherche. Parmi les premiers contenus proposés, une vidéo dans laquelle un jeune homme fait face à la caméra avec le message : « Tu peux partir tu sers à rien. » La plateforme nous suggère ensuite de cliquer sur des mots clés, comme « déprime » ou « tiktok triste ». Nous fermons l’application. Sans avoir rien liké ni partagé. Une semaine plus tard : notre fil « Pour toi » est envahi de vidéos sous-titrées « Et si je disparaissais ? » « Je suis désolé, mais je crois que ma fin est venue »… L’une d’elles contient même le mot « suicide » en toutes lettres, avec ce message en anglais, ici traduit : « Le suicide est la mort causée par la maladie de la dépression, c’est le symptôme final, l’effondrement final sous un poids insupportable. » Preuve qu’en France, où 51,3 % des tiktokeurs sont des adolescentes de 13 à 24 ans, la spirale encourageant le mal-être peut encore faire des victimes.
1– Poussé·e·s vers les ténèbres. Comment le fil « Pour toi » encourage l’automutilation et les idées suicidaires et Je me sens vulnérable. Pris·e·s au piège de la surveillance intrinsèque à TikTok, en ligne sur amnesty.org
L’Europe tente de réguler TikTok
En février 2024, la Commission de l’Union européenne a ouvert une procédure d’enquête pour déterminer si TikTok a pu enfreindre le Digital Services Act (DSA), une loi pionnière sur la régulation des plateformes, adoptée en 2022. Dans le viseur : la protection des mineurs. La Commission estime en effet que les contenus sont « susceptibles de stimuler des dépendances comportementales et/ou de créer ce que l’on appelle le “rabbit hole effects” [effet trou de lapin] ».