Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE GAZA

 Exigez avec nous la justice pour toutes les victimes et la protection sans condition des populations civiles

Captures d'écran des contenus recommandés par l'algorithme de Tiktok lors de notre enquête / © Amnesty International France

Plongée dans l’algorithme de TikTok France : nos révélations

Que montre TikTok aux adolescent·es français ? Pour le savoir, nos équipes ont recréé leurs profils et se sont entretenues avec des adolescent·es et des familles concernées. Nos résultats sont accablants : malgré la législation européenne, TikTok inonde encore les écrans des ados vulnérables de contenus dangereux pouvant aller jusqu’à encourager l’automutilation ou le suicide. Voici notre enquête.

Attention, ce contenu évoque des histoires de suicide

« C’était une jeune fille très lumineuse, pleine de joie ! Elle adorait chanter, elle faisait du théâtre », raconte Stéphanie, au sujet de sa fille, Marie. Le 16 septembre 2021, Marie s’est suicidée. Elle avait 15 ans. 

Harcelée pour son poids par des élèves de son lycée, Marie s’était tournée vers TikTok. Au fur et à mesure de ses recherches sur la perte de poids et le harcèlement, l’algorithme l’entraîne dans une spirale infernale. Son fil de recommandation «Pour toi» devient saturé de contenus sombres comme des « vidéos avec une voix répétant que tu ne vas pas bien, des chansons prônant le suicide, des tutos d’automutilation » relate sa mère. Peu de temps avant son suicide, Marie publiait une vidéo dans laquelle elle disait ne plus supporter d’être harcelée. Mais au lieu de lui proposer des contenus qui auraient pu l'aider, l’algorithme a continué de la tirer vers le bas.

Depuis la perte de sa fille, Stéphanie mène un combat sans relâche. Elle a porté plainte contre TikTok, pointant la responsabilité de la plateforme dans le suicide de sa fille. Dix autres familles françaises l’ont rejoint dans ce combat et forment aujourd’hui le collectif Algos Victima.

Comment TikTok peut-il « recommander » des contenus aussi dangereux aux adolescent·e·s ? Ces vidéos dangereuses sont-elles des cas isolés sur la plateforme ou sont-elles accessibles par milliers ? Comment les jeunes tombent ils sur ces contenus ? Ces questions ont été au cœur de notre enquête.

Après avoir étudié ce que l’algorithme de TikTok recommande au Kenya et aux Philippines en 2023, nous nous sommes intéressés à l'algorithme de TikTok en France - où la plateforme est censée se conformer à la réglementation européenne du Digital Services Act.

Notre objectif : analyser et quantifier les recommandations de contenus préjudiciables sur la plateforme en France.

Nos résultats sont sans appel : l’algorithme de TikTok continue de propulser des contenus dangereux, pouvant impacter la santé mentale des jeunes.

TikTok en 3 chiffres

23milliardsde dollars de recette en 2024  
1,58milliardsd’utilisateur·rices par jour
21,4millionsd’utilisateur·rices actifs en France  

Ce que voit un·e ado de 13 ans sur TikTok

Pendant plusieurs jours, notre équipe s’est mise dans la peau d’adolescent·e·s pour analyser l’algorithme de TikTok. Nous avons créé trois faux comptes : un garçon et deux filles de 13 ans, l’âge minimal pour être inscrit sur la plateforme. La consigne : faire défiler les vidéos du fil « Pour toi » pendant trois à quatre heures et regarder deux fois chaque contenu lié à la santé mentale ou à la tristesse. Sans rien liker, ni commenter, ni partager, juste regarder.

Résultat ?

En moins de 20 minutes, les fils sont saturés de vidéos sur la santé mentale.

Après 45 minutes d’expérience, des messages explicites sur le suicide apparaissent.

Trois heures plus tard, tous les comptes sont inondés de contenus sombres, exprimant parfois directement une volonté de mettre fin à ses jours. 

Exemples de vidéos recommandées par l'algorithme de TikTok pendant l'expérimentation de nos chercheurs sur les faux comptes d'adolescents de 13 ans. Sur l'image à gauche, on peut lire "Vu que je ne brille pas en bas, je brillerai là haut" sur fond de feux d'artifices. Ce type de contenus est revenu très fréquemment dans les recommandations de l'algorithme.

Justine Payoux, chargée de campagne chez Amnesty International France a mené l’expérimentation : « En 40 minutes seulement, mon fil était envahi de contenu mélancoliques composés de paysages sombres et musiques tristes. Ça m’a très vite entraînée dans une spirale infernale de contenus dépressifs ou suicidaires. Pendant la troisième heure, je passais d’une vidéo faite par IA avec le cri d’une femme en détresse à la vidéo d’un ado en pleurs affirmant vouloir mettre fin à ses jours, à des vidéos faisant parfois allusion à des méthodes de suicide. »

« Des vidéos encore imprimées dans ma rétine »

Maëlle, 18 ans, s’est retrouvée prise au piège de Tiktok. Victime de harcèlement à l’école, l’adolescente traverse une période difficile. À la suite des conseils d’une amie, elle installe TikTok en 2021, pour se changer les idées. Au début, rien d’inquiétant. « J'ai d'abord eu des vidéos plutôt divertissantes, pas très instructives, mais divertissantes » raconte t-elle. Puis un jour, une chanson triste attire son attention. La musique revient à plusieurs reprises dans les vidéos, Maëlle les regarde pendant que l’algorithme enregistre. Son fil « Pour toi » s’assombrit : des vidéos sur la mort, des vidéos sur l’automutilation, des ados à l’hôpital. «Trois quarts des vidéos parlaient de santé mentale » expose Maëlle. « (…) ça m'a fait culpabiliser de ne pas aller aussi mal que les gens sur la plateforme » 

L'état de Maëlle se détériore. En septembre 2022, elle est hospitalisée pour la première fois. « Voir des gens qui se scarifient ou qui disent quoi prendre comme médicaments pour en finir, ça t’influence. Certaines vidéos sont encore imprimées dans ma rétine » Pour sa mère, Morgane, sa fille « est devenue addict à des contenus mortifères. Quoi que nous disions, […] c’était comme si elle était happée dans ce monde parallèle. »

Le témoignage complet de Maëlle à lire ici

Exemples de vidéos recommandées par l'algorithme de TikTok pendant l'expérimentation de nos chercheurs sur les faux comptes d'adolescents de 13 ans. Sur la troisième capture d'écran, on peut lire "Promis ce soir je réussirai ma ts [emoji drapeau suisse = fréquemment utilisé sur TikTok pour évoquer le mot "suicide"]

Le 19 janvier 2023, Virginie apprend que sa fille se scarifiait et avait fait plusieurs tentatives de suicide en avalant des médicaments. « J'ai découvert les vidéos qu'elle regardait ». Elle tombe alors sur les contenus auxquels sa fille est exposée : « Des tutoriels pour démonter un taille crayon pour se scarifier, des vidéos qui prônaient le suicide avec des chansons (...) des vidéos disent : ‘Si tu n’es pas morte, c'est que tu as mal fait les choses. Recommence' »

Les vidéos sont très courtes, défilent à l’infini, correspondent aux "codes” des réseaux sociaux. « Tout est fait pour plaire aux adolescents. » dénonce Virginie.

Parmi les contenus recommandés par l'algorithme à nos faux comptes d'adolescents de 13 ans, des contenus romantisant le suicide apparaissaient régulièrement, avec par exemple un fond d'image mélancolique et un texte comme «Je souris encore un peu mais au fond j'ai déjà commencé à dire aurevoir», image 1 ou sur l'image 3, un fond de paysage avec un message comme «J'aimerais mourir»

« Nos enfants deviennent des produits »

Charlize avait 15 ans lorsqu’elle s’est suicidée, le 22 novembre 2023. Comme Marie, deux ans plus tôt. Les parents de ces jeunes filles ne savaient quels types de contenus TikTok leur recommandait. À la mort de leur fille, Delphine et Jérémy, les parents de Charlize, rejoignent le collectif d'Algos Victima.

« Nos enfants deviennent des produits » déclare Stéphanie. « TikTok utilise leurs émotions pour les captiver et les maintenir sur la plateforme. » Ce qu’elle décrit, c’est ce qu’on appelle l’économie de l’attention, le modèle sur lequel TikTok est fondé. Plus l’utilisateur.rice passe du temps sur la plateforme, plus TikTok engendre des bénéfices. TikTok exploite leurs vulnérabilités et les transforme en moyen de maximiser ses profits. Les jeunes deviennent alors les produits d’un système qui monétise leur attention.

Jérémy, le père de Charlize, est tout aussi clair : « TikTok a maintenu notre fille dans le mal-être. » Charlize voulait aider les autres, elle rêvait de devenir psychologue. « Comment TikTok peut-il nier que des vidéos disant 'Tu vas mal ? Suicide-toi, ça ira mieux' incitent à passer à l’acte ? Cela ne peut pas être la responsabilité des utilisateurs ! » 

Sophie, la mère d’Emma, une jeune fille qui a été exposée à des contenus sur l'automutilation et les troubles alimentaires sur TikTok, expose une autre conséquence des effets néfastes de l’algorithme : « Les adolescents construisent une identité autour de leur mal-être » Aujourd’hui, Emma, signale les contenus qu’elle estime dangereux. « Mais elle dit qu'ils ne sont jamais supprimés, que rien ne se passe jamais. » ajoute sa mère.

À gauche, un contenu recommandé par l'algorithme de Tiktok où l'on peut lire : "Ils croiront que je dormais mais j'aurais juste réussi ma [emoji drapeau suisse] ; emoji fréquemment utilisé sur la plateforme pour évoquer le mot "suicide". Sur la deuxième capture d'écran, on voit un baume à lèvre. L'algorithme a poussé ici le le « Labello Challenge ». Le principe ? Des jeunes appliquent du baume à lèvres chaque fois qu’ils se sentent mal. Une fois le baume vide, ils sont censés mettre fin à leurs jours. En moins de trois heures, nos chercheurs sont tombés sur ce type de contenus. 

Transformer TikTok : notre plan d’action  

Depuis nos premiers rapports en 2023, nous alertons sur les dangers de l’algorithme de recommandation de TikTok et ses effets sur la santé mentale des jeunes. Notre nouvelle enquête en France le confirme : rien n’a changé. TikTok cherche à se défendre en ventant la mise en place d’un bouton « pas intéressé » ou l’existence de filtres de contenus par mots-clés. C'est insuffisant. Les vidéos qui romantisent le suicide ou exposent les ados à des contenus dangereux continuent d’être poussées par l’algorithme, malgré les signalements.

Pourtant, des règles existent. Le Digital Services Act (DSA) la loi européenne sur les services numériques, impose aux plateformes de protéger les mineurs, d’identifier et d’atténuer les risques systémiques et de limiter les mécanismes de dépendance. Depuis février 2024, une enquête de la Commission européenne a été ouverte pour déterminer si TikTok  manque à ses obligations. 

À l’aune des nouvelles preuves mises à jour dans cette recherche, nous déposons un recours contre TikTok pour non-respect du DSA auprès de l’ARCOM, chargée du suivi de la mise en œuvre du règlement européen en France.  

Mais ce n’est pas tout. Nos demandes sont claires. TikTok doit : 

  • Cesser de chercher à maximiser « l’engagement des utilisateurs et utilisatrices » aux dépens de leur santé et autres droits humains. 

  • Redonner le contrôle aux utilisateurs.rices pour qu’ils.elles puissent enfin choisir les contenus qu’ils.elles veulent voir.

Ce combat, nous le menons pour toutes les personnes qui n’ont pas été protégées à temps et celles déjà entraînées dans les spirales infernales de contenus. Ensemble, nous devons faire pression car c’est seulement par la force du collectif qu’on pourra obliger TikTok à changer son modèle en un modèle respectueux des droits fondamentaux. TikTok doit protéger les jeunes. Ensemble, reprenons le contrôle de l’algorithme. 

loading ...