Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE GAZA

 Exigez avec nous la justice pour toutes les victimes et la protection sans condition des populations civiles

Jakub Porzycki / NurPhoto via AFP

Jakub Porzycki / NurPhoto via AFP

Est-ce que TikTok est réglementée ?

En France, TikTok est réglementée par une loi européenne sur les services numériques : le Digital Services Act (DSA). L’objectif : garantir un environnement en ligne sûr où les droits fondamentaux, dont ceux des enfants, sont protégés. Quelles sont les règles énoncées par le DSA, comment sont-elles mises en œuvre et sont-elles vraiment respectées par TikTok ?

Ce qui est illégal hors ligne est illégal en ligne. Voici l’un des fondements du Digital Services Act (DSA). Si nous nous intéressons spécifiquement à TikTok ici, c’est parce que nous avons révélé dans notre dernière enquête que l’algorithme de TikTok continuait d’exposer les jeunes à des contenus dangereux, dépressifs et suicidaires, sur leurs fils “Pour toi”. Or, en investissant le marché européen, le géant chinois est tenu de respecter la législation européenne.

Quelles règles le DSA impose-t-il aux plateformes ?

Depuis le 25 août 2023, le DSA impose des règles aux dix-neuf plus grandes plateformes numériques, dont TikTok. Le but : obliger les plateformes à réguler les contenus qu’elles diffusent, protéger les utilisateurs européens de pratiques pouvant être néfastes, rendre Internet plus sûr. Avec ce texte historique, l’Union européenne impose des règles aux grandes plateformes numériques : respect du droit à la vie privée, protection des mineurs, lutte contre les contenus illicites, prise en compte des risques systémiques. Ces risques sont liés aux choix de conception de la plateforme et en particulier à ses fonctionnalités addictives comme le déclenchement automatique des vidéos, la possibilité de faire défiler des contenus à l’infini, ou encore le système de recommandation algorithmique.  

La législation européenne demande notamment aux géants du numérique de : 

1. Encadrer la publicité ciblée et rendre son algorithme transparent 

Les plateformes ont l'obligation d'expliquer comment fonctionnent leurs algorithmes de recommandation de certains contenus publicitaires. Car c’est le système de recommandation algorithmique qui permet à la plateforme de pousser des contenus en lien avec les centres d’intérêts les plus probables des utilisateurs. Et plus le contenu est personnalisé, plus la plateforme peut proposer des publicités ciblées et de fait, engranger du profit.  

Le DSA interdit par ailleurs les publicités ciblées à destination des mineur·e·s et exige des grandes plateformes de réseaux sociaux qu’elles offrent en option à l’ensemble des utilisateurs et utilisatrices un fil d’actualités qui ne soit pas basé sur le profilage.

2. Protéger les mineurs en ligne 

Au regard du DSA, les plateformes ont l’obligation de mettre en place des mesures pour garantir la vie privée et la sécurité des mineurs sur leur service. 

Or, dans le cas de TikTok, les recommandations de contenus basées sur l'engagement dans le fil « Pour toi » du réseau social portent atteinte à la vie privée des jeunes et les exposent à des contenus potentiellement préjudiciables.  

3. Atténuer les risques d'exposition aux contenus dangereux  

Les très grandes plateformes en ligne doivent mener des évaluations des risques annuelles portant sur une liste de risques systémiques variés. Parmi les risques : propagation de contenus illégaux, conséquences négatives sur le bien-être physique et psychologique des personnes. 

Les plateformes doivent ensuite adopter des mesures d'atténuation des risques, proportionnées et efficaces. 

Est-ce que Tiktok respecte les règles du DSA ? 

Les nouvelles révélations de notre rapport sur TikTok sont sans équivoque : la plateforme ne respecte pas ses obligations au regard du DSA. TikTok ne prend toujours pas en compte les risques systémiques liés à son modèle commercial basé sur l'engagement et n’a pas adopté de mesures efficaces et adaptées contre ses effets potentiellement dévastateurs sur la santé mentale des jeunes utilisateurs·rices.  

En effet, en février 2024, la Commission européenne a ouvert une enquête « afin de déterminer si TikTok a enfreint le règlement sur les services numériques dans des domaines liés à la protection des mineurs, à la transparence de la publicité, à l'accès des chercheurs aux données, ainsi qu'à la gestion des risques liés à la conception addictive et aux contenus préjudiciables ». L’enquête est toujours en cours et il est important que la Commission européenne se saisisse des nouvelles preuves apportées par notre rapport. 

En France, comment la législation européenne s’applique-t-elle ? 

Dans le cadre du DSA, un « coordinateur des services numériques » (DSC) doit être nommé dans chaque pays de l’Union européenne. Les DSC sont désignés par chaque État membre. En France, le coordinateur national est l'Autorité de régulation de la communication audiovisuelle et numérique (ARCOM). Son rôle : aider la Commission européenne à contrôler et à faire respecter les obligations prévues par le DSA. 

C’est dans ce cadre là qu’Amnesty International France a déposé une plainte auprès de l’ARCOM le 21 octobre 2025 pour non-respect par TikTok de ses obligations au titre du DSA. 

Le système de recommandation de TikTok et les pratiques intrusives de collecte de données qui l’accompagnent portent atteinte au droit à la vie privée, à la liberté de pensée et à la santé mentale et physique de ses utilisateurs·rices. Des mesures contraignantes et efficaces doivent être prises pour contraindre TikTok à enfin rendre son application sûre pour les jeunes au sein de l’Union européenne et dans le monde entier.

loading ...