Après le meurtre tragique de trois enfants, une vague de violences islamophobes et visant les personnes exilées s’abat sur le Royaume-Uni à l’été 2024. Un an après, nous analysons comment les discours de haine racistes se sont propagés sur X et ont contribué aux violences commises hors ligne.
Alice Dasilva Aguiar, 9 ans, Bebe King, 6 ans, et Elsie Dot Stancombe, 7 ans. Le 29 juillet 2024, ces trois fillettes ont été assassinées et dix autres personnes ont été blessées dans la ville de Southport par Axel Rudakubana, âgé de 17 ans.
Quelques heures après l'attaque, des informations mensongères concernant l'identité, la religion et le statut administratif régulier ou non de l'auteur du crime ont envahi les réseaux sociaux, et en particulier X (anciennement Twitter).
Un contenu mensonger et raciste devenu viral sur X
Des messages incendiaires, dont certains relèvent de l’incitation à la haine, à la discrimination ou à la violence sont devenus viraux.
Le compte « Europe Invasion », connu pour publier des contenus islamophobes et hostiles aux personnes exilées a publié peu après l'annonce de l'attaque que le suspect « serait un immigrant musulman ». Cette publication a été vue plus de quatre millions de fois.
En 24 heures, toutes les publications sur X spéculant que l'auteur était musulman, réfugié, étranger ou arrivé par bateau ont généré environ 27 millions d'impressions. Le faux nom « Ali al-Shakati » attribué à l’auteur du crime est apparu parmi les « trending topics » sur X, une fonctionnalité de X qui a contribué à la viralité de cette rumeur.
Malgré le démenti de la police locale qui a rapidement clarifié que le suspect était un citoyen Britannique de 17 ans né au Royaume-Uni et non un demandeur d'asile, les fausses informations ont pris une ampleur démesurée.

Des manifestants brandissent des pancartes lors d'une manifestation “Enough is Enough » près d'un hôtel hébergeant des demandeurs d'asile à Aldershot, le 4 août 2024. © Justin Tallis / AFP
Elon Musk et les influenceurs d’extrêmes droites attisent les discours de haine
Tommy Robinson, figure de l’extrême droite britannique condamnée à plusieurs reprises pour des faits de violences, a partagé des propos islamophobes à ses 840 000 abonnés peu après l’attaque de Southport. Il a déclaré par exemple, qu'il existait « de plus en plus d’éléments suggérant que l'islam est un problème de santé mentale plutôt qu'une religion de paix ». Au cours des deux semaines qui ont suivi, ses publications ont été vues plus de 580 millions de fois sur X. Une portée sans précédent pour une personnalité précédemment bannie de X pour avoir enfreint les règles relatives aux discours de haine, réautorisée depuis le rachat de la plateforme par Elon Musk.
Andrew Tate, autre figure notoire de l’extrême droite britannique, a publié une vidéo affirmant à tort que l'agresseur était un « migrant sans papiers » qui « était arrivé par bateau ». Il a déclaré que « lorsque les envahisseurs massacrent vos filles, vous ne faites absolument rien ». Ces commentaires incendiaires ont été vus des millions de fois sur X et ont jeté de l'huile sur le feu dans une situation déjà explosive, le racisme systémique étant déjà ancré au Royaume-Uni.
Le propriétaire de X, Elon Musk, a interagit avec des comptes relayant les fausses informations qui ont circulé au sujet de l'attaque de Southport. Le 4 août 2024, alors que les violences se propageaient, il a commenté une vidéo déclarant que « La guerre civile est inévitable ». En commentant une vidéo, Elon Musk lui donne une visibilité considérable : la priorité absolue du système étant de favoriser la « conversation », quelle que soit la nature du contenu.

Par la conception même de X et étant donné l’ampleur de l’audience du propriétaire de X, aux près de 140 millions d’abonnés, son interaction avec les publications mensongères et racistes a largement participé à leur viralité.
Des violences racistes éclatent hors ligne
Alors que des discours haineux se propageaient sur X, une vague de violences racistes a balayé plusieurs villes du Royaume-Uni.
Des foules ont pris pour cible des personnes musulmanes ou perçues comme telles, ainsi que les communautés de personnes exilées. Une mosquée à Southport a été attaquée et vandalisée, des briques ont été lancées sur la police et des commerces associés aux personnes exilées ont été détruits. Des individus ont mis en place des « points de contrôle » improvisés sur les routes et ont tenté d'incendier des centres d'hébergement pour demandeurs d'asile.

Des équipes réparent la route et les murs du jardin autour de la mosquée de la Southport Islamic Society, qui a été attaquée à la suite du meurtre des trois enfants à Southport au Royaume-Uni. © Rasid Necati Aslim / ANADOLU / Anadolu via AFP
Ces violences de juillet et août 2024 sont l'une des pires vagues de violence raciste que le Royaume-Uni ait connues depuis des années. Les fausses allégations, la colère et la paranoïa ont été alimentées non seulement par des propos virulents sur X mais aussi par des années de racisme systémique profondément ancré au Royaume-Uni.
Si les choix de X en matière de conception algorithmiques tiennent une place importante dans la réalisation de ces violences, les contenus haineux et les violences physiques qui les ont suivis n’auraient pu advenir sans l’existence d’un racisme profondément ancré dans la société.
Les groupes marginalisés victimes des discours haineux sur X
Nous avons dénoncé dans d’autres rapports le rôle des réseaux sociaux dans l’amplification de contenus haineux à la source de violences commises hors ligne.
Lorsque les plateformes privilégient l'engagement et le profit au détriment des droits humains, ce sont souvent les groupes marginalisés qui en font les frais.
Le fonctionnement de X favorise la propagation des contenus haineux et racistes
L’engagement à n’importe quel prix
Le système de recommandation de X met en avant dans la page “Pour vous” les contenus qui suscitent de l’indignation, des réactions, des conversations et des échanges houleux, peu importe la teneur et la véracité des propos.
Le fonctionnement de X permet ainsi à des contenus discriminatoires ou haineux d’être mis en avant et d'apparaitre plus rapidement sur les fils d’actualité que les informations vérifiées. Ces contenus qui propagent des discours de haine peuvent être très visibilisés, voire viraux, avant qu’il n’y ait un nombre de signalements suffisants pour être modérés.
Le taux hebdomadaire de discours haineux était environ 50 % plus élevé que les mois précédant l’achat de X par Elon Musk. L'augmentation a notamment été signalée sur des contenus racistes, homophobes et transphobes. De plus, le nombre de « likes » sur les publications haineuses a doublé, ce qui indique un engagement accru envers ces publications.
L’absence de tout contrôle depuis le rachat par Elon Musk
Depuis le rachat de l'entreprise par Elon Musk fin 2022, X a démantelé ou affaibli bon nombre de ses dispositifs de sécurité visant à lutter contre les contenus préjudiciables et la désinformation. Ces mesures vont du licenciement massif du personnel chargé de la modération des contenus à la réactivation de comptes précédemment supprimés pour contenus haineux comme celui de Tommy Robinson.
Ces changements apportés par Elon Musk ont créé un environnement propice à la prolifération de contenus racistes et discriminatoires sur X, avec un minimum de restrictions.
Un exemple de tweet aux propos raciste et haineux devenu viral pendant les émeutes
L'un des exemples les plus frappants est le cas de Lucy Connolly, une femme qui a publié en pleine émeute sur X un message appelant à “l'expulsion massive immédiate”, et ajoutant: “incendiez tous les hôtels remplis de ces salauds, je m'en fous”.
Son message n'a pas été supprimé dans un premier temps par X. Les modérateurs (ou les systèmes automatisés) de X ont estimé que son message ne violait pas les règles de la plateforme en matière de menaces violentes et l'ont donc laissé en ligne.
Ce message, qui incitait explicitement à incendier des centres d'hébergement pour demandeurs d'asile, est resté public et a été vu 310 000 fois, alors que son compte comptait moins de 9 000 abonnés à l'époque. Le message a été vu bien au-delà de son réseau immédiat, ce qui suggère que la distribution algorithmique a probablement joué un rôle dans cette diffusion.
La responsabilité de X dans les violences
Un an après les violences racistes au Royaume-Uni, les facteurs qui ont alimenté la propagation des discours islamophobes et xénophobes sur X restent très préoccupants. Sans réformes significatives, la plateforme X pourrait à nouveau servir à alimenter la propagation de la haine lors de crises futures.
Notre analyse montre que la conception des algorithmes et les choix de politique de X ont contribué à accroître les risques dans le contexte d'une vague de violences qui a déferlé contre les musulmans et les personnes exilées dans plusieurs villes du Royaume-Uni l'an dernier et présente aujourd'hui encore un risque grave pour les droits humains.
Pat de Brún, responsable du programme d’Amnesty International consacré aux Big Tech.
À ce jour, rien n'indique que X ait exercé une quelconque diligence raisonnable en matière de droits humains, alors que l'entreprise a la responsabilité d'identifier et de traiter les risques conformément aux normes internationales relatives aux entreprises et aux droits humains.
Restez informé·es !
Chaque vendredi, on vous résume l'essentiel de l'actualité des droits humains.