Nos libertés sont aujourd’hui sous algorithmes. Ils déterminent ce que l’on voit, orientent ce que l’on pense et surveillent ce que l’on fait. Aucun domaine n’échappe à l’intelligence artificielle (IA) et ses choix automatisés. Face à ces algorithmes toujours plus puissants, les populations les plus vulnérables se retrouvent en première ligne. Et souvent, au détriment de leurs droits.
Épisode 1 – TikToxic
Comme tous les ados de 15 ans, Marie aimait passer du temps sur TikTok. Un jour, son fil « Pour toi » l’expose à des idées suicidaires, puis lui en propose en boucle… jusqu’à ce qu’elle passe à l’acte. Aujourd’hui, sa mère mène un combat sans faille pour que TikTok soit reconnu responsable de la mort de sa fille.
TikTok peut vous plonger rapidement dans une spirale de contenus nocifs.
nC'est eux [TikTok] qui créent un problème de santé mentale dans le cerveau de nos enfants.
Écouter cet épisode ?
Pour aller plus loin
Lire aussi : Tiktok, la spirale infernale
Vidéo : Ces parents accusent TikTok d’avoir entretenu le mal être de leur fille
Épisode 2 – La chasse aux pauvres 4.0
Saviez-vous que la Caisse nationale des allocations familiales (CNAF) attribue à chaque allocataire un « score de risque » pour flécher ses contrôles ? Un faible revenu ? Une situation de chômage ? Alors, votre « score de risque » augmente. Et la probabilité de vous faire contrôler aussi.
L'algorithme utilisé par la CNAF, c'est un peu le pendant numérique des contrôles aux faciès.
Aujourd'hui, ce sont des technologies qui sont intrinsèquement discriminatoires.
Écouter cet épisode ?
Pour aller plus loin
Lire aussi : Europe : les algorithmes des systèmes de protection sociale ciblent les plus précaires
Lire aussi : France : l’algorithme de la Caisse nationale des allocations familiales cible les plus précaires
Épisode 3 – Frontières, bienvenue en dystopie !
Détecteurs de mensonges, gardes-frontières gérés par des intelligences artificielles, demandes d’asile traitées par des algorithmes… Ceci n’est pas de la science-fiction : de nombreux outils numériques sont mis en place par des États pour contrôler et surveiller les personnes exilées, au lieu de les protéger.
Les technologies fonctionnent comme le bras armé des politiques migratoires et renforcent le racisme et la xénophobie.
Ce n’est pas de la science-fiction. Partout où ils enregistrent des données, les gens ne sont que des des chiffres, sans humanité.
Écouter cet épisode ?
Pour aller plus loin
Lire aussi : Cinq outils numériques utilisés aux frontières contre les personnes exilées
Écouter u0022WE MADE ITu0022
u0022WE MADE ITu0022, notre podcast sur des combats qui ont changé des vies, des victoires qui ont changé des lois. À découvrir sur toutes les plateformes de podcast.
