Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE GAZA

 Exigez avec nous la justice pour toutes les victimes et la protection sans condition des populations civiles

IA QUOI Libertés sous algorithmes

WE MADE IT #7 | IA QUOI ? Libertés sous algorithmes

Nos libertés sont aujourd'hui sous algorithmes. Ils déterminent ce que l'on voit, orientent ce que l'on pense et surveillent ce que l'on fait. Aucun domaine n'échappe à l'intelligence artificielle (IA) et ses choix automatisés. Face à ces algorithmes toujours plus puissants, les populations les plus vulnérables se retrouvent en première ligne. Et souvent, au détriment de leurs droits.

Épisode 1 – TikToxic

Comme tous les ados de 15 ans, Marie aimait passer du temps sur TikTok. Un jour, son fil « Pour toi » l'expose à des idées suicidaires, puis lui en propose en boucle... jusqu'à ce qu'elle passe à l'acte. Aujourd'hui, sa mère mène un combat sans faille pour que TikTok soit reconnu responsable de la mort de sa fille.

Noé
Hamon
TikTok peut vous plonger rapidement dans une spirale de contenus nocifs.
Membre de la commission « Technologies et droits humains » à Amnesty International France
Stéphanie
Mistre
​ C'est eux [TikTok] qui créent un problème de santé mentale dans le cerveau de nos enfants. ​
Mère de Marie et co-fondatrice du collectif Algos Victima

Écouter cet épisode 👇

Pour aller plus loin

Lire aussi : Tiktok, la spirale infernale

Vidéo : Ces parents accusent TikTok d’avoir entretenu le mal être de leur fille

Épisode 2 – La chasse aux pauvres 4.0

Saviez-vous que la Caisse nationale des allocations familiales (CNAF) attribue à chaque allocataire un « score de risque » pour flécher ses contrôles ? ​Un faible revenu ? Une situation de chômage ? Alors, votre « score de risque » augmente. Et la probabilité de vous faire contrôler aussi.

Clément
Terrasson
L'algorithme utilisé par la CNAF, c'est un peu le pendant numérique des contrôles aux faciès.
Avocat, spécialiste des litiges contre la CNAF
Katia
Roux
Aujourd'hui, ce sont des technologies qui sont intrinsèquement discriminatoires.
Chargée de plaidoyer « Technologies et droits humains » à Amnesty International France

Épisode disponible le 18 septembre

Pour aller plus loin

Lire aussi : Europe : les algorithmes des systèmes de protection sociale ciblent les plus précaires

Lire aussi : France : l'algorithme de la Caisse nationale des allocations familiales cible les plus précaires

Épisode 3 – Frontières, bienvenue en dystopie !

Détecteurs de mensonges, gardes-frontières gérés par des intelligences artificielles, demandes d’asile traitées par des algorithmes… Ceci n'est pas de la science-fiction : de nombreux outils numériques sont mis en place par des États pour contrôler et surveiller les personnes exilées, au lieu de les protéger.

Chloé
Berthélémy
Les technologies fonctionnent comme le bras armé des politiques migratoires et renforcent le racisme et la xénophobie.
Conseillère politique à l’EDRi (European Digital Rights)
Jennifer
Kamau
Ce n’est pas de la science-fiction. Partout où ils enregistrent des données, les gens ne sont que des des chiffres, sans humanité.
Fondatrice de l’association International Women Space

Épisode disponible le 25 septembre

Pour aller plus loin

Lire aussi : Cinq outils numériques utilisés aux frontières contre les personnes exilées

loading ...