Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
QUAND UN DROIT TOMBE, DES VIES BASCULENT

En faisant un don à Amnesty International, vous dénoncez les violations des droits humains et agissez pour protéger celles et ceux qui en sont victimes.

Espace journalistes

Contact presse

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 6 76 94 37 05

[email protected]

Pour toute autre demande, contactez le standard au 01 53 38 65 65 ou notre Service Relations Membres et Donateurs par téléphone au 01 53 38 65 80 du lundi au jeudi de 9h30 à 12h30 et de 14h30 à 17h30 et le vendredi de 9h30 à 12h30 et de 14h30 à 17h, ou par email : [email protected]

Espace journalistes

Contact presse

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 6 76 94 37 05

[email protected]

Pour toute autre demande, contactez le standard au 01 53 38 65 65 ou notre Service Relations Membres et Donateurs par téléphone au 01 53 38 65 80 du lundi au jeudi de 9h30 à 12h30 et de 14h30 à 17h30 et le vendredi de 9h30 à 12h30 et de 14h30 à 17h, ou par email : [email protected]

Monde. Amnesty International lance un kit pour une responsabilisation concernant les algorithmes, afin de permettre aux enquêteurs·trices, aux défenseur·e·s des droits et aux militant·e·s d’amener de puissants acteurs à rendre des comptes pour les préjudices facilités par l’IA

Face à l’utilisation généralisée de l’intelligence artificielle (IA) et de systèmes de décision automatisée qui ont un impact sur notre vie quotidienne, il est crucial que les défenseur·e·s des droits, les militant·e·s et les populations concernées soient équipés pour faire la lumière sur les graves répercussions de ces systèmes sur nos droits fondamentaux, a déclaré Amnesty International avant le lancement de son kit pour une gestion responsable des algorithmes.

Ce kit s’appuie sur des enquêtes, des campagnes, et des actions de plaidoyer et en direction des médias qu’Amnesty International a menées au Danemark, en Suède, en Serbie, en France, en Inde, au Royaume-Uni, dans le Territoire palestinien occupé (TPO), aux États-Unis et aux Pays-Bas. Il fournit un « mode d’emploi » pour les enquêtes, la mise au jour et l’établissement des responsabilités relatives aux préjudices découlant de systèmes algorithmiques, qui deviennent de plus en plus intégrés à notre quotidien, en particulier dans le secteur public, par exemple les domaines de la sécurité sociale, du maintien de l’ordre, de la santé et de l’éducation.

Quel que soit le lieu dans lequel ces technologies sont déployées, ce qui résulte généralement de leur introduction n’est pas une « efficacité » accrue ou l’« amélioration » des sociétés – ainsi que de nombreux responsables gouvernementaux et grandes entreprises l’affirment – mais plutôt des partis pris, de l’exclusion et des violations des droits humains.

« Le kit est conçu pour quiconque souhaite examiner ou remettre en question l’utilisation de systèmes fondés sur les algorithmes et l’intelligence artificielle dans le secteur public, notamment les organisations de la société civile, les journalistes, les personnes concernées ou les organisations communautaires. Son but est d’être adaptable et polyvalent dans divers cadres et contextes.

« Bâtir notre pouvoir collectif en matière d’enquête et d’établissement des responsabilités en relation avec des systèmes d’IA préjudiciables est essentiel à la remise en question des pratiques abusives de certains États et entreprises, et à notre capacité à faire face à la situation actuelle, marquée par l’explosion des investissements dans l’IA. Ces systèmes ont le pouvoir de permettre une surveillance de masse, de fragiliser notre droit à la protection sociale, de restreindre notre droit de manifester pacifiquement, et de perpétuer l’exclusion, les discriminations et les préjugés à travers la société », a déclaré Damini Satija, directrice de programme à Amnesty Tech.

Le kit introduit une approche à plusieurs niveaux s’appuyant sur les enseignements tirés d’enquêtes effectuées par Amnesty International dans ce domaine ces trois dernières années, ainsi que de collaborations avec des partenaires clés. Cette approche fournit non seulement des outils et des modèles pratiques permettant d’effectuer des recherches sur ces systèmes opaques et les violations des droits humains qui en résultent, mais elle propose aussi des tactiques exhaustives pour les personnes œuvrant à mettre fin à ces systèmes abusifs en essayant d’obtenir des changements et des comptes, par le biais de campagnes, d’une communication stratégique, d’un travail de plaidoyer ou d’actions en justice stratégiques.

L’un des nombreux cas d’étude dont s’inspire le kit est l’enquête réalisée par Amnesty International sur le système danois de sécurité sociale, qui a montré que le système assisté par IA employé par l’autorité danoise chargée de la protection sociale, Udbetaling Danmark (UDK), alimente la surveillance de masse etrisque d’exercer une discrimination à l’égard des personnes en situation de handicap, à faible revenu, migrantes ou réfugiées, ainsi que des groupes racisés marginalisés, par son recours à des outils fondés sur l’IA pour désigner des personnes qui seront la cible d’enquêtes sur de possibles fraudes aux prestations sociales.

Cette enquête n’aurait pas été possible sans la collaboration des populations touchées, de journalistes et d’organisations de la société civile, et dans cet esprit, le kit s’appuie sur une collaboration étroite entre différentes disciplines. Le kit positionne le droit relatif aux droits humains comme une composante précieuse du travail de responsabilisation en matière d’algorithme, en particulier car il est absent des domaines dédiés à l’éthique et à la responsabilité, ainsi que des méthodes de vérification, en ce qui concerne l’IA.

La méthode d’Amnesty International met essentiellement l’accent sur le travail collaboratif, tout en tirant parti de l’influence collective d’une démarche employant diverses approches. Les communautés concernées et leur capacité à faire respecter l’obligation de rendre des comptes restent au cœur de ce processus.

« Cette question se pose avec encore plus d’acuité actuellement, compte tenu de l’explosion des déclarations et des expérimentations débridées autour des prétendus avantages de l’utilisation de l’IA dans la prestation de services publics. Certains acteurs étatiques soutiennent des investissements énormes dans le développement et les infrastructures relatifs à l’IA, et donnent à des entreprises toute latitude pour poursuivre des intérêts lucratifs, quels que soient les impacts sur les droits humains et sur le long terme », a déclaré Damini Satija.

« Avec ce kit, nous souhaitons démocratiser le savoir et habiliter les organisations de la société civile, les enquêteurs, les journalistes, et les personnes concernées à mettre en lumière ces systèmes et les industries qui les produisent, à exiger des comptes et à mettre fin aux abus permis par ces technologies. » 

Complément d’information

Amnesty International a mené des recherches et un travail de plaidoyer sur l’automatisation et la numérisation dans le secteur public, ainsi que sur les risques relatifs aux droits humains qui y sont associés et les impacts des décisions fondées sur des algorithmes au Danemark, enFrance, aux Pays-Bas, en Inde et en Serbie.

La campagne Ban the Scan d’Amnesty International demande l’interdiction des technologies de reconnaissance faciale à des fins de surveillance de masse. Cette campagne s’appuie sur des recherches et un travail de plaidoyer réalisés dans le Territoire palestinien occupé, à New York et à Hyderabad.

 

The post Monde. Amnesty International lance un kit pour une responsabilisation concernant les algorithmes, afin de permettre aux enquêteurs·trices, aux défenseur·e·s des droits et aux militant·e·s d’amener de puissants acteurs à rendre des comptes pour les préjudices facilités par l’IA appeared first on Amnesty International.

Espace journalistes

Contact presse

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 6 76 94 37 05

[email protected]

Pour toute autre demande, contactez le standard au 01 53 38 65 65 ou notre Service Relations Membres et Donateurs par téléphone au 01 53 38 65 80 du lundi au jeudi de 9h30 à 12h30 et de 14h30 à 17h30 et le vendredi de 9h30 à 12h30 et de 14h30 à 17h, ou par email : [email protected]

Sur le même pays

Monde. La campagne annuelle d’écriture de lettres d’Amnesty International montre que l’humanité peut triompher

Publié le : 10.12.25

Dans un contexte de propagation des pratiques autoritaires, d’effondrement climatique et d’érosion du droit international, Amnesty International lance sa campagne annuelle Écrire pour les droits le 10...

Monde. L’enquête sur les « Intellexa Leaks » dévoile de nouveaux éléments sur la menace que représente son logiciel espion pour les droits humains

Publié le : 04.12.25

Les « Intellexa Leaks », ou fuites de l’entreprise Intellexa, une nouvelle enquête menée conjointement par Inside Story, Haaretz et WAV Research Collective, et s’appuyant sur l’analyse technique apportée...

Monde. L’Assemblée des États parties ne doit pas chercher à atténuer les sanctions américaines contre la CPI, mais s’y s’opposer

Publié le : 01.12.25

Les États doivent fermement s’opposer aux menaces et sanctions du gouvernement des États-Unis contre la Cour pénale internationale (CPI) et protéger la capacité de la Cour à continuer son mandat indépendant...

Monde. Plus de 170 000 personnes soutiennent la pétition mondiale appelant TikTok à corriger ses aspects toxiques et addictifs

Publié le : 25.11.25

Mardi 25 novembre, quatre jeunes militant·e·s des droits numériques venus d’Irlande, d’Argentine et de France livreront une pétition au siège de TikTok à Dublin, en Irlande, pour demander que l’entreprise...

Monde. Comment les défenseur·e·s des droits humains peuvent répliquer à leur criminalisation

Publié le : 24.11.25

Face à la criminalisation croissante des défenseur·e·s des droits humains, des militant·e·s et des journalistes dans le monde, Amnesty International, le Forum africain de contrôle civil de l’application...