Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE GAZA-ISRAËL

Face à l’horreur, agissez avec nous pour exiger un cessez-le-feu immédiat et la protection des civils.

Plateforme du logiciel Briefcam qui permet la reconnaissance faciale. La police française se serait dôtée de ce logiciel depuis 2015 selon l'enquête de Disclose

Plateforme du logiciel Briefcam qui permet la reconnaissance faciale. La police française se serait dôtée de ce logiciel depuis 2015 selon l'enquête de Disclose

Face à l’ampleur des technologies de surveillance en France

En France, les technologies de surveillance deviennent de plus en plus la réponse aux enjeux sécuritaires : reconnaissance faciale à l'entrée des lycées, aux abords des stades, analyse des comportements dans les gares… Retour sur ces expérimentations de vidéosurveillance algorithmique et de reconnaissance faciale qui nous inquiètent.

De nombreux systèmes de surveillance sont expérimentés en France. Déployés pour certains, abandonnés pour d’autres, ces projets démontrent tous un appétit grandissant des autorités et des acteurs en charge de la sécurité pour les technologies de surveillance telles que la reconnaissance faciale.

Quelles sont les expérimentations menées en France ? Dans quelles villes ? Comment sont-elles encadrées et quels sont les risques ? Tour d’horizon des expérimentations des technologies de surveillance en France. 

1. Nice expérimente la reconnaissance faciale lors de son carnaval 

En 2019, Nice a expérimenté la reconnaissance faciale lors de son carnaval avec le logiciel israélien Anyvision. Des visages scannés, en temps réel, sur la voie publique. C'est la première fois qu'une telle expérimentation est réalisée en France. Le dispositif permettait à la fois l’authentification des personnes (vérifier leur identité) et l’identification (identifier une personne dans une foule).

⚠️️ Expérimentation autorisée  

❌ Implication tardive de La CNIL 

❌ Le consentement ne peut pas être une base légale pour le déploiement de la reconnaissance faciale à des fins sécuritaires.

Parce que la reconnaissance faciale à des fins d’identification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire. Signez notre pétition.

2. Marseille et Nice ont voulu tester la reconnaissance faciale dans des lycées 

En 2018, la région Provence-Alpes-Côte-d’Azur (PACA) a autorisé deux lycées de Nice et Marseille à tester la reconnaissance faciale. Le dispositif prévoyait d'installer des portiques à l’entrée des lycées avec un volet « contrôle d’accès biométrique » et un volet « suivi de trajectoire » des lycéens et visiteurs.

❌ Expérimentation non-autorisée  

❌ Dispositif contraire au droit européen

VOICI À QUOI POURRAIT RESSEMBLER UN QUOTIDIEN AVEC RECONNAISSANCE FACIALE

Vous avez du mal à vous figurer à quoi pourrait ressembler votre quotidien avec la reconnaissance faciale ? Notre court-métrage « Dans leurs yeux : la France à l’heure de la reconnaissance faciale » vous invite à le découvrir. Lorsque les technologies de surveillance envahissent nos vies, que reste-t-il de nos libertés ? Un film entre fiction et réalité.

Loading...

Synopsis : Mai 2026, en France. Un lycéen, un homme et une femme sont confrontés à une nouvelle réalité : la reconnaissance faciale. Face à cet œil qui ne dort jamais, quel sera le prix à payer ?

3. La police française équipée d’un logiciel permettant la reconnaissance faciale  

En novembre 2023, le média Disclose révèle que la police française se serait dotée du logiciel israélien Briefcam, qui contient une fonctionnalité de reconnaissance faciale. Celle-ci serait même activée par défaut sur le logiciel depuis 2018. Selon Disclose, le logiciel Briefcam équiperait la police municipale dans près de 200 communes. Pendant huit ans et en dehors de tout cadre légal, la police française aurait donc eu à disposition un outil permettant la reconnaissance faciale dans l’espace public. À la suite des révélations de Disclose, la CNIL a lancé une procédure de contrôle à l’encontre du ministère de l’Intérieur, qui lui-même a demandé une enquête indépendante et des conclusions publiques sous trois mois. Ce délai est largement dépassé, et les conclusions se font toujours attendre.

❌Pas de consultation préalable de la CNIL  

❌Pas d’analyse d’impact relative à la protection des données 

❌Atteinte aux droits fondamentaux si utilisation avérée de la reconnaissance faciale

Parce que la reconnaissance faciale à des fins d’indentification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire. Signez notre pétition. 

4. Le stade de Metz aurait expérimenté la reconnaissance faciale sur des supporters

Les outils de reconnaissance faciale attirent aussi les acteurs privés. En 2020, le club de football FC Metz aurait testé cette technologie lors d’un match de ligue 1 afin d’identifier les spectateurs interdits de stade, détecter les objets abandonnés et « lutter contre le terrorisme ». Les dispositifs de reconnaissance faciale ont été mis en place par l’entreprise Two-i. Le club a démenti, indiquant qu’il ne s’agissait que de « tests techniques à vide, réalisés sur des employés de la start-up ». Les supporters n’étaient pas au courant de l’expérimentation supposée. A leur insu, ils auraient été exposés à des outils de reconnaissance faciale. « Nous refusons de devenir des rats de laboratoire » a réagi l’Association nationale des supporters.

❌Avertissement de la CNIL au FC Metz  

❌Dispositif contraire au droit européen  

❌Violation du droit à la vie privée 

Parce que la reconnaissance faciale à des fins d’identification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire. Signez notre pétition.

Lire aussi : De la VSA à la reconnaissance faciale, il n'y a qu'un pas

5. Des gares à Paris et Marseille analysent les comportements via la vidéosurveillance algorithmique

Depuis plusieurs mois, la vidéosurveillance algorithmique est expérimentée dans la gare du Nord et la gare de Lyon à Paris et, plus récemment, dans la gare de Marseille-Saint-Charles. Ce système de surveillance vise à détecter l’abandon de bagages et à suivre leur propriétaire. Bien qu’il ne s’agisse pas d’outils de reconnaissance faciale, les algorithmes analysent des comportements, des données personnelles comme la démarche ou la taille des personnes. 

L’expérimentation a lieu à :   

Gare du Nord à Paris, du 12 février au 30 août 2024 et concerne 100 caméras  

Gare de Lyon à Paris, du 27 mars au 30 août 2024 et concerne 70 caméras  

Gare Saint-Charles à Marseille, du 15 avril au 30 août 2024 et concerne 87 caméras 

Lire aussi : JO 2024 : en quoi la vidéosurveillance algorithmique pose problème ?

⚠️ Expérimentation en cours 

❌ Risque d’atteinte au droit à la vie privée 

❌Risque d’atteinte au droit à la liberté d’expression 

❌Risque d’atteinte au principe de non-discrimination

En légalisant la VSA à l’occasion des Jeux olympiques et paralympiques, la France ouvre la voie à des technologies encore plus intrusives comme la reconnaissance faciale… nous demandons une loi pour interdire cette technologie avant qu’elle ne devienne une réalité en France. Signez notre pétition.

6. Valenciennes s’équipe de caméras "intelligentes" offertes par Huawei 

Depuis 2017, Valenciennes dispose d'un large réseau de caméras équipées de logiciels d'intelligence artificielle. C’est l’entreprise chinoise Huawei qui a offert à la ville ce dispositif, d’une valeur de 2 millions d'euros. Plusieurs outils sont mis à disposition comme un dispositif de lecture automatisée des plaques d’immatriculation, ou encore un logiciel de vidéosurveillance algorithmique permettant d’évaluer la densité d’une foule et de lancer des alertes.  

⚠️ Dispositif actuellement déployé 

❌Dispositif contraire au droit européen

En légalisant la VSA à l’occasion des Jeux olympiques et paralympiques, la France ouvre la voie à des technologies encore plus intrusives comme la reconnaissance faciale… nous demandons une loi pour interdire cette technologie avant qu’elle ne devienne une réalité en France. Signez notre pétition. 

7. Cannes recourt aux caméras "intelligentes” pour détecter le port du masque

En 2020, Cannes a mis en place des caméras associées à des systèmes d'intelligence artificielle pour détecter le port du masque dans les transports en commun et trois marchés de la ville. C’est l’entreprise française Datakalab qui a fourni les outils.

❌Expérimentation stoppée à la suite de l’avertissement de la CNIL

❌Dispositif contraire au RGPD 

Face à l’ampleur du déploiement des technologies de surveillance en France, une loi interdisant la reconnaissance faciale à des fins d’identification est nécessaire et urgente !

Katia Roux, chargée de plaidoyer technologies & droits humains à Amnesty International France

La liste de ces projets ou dispositifs de surveillance en France est non exhaustive. D’autres villes comme Toulouse, Vannes, Strasbourg seraient dotées de tels outils et d’autres projets encore inconnus sont peut-être en train d’être développés. Retrouvez ici une carte interactive du collectif Technopolice listant les expérimentations de technologies de surveillance en France.

L’intérêt des autorités françaises pour ces technologies de surveillance n’est plus à démontrer. Et il nous préoccupe. Pour prévenir un basculement vers une surveillance généralisée en France, nous demandons, dès maintenant, l’adoption d’une loi visant à interdire la reconnaissance faciale à des fins d’identification dans l’espace public. Seule une interdiction totale de la reconnaissance faciale, sans exception, permettra de garantir nos droits fondamentaux.  

Agir

Dites non à la reconnaissance faciale en France !

Agissez avant que la reconnaissance faciale devienne une réalité en France en signant notre pétition.

Votre signature va permettre d'appuyer le travail de plaidoyer effectué auprès des député·es pour qu'une loi interdisant l'utilisation de la reconnaissance faciale soit déposée à l'Assemblée nationale.