Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE PROCHE ORIENT

Exigez avec nous la protection sans condition des populations civiles

Les anneaux olympiques devant l'hôtel de ville de Paris, le 03/06/2023 / © Maurizio Orlando - Hans Lucas via Reuters
Liberté d'expression

Projet de loi JO 2024 : « La France deviendrait le premier État de l’Union européenne à légaliser la vidéosurveillance algorithmique » 

Avec 37 organisations européennes et internationales, dont Human Rights Watch et le European Center for Not-for-Profit Law (ECNL)  nous demandons le retrait de l’art. 7 du projet de loi JO2024 qui créé un précédent inquiétant en matière de surveillance. Adoptée en l’état, cette loi conduirait la France à ouvrir la voie à des politiques de surveillance intrusive au sein de l'Union européenne. Notre alerte sur un projet de loi qui permettrait l’utilisation d’une vidéosurveillance algorithmique.

Tribune parue dans Le Monde du 6 mars 2023, sous le titre « Les mesures de vidéosurveillance algorithmique introduites par la loi JO 2024 sont contraires au droit international »

Nos organisations de la société civile expriment une vive inquiétude concernant l’article 7 du projet de loi relatif aux Jeux olympiques et paralympiques de 2024. Cette disposition crée en effet une base juridique pour l’utilisation de caméras dotées d’algorithmes, en vue de détecter des événements suspects spécifiques dans l’espace public.

Ce projet de loi ouvre en réalité la voie à l’utilisation d’une vidéosurveillance algorithmique intrusive, sous le couvert d’assurer la sécurité lors d’événements de grande ampleur. En vertu de cette loi, la France deviendrait le premier Etat de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques. Les mesures de surveillance introduites sont en effet contraires au droit international relatif aux droits humains, dans la mesure où elles ne satisfont pas aux principes de nécessité et de proportionnalité, et impliquent des risques inacceptables par rapport à plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination.

Si l’article 7 était adopté, il créerait un précédent inquiétant en matière de surveillance injustifiée et disproportionnée dans l’espace public, au détriment des droits fondamentaux et des libertés. Alors qu’il nous paraît important que la société civile soit consultée afin de pouvoir en débattre, nous demandons le retrait de cet article.

En premier lieu, par sa simple présence dans des zones accessibles au public, la vidéosurveillance algorithmique non ciblée (souvent appelée « indiscriminée ») peut avoir un effet dissuasif sur l’exercice des libertés civiques fondamentales, et notamment le droit à la liberté de réunion, d’association et d’expression. Comme l’ont souligné le Comité européen de la protection des données et le Contrôleur européen de la protection des données, la surveillance biométrique a de graves répercussions sur les attentes raisonnables des personnes en matière d’anonymat dans les espaces publics et a un effet négatif sur leur volonté et leur capacité d’exercer leurs libertés civiques, car elles redoutent d’être identifiées, repérées ou même poursuivies à tort. En l’état, cette mesure menace l’essence même du droit à la vie privée et à la protection des données, ce qui la rend contraire au droit international et européen relatif aux droits humains.

Lire aussi : Projet de loi JO 2024 : vers une normalisation des technologies de surveillance intrusives ?

Stigmatisation et discrimination

Conformément aux valeurs et aux principes démocratiques, lors d’événements de grande ampleur tels que les Jeux olympiques, il est essentiel de garantir l’entière protection de ces droits fondamentaux et d’offrir des conditions propices au débat public, et notamment à l’expression politique dans les espaces publics.

Par ailleurs, ce projet de loi allonge considérablement et dangereusement la liste des motifs justifiant la surveillance des espaces publics. Ainsi, les situations de mendicité ou de rassemblements statiques pourraient être qualifiées d’« atypiques », créant un risque de stigmatisation et de discrimination pour les personnes qui passent beaucoup de temps dans l’espace public, par exemple parce qu’elles sont sans abri, en situation de vulnérabilité économique ou de handicap.

De plus, le paragraphe III de l’article 7 du projet de loi dispose de manière erronée que les systèmes algorithmiques de vidéosurveillance ne traiteront aucune donnée biométrique. Le règlement général sur la protection des données (RGPD) de l’Union européenne définit les données biométriques comme des « données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique » (article 4-14 du RGPD).

Lire aussi : Reconnaissance faciale : quelle menaces pour nos droits ?

Si l’usage de caméras dotées d’algorithmes est destiné à détecter des événements suspects spécifiques dans l’espace public, ces caméras capteront et analyseront forcément les traits physiologiques et les comportements de personnes présentes dans ces espaces. Il pourra s’agir de la posture de leurs corps, de leur démarche, de leurs mouvements, de leurs gestes ou de leur apparence. Le fait d’isoler des personnes par rapport à leur environnement, qui s’avère indispensable en vue de remplir l’objectif du système, constitue une « identification unique ». En effet, comme l’établit la loi sur la protection des données de l’UE et selon l’interprétation du Comité européen de la protection des données, la capacité d’isoler une personne parmi une foule ou par rapport à son environnement, que son nom ou son identité soient connus ou non, constitue une « identification unique ».

Comprendre les limites des technologies

Or il est important de garder à l’esprit que l’utilisation de systèmes basés sur l’intelligence artificielle en vue d’analyser et de prédire les comportements, les émotions ou les intentions des personnes peut être tout aussi intrusive et dangereuse que celle de systèmes visant à identifier des personnes. Le fait de placer des personnes dans une catégorie regroupant les comportements « à risque » sur la base de leurs données biométriques constituerait une catégorisation biométrique.

Il existe un risque que cette mesure, si elle est introduite en France, soit en contradiction avec les recommandations du Défenseur des droits et avec la future loi de l’UE sur l’intelligence artificielle, en cours de discussion au Parlement européen. Dans le cadre du travail législatif en cours, plusieurs amendements proposent l’interdiction totale de la catégorisation biométrique au regard des risques importants qu’elle entraîne pour les droits fondamentaux.

Pour garantir une véritable protection des droits humains, il convient de commencer par comprendre les limites des technologies et d’apporter des preuves de leur adéquation avec les objectifs poursuivis. Dès lors, il est indispensable de mener une étude en vue de déterminer si les technologies introduites au nom de la sécurité répondent à des menaces avérées et quelles incidences leur utilisation aura sur les droits humains et les libertés civiques.

Bien que ce projet de loi présente des risques élevés pour les droits fondamentaux et malgré les preuves existantes de l’inefficacité de la vidéosurveillance en matière de prévention des infractions et des menaces à la sécurité, le gouvernement n’a pas démontré la conformité de ce projet de loi aux principes de nécessité et de proportionnalité, et il n’a pas engagé de véritable dialogue avec la société civile au sujet de cette mesure. De ce fait, il est permis d’estimer que les restrictions des droits humains introduites ne satisfont pas aux trois critères de légalité, de but légitime, de nécessité et de proportionnalité. Elles constituent une violation des obligations incombant aux Etats en matière de droits humains en vertu de traités internationaux, et notamment du Pacte international relatif aux droits civils et politiques et de la Convention européenne des droits de l’homme.

De l’exception à la règle

L’article 7 du projet de loi est représentatif de la tendance inquiétante des gouvernements à étendre leurs pouvoirs de surveillance dans le cadre de mesures d’urgence prises au nom de la sécurité. Or il est rare que ces mesures dites « d’exception » soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme. Souvent, elles ne s’accompagnent pas de garanties suffisantes et de mécanismes de responsabilité, elles manquent de transparence et ne font l’objet d’aucun dialogue avec les parties intéressées.

Cette tendance a été amplement constatée en ce qui concerne les mesures de surveillance prises au cours des deux dernières décennies sous le couvert de la lutte contre le terrorisme et, plus récemment, avec les solutions numériques adoptées dans le contexte de la pandémie de Covid-19. Nous avons également observé par le passé que les Jeux olympiques peuvent servir de terrain d’expérimentation pour doter l’Etat de pouvoirs renforcés qui sont ensuite maintenus lorsque la situation d’exception prend fin.

Ces exemples suffisent à justifier nos craintes de voir l’utilisation de la vidéosurveillance algorithmique perdurer au-delà de 2025. Si elle est adoptée, cette loi constituera également un précédent dangereux pour d’autres pays européens, tels que le Portugal et la Serbie, qui ont tenté, à ce jour sans succès, de légaliser une série de pratiques de surveillance biométrique risquées. La France endosserait alors le rôle peu reluisant de « leader » des politiques de surveillance au sein de l’Union européenne.

Nous espérons sincèrement que les députés français prendront des mesures de toute urgence en consultation avec la société civile afin de répondre aux préoccupations exposées ci-dessus.

Les signataires de la Tribune

Agnès Callamard, Secrétaire Générale - Amnesty International, International

Fanny Hidvegi, Directrice plaidoyer Europe - Access Now, International

Matthias Spielkamp, Directeur exécutif - AlgorithmWatch, Allemagne

Angela Müller, Responsable- AlgorithmWatch CH, Suisse

Bogdan Manolea, Directeur exécutif- ApTI, Roumanie

Quinn McKew, Directrice exécutive - ARTICLE 19, International

Pierre Revillon, Président - Association Nationale des Supporters, France

Silkie Carlo, Directrice - Big Brother Watch, Royaume-Uni

Nadia Benaissa, Lotte Houwing, Expertes politiques- Bits of Freedom, Pays-Bas

Iverna McGowan, Secrétaire Générale - Centre for Democracy & Technology, Europe

Dennis Fink, Président - Chaos Computer Club Lëtzebuerg, Luxembourg

Domen Savič, Directeur Général - Citizen D / Državljan D, Slovénie

Eva Simon, agente principale des politiques - Civil Liberties Union for Europe, Europe

Frank Spaeing, Président - Deutsche Vereinigung für Datenschutz e.V. (DVD), Allemagne

Konstantin Macher, Chargé de campagne - Digitalcourage e.V., Allemagne

Erik Schönenberger, Directeur Général - Digitale Gesellschaft, Suisse

Tom Fredrik Blenning, Directeur Général - Elektronisk Forpost Norge, Norvège

Mireia Orra, Responsable plaidoyer - Eticas Tech, Espagne

Vanja Skoric, Directrice de programme - European Center for Not-for-Profit Law Stichting (ECNL), Europe  

Diego Naranjo, Responsable plaidoyer - European Digital Rights, Europe

Griff Ferris, Expert juridique et politique - Fair Trials, Global

Raffaella Bolini, Jean-Marc Roirant, Co-Présidents -  Forum Civique Européen, France/Europe     

Ronan Evain, Directeur exécutif - Football Supporters Europe, Europe

Elpida Vamvaka, Présidente - Homo Digitalis, Grèce

Frederike Kaltheuner, Directrice Technologie et droits humains - Human Rights Watch, International

Liam Herrick, Directeur exécutif - Irish Council for Civil Liberties, Irlande

Jesper Lund, Président - IT-Pol, Danemark

Jan Vobořil, Directeur exécutif - Iuridicum Remedium, République Tchèque

Ruth Ehrlich, Responsable plaidoyer et campagne - Liberty, Royaume-Uni

Katarzyna Szymielewicz, Présidente et Co-fondatrice - Panoptykon Foundation, Pologne

Ilia Siatitsa, Directrice de programme et experte juridique - Privacy International, Global

Diletta Huyskes, Responsable plaidoyer - Privacy Network, Italie

Danilo Krivokapic, Directeur- Share Foundation, Serbie

Miek Wijnberg, Président - Society Vrijbit, Pays-Bas

Chris Jones, Directeur - Statewatch, Europe

Jasmina Ploštajner, Co-fondatrice - Today is a new day / Danes je nov dan, Slovénie

Agir

La reconnaissance faciale dans nos ville : c'est non !

Notre demande est la suivante : l’interdiction mondiale des systèmes de reconnaissance faciale.