24 mai 2020

Temps de lecture : 3 min

L’interdiction des drones de surveillance à Paris ne mettra pas fin à la technopolice

Alors que le Conseil d’État vient d’interdire l’usage de drones pour contrôler le déconfinement à Paris, d’autres outils de surveillance comme les capteurs sonores et les caméras à reconnaissance faciale sont encore librement utilisés par la police malgré une absence totale de cadre juridique.

Alors que le Conseil d’État vient d’interdire l’usage de drones pour contrôler le déconfinement à Paris, d’autres outils de surveillance comme les capteurs sonores et les caméras à reconnaissance faciale sont encore librement utilisés par la police malgré une absence totale de cadre juridique.

« Restez chez vous, vous ne pouvez pas rester sur cette zone », répétait en boucle un drone qui patrouillait place du Louvre le 22 mars dernier. Cette vidéo devenue virale a marqué une nouvelle étape dans la surveillance de masse française. Sans fondement légal, la police administrative a déployé des drones de surveillance pour s’assurer du bon confinement des Parisiens. Une décision jugée liberticide et infondée en droit par La Quadrature du Net et la Ligue des Droits de l’Homme, deux associations qui protègent les libertés individuelles. Suite aux recours qu’elles ont déposés, le Conseil d’État, la plus haute autorité administrative du pays, a reconnu l’illégalité de tout drone équipé de caméras capable de détecter et identifier des individus. Une victoire historique selon les deux associations.

« La ville de Nice a déjà annoncé qu’elle allait cesser l’usage de drones »

Bastien Le Querrec, membre du groupe contentieux de La Quadrature du Net précise les conséquences de cette décision : « L’objectif du recours était qu’à partir des informations obtenues à Paris, on puisse obtenir une décision qui dégagerait des principes généraux applicables ailleurs. Or, le Conseil d’État a jugé que le déploiement de drones en capacité technique d’identifier des personnes, et ce sans cadre juridique préalable, était illégal. Cela pourrait créer un précédent sur tout le territoire ». Une décision de portée nationale qui s’est fondée sur le flou juridique que posait l’état d’urgence sanitaire en matière d’utilisation de drones. Ces derniers pouvaient être déployés librement par la police administrative au mépris de la convention européenne de sauvegarde des droits de l’homme.

Face à cette décision emblématique en matière de protection de la vie privée, certaines mairies ont déjà changé de pratique. « La ville de Nice a annoncé qu’elle allait cesser de faire voler ses drones. Chaque mairie sera maîtresse de sa décision, mais c’est encourageant », souligne Bastien Le Querrec. Pour l’instant, la décision se limite au territoire parisien, mais si de nouveaux recours sont déposés en région, aucune mairie ne pourrait soutenir juridiquement l’usage de drones de surveillance. Même au sommet de l’État, la réhabilitation des drones semble difficile à obtenir. « Si la police veut malgré tout faire usage de drones, ces derniers ne doivent pas permettre d’identification, ce qui est en l’espèce presque toujours le cas ». La seule alternative au verrouillage par le Conseil d’État ? « Un décret de l’exécutif qui pourrait encadrer l’usage des drones, auquel cas nous veillerons à ce que cette décision soit contestée de nouveau devant la justice administrative », précise le juriste.

Après les drones, les dangers de la police prédictive

Au-delà des drones, la Quadrature du Net lutte contre toutes les formes de surveillance qui participent à la consolidation d’une technopolice, c’est-à-dire d’une mise sous surveillance technologique de l’espace urbain à des fins policières. Parmi les outils de cette technopolice, la police prédictive. « C’est une technologie fondée sur la croyance que les algorithmes sont plus efficaces que les humains pour détecter un trouble à l’ordre du public. L’algorithme Paved aide par exemple la gendarmerie à prendre des décisions à partir de délits préalablement enregistrés dans la une zone» .

Un usage de la Big Data et de l’intelligence artificielle qui peut présenter des biais. « Si la police prédictive française ne fait pas de prédictions individuelles comme aux États-Unis, elle porte néanmoins sur des anticipations de comportements et de situations à éviter en repérant les manières de s’habiller, des présences suspectes en zone sensible, l’inscription de tags ou des bruits suspects… ». Des critères distinctifs qui tendent à renforcer les biais raciaux et les discriminations sociales et territoriales.

Capteurs sonores et surveillance automatisée

Une autre technologie dans le collimateur de La Quadrature : les capteurs sonores, des micros installés dans l’espace public censés détecter les troubles à l’ordre public. « Dans la ville de Saint-Etienne, des micros identifiaient des crépitements pour repérer un incendie, des bruits de verre pour une rixe ou un cambriolage, des cris pour une dispute ou une bagarre. Le projet a finalement été abandonné quand la CNIL a notifié la mairie de son caractère illégal ».

Une petite victoire pour les défenseurs des droits qui luttent également contre la vidéosurveillance automatisée. « L’objectif est d’analyser des flux vidéo pour détecter des troubles à l’ordre du public. Il n’y a plus d’humain, seulement de l’algorithme ». Plusieurs expériences de reconnaissance faciale ont ainsi été menées en France, que ce soit avec la startup Datakalab à Cannes ou plus récemment à la station Châtelet de la RATP à Paris. « À chaque fois c’est la même logique : les entreprises déclarent se limiter à un traitement de données automatisé à des fins statistiques, mais il n’y a pas de garantie que l’usage ne bascule pas vers des fins de répression ». La RATP est sur le point de lancer son « Lab Intelligence artificielle Vidéo » pour optimiser son réseau de 51 000 caméras et expérimenter la reconnaissance faciale. Preuve s’il en est des intentions panoptiques des entreprises privées.

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia