Il y a encore deux ans, Gérald Darmanin se montrait réservé sur le recours à la reconnaissance faciale. Aujourd’hui, changement de ton : le ministre de l’Intérieur plaide pour la création d’un groupe de travail chargé de réfléchir à son encadrement légal. Une volte-face qui interroge autant qu’elle inquiète, dans un contexte où la technologie avance plus vite que la loi, et où les libertés individuelles semblent peser moins lourd face à l’obsession sécuritaire.
- Gérald Darmanin souhaite encadrer légalement la reconnaissance faciale en France.
- La loi actuelle limite son usage à des fins d’enquête sous contrôle judiciaire.
- Le gouvernement veut assouplir ces règles, ce qui soulève des inquiétudes sur les libertés individuelles.
Le ministre de la Justice change d’avis sur la reconnaissance faciale
Gérald Darmanin a lancé un pavé dans la marre cette semaine en déclarant sans détour : « Utiliser la technologie et la reconnaissance faciale, ce sont les solutions pour lutter drastiquement contre l’insécurité. » De quoi faire sursauter celles et ceux qui se souviennent de ses propos d’il y a à peine deux ans, où il rejetait toute mise en œuvre massive de ces dispositifs. Le discours a changé. Le climat politique aussi.
Sa promesse ? Créer un cadre législatif clair pour permettre, à terme, un usage autorisé de cette technologie dans l’espace public. Mais entre discours sécuritaire et réel besoin de débat démocratique, la frontière semble bien floue.
Reconnaissance faciale : que dit la loi?
Pour l’instant, la reconnaissance faciale est encadrée strictement en France. Elle ne peut être utilisée qu’a posteriori, à des fins d’enquête, et toujours sous le contrôle du juge. La captation et l’analyse d’images en temps réel, dans des lieux ouverts au public, restent interdites. Un cadre strict, que Darmanin semble désormais vouloir assouplir.
En Europe, les traitements biométriques, notamment la reconnaissance faciale, sont en principe prohibés. Le Règlement Général sur la Protection des Données (RGPD) établit ce cadre restrictif à l’article 9, qui interdit en principe tout traitement de données biométriques. Néanmoins, certaines exceptions clairement définies permettent d’y déroger : cela inclut par exemple le consentement explicite de la personne concernée, la sauvegarde de ses intérêts vitaux ou encore la poursuite d’un objectif d’intérêt public majeur. Chaque cas dérogatoire suppose des garanties renforcées, notamment en matière de proportionnalité et de sécurité des données traitées.
En droit français, cette interdiction est reprise par la loi dite « Informatique et Libertés » (loi n°78-17 du 6 janvier 1978 modifiée). Cette loi renvoie aux exceptions prévues par le RGPD, tout en ajoutant un mécanisme propre : certains traitements biométriques peuvent être autorisés par décret, mais uniquement après un avis motivé et publié de la Commission Nationale de l’Informatique et des Libertés (CNIL). Ce dispositif vise en particulier les traitements réalisés pour le compte de l’État, dans l’exercice de ses missions régaliennes, et portant sur des données génétiques ou biométriques servant à vérifier ou établir l’identité d’un individu (cf. article 31-II et article 32 de la loi Informatique et Libertés).
Un calendrier qui n’a rien d’anodin…
Ce retour de la reconnaissance faciale dans le débat public n’est pas anodin. Il intervient à la suite des Jeux Olympiques de Paris, un événement pendant lequel le gouvernement a testé des outils d’analyse algorithmique sous couvert d’expérimentation temporaire. Le terrain est donc déjà partiellement balisé.
Et derrière le terme rassurant de « groupe de travail », se profile surtout un projet politique de long terme : celui d’une société où l’identification biométrique deviendrait un outil quotidien, banalisé, voire invisible. Ce n’est pas un simple débat technique, c’est un choix de société.
Dans le discours ministériel, l’argument de la sécurité revient comme un mantra. L’idée est simple : la reconnaissance faciale nous protégerait. Mais les exemples à l’étranger, de la Chine aux États-Unis, montrent que ces technologies peuvent aussi devenir des outils de contrôle social, de discrimination algorithmique ou d’erreurs judiciaires. Le risque zéro n’existe pas — surtout quand l’humain délègue à la machine une part de son pouvoir de décision.
Et ce n’est pas la CNIL qui dira le contraire. L’autorité indépendante n’a cessé d’alerter sur les dérives possibles, réclamant des garde-fous stricts. Pour l’instant, elle n’a pas été officiellement sollicitée par Darmanin dans cette nouvelle initiative. Curieux, non ?
Technologie contre libertés : le dilemme du siècle ?
Le débat n’est pas nouveau, mais il mérite d’être reposé sereinement. Car si la technologie peut rendre certains services, elle peut aussi accentuer les fractures, créer de nouveaux biais, et surtout affaiblir les droits fondamentaux si elle est mal encadrée.
Le groupe de travail promis par Darmanin devra répondre à des questions complexes :
- Quel usage autoriser ?
- Avec quelles garanties ?
- Et surtout, quelle finalité ?
Car derrière l’outil, il y a toujours une intention. Et dans ce cas précis, cette intention semble moins dictée par une urgence sécuritaire réelle que par une volonté politique d’aller vers une société toujours plus surveillée.
Un projet de société que tout le monde n’est pas prêt à accepter les yeux fermés…
- CARISSETT Unité de reconnaissance faciale anti-fraude avec vérification en temps réel pour distributeurs automatiques et solutions de surveillance Dispositif de reconnaissance faciale résistant aux
- pour les entreprises, les gestionnaires immobiliers et les développeurs domiciliaires intelligents nécessitant des systèmes de contrôle d’accès, des tests intelligents ou une participation automatisée
- Équipé d’une large technologie d’imagerie dynamique et de détection en direct, il capture des données faciales claires sous un rétroéclairage extrême pendant les attaques d’usurpation photo/vidéo
- S’intègre parfaitement dans les entrées de bureaux, les complexes résidentiels et les kiosques de vente au détail pour les processus de sécurité et de vérification d’identité
- Conçu avec la durabilité des PCB, ce module garantit des performances stables dans les distributeurs automatiques intelligents, les configurations de surveillance et les applications de sécurité IoT
- Le module de reconnaissance faciale XNBB 317 offre une identification rapide et de haute précision avec des algorithmes avancés, excellent dans des conditions d’éclairage complexes et de multiples scénarios d’angle pour des systèmes de sécurité améliorés.