Erreur de reconnaissance faciale : une grand-mère emprisonnée à tort pendant six mois
Une grand-mère américaine a purgé six mois de prison après qu'un algorithme de reconnaissance faciale l'a faussement identifiée comme suspecte dans une affaire de fraude bancaire. Une illustration des dangers des biais algorithmiques et des failles judiciaires.

Un algorithme à l'origine d'une arrestation abusive
Le 14 juillet 2025, des agents fédéraux du FBI et de la police de Fargo (Dakota du Nord) ont fait irruption au domicile d'Angela Lipps, une grand-mère de 50 ans résidant dans le Tennessee. Armés et sans mandat explicite, ils l'ont arrêtée sous la menace, alors qu'elle s'occupait de quatre enfants. L'accusation ? Une fraude bancaire présumée impliquant l'utilisation d'une fausse carte d'identité militaire pour retirer des dizaines de milliers de dollars entre avril et mai 2025 dans plusieurs banques du Dakota du Nord.
Le seul élément incriminant ? Un système de reconnaissance faciale ayant établi une correspondance entre son visage et celui de la suspecte présumée. Problème : Angela Lipps se trouvait à plus de 2 000 kilomètres des lieux des faits au moment des infractions. Ses relevés bancaires et son téléphone portable ont confirmé son alibi, prouvant qu'elle n'avait aucun lien avec l'affaire.
Les mécanismes techniques de la reconnaissance faciale en cause
L'algorithme utilisé par les autorités du Dakota du Nord s'appuie vraisemblablement sur un modèle de deep learning de type convolutional neural network (CNN), entraîné sur des bases de données comme MegaFace ou MS-Celeb-1M. Ces systèmes comparent des points caractéristiques du visage (distances inter-oculaires, forme du nez, etc.) avec une base de données de visages suspects. Dans le cas d'Angela Lipps, la correspondance a été établie avec un seuil de confiance élevé, probablement supérieur à 90%, ce qui a suffi à déclencher une alerte policière.
Cependant, les CNN utilisés pour la reconnaissance faciale sont connus pour leurs biais de généralisation. Ils peuvent produire des faux positifs en cas de similitude partielle (même ethnie, mêmes traits faciaux atténués par l'âge ou la qualité médiocre des images). De plus, ces systèmes ne tiennent pas compte du contexte temporel ou géographique, une faille exploitée dans ce cas précis.
Les failles du système judiciaire face aux preuves algorithmiques
L'affaire révèle plusieurs dysfonctionnements structurels dans l'utilisation de la reconnaissance faciale par les forces de l'ordre. D'abord, l'absence de double vérification humaine avant une arrestation. Les policiers du Dakota du Nord ont pris pour argent comptant le résultat de l'algorithme, sans croiser les données avec d'autres éléments (géolocalisation, témoignages, etc.). Ensuite, le manque de transparence sur les critères de seuil de confiance utilisés par le système. Les forces de l'ordre n'ont pas divulgué le taux de faux positifs du modèle, ni les méthodes de calibration des seuils. Une pratique courante dans le domaine, où les algorithmes sont souvent considérés comme des boîtes noires par les autorités. Enfin, l'absence de cadre légal strict encadrant l'utilisation de ces outils. Aux États-Unis, seuls quelques États comme l'Illinois (via le Biometric Information Privacy Act) ou la Californie (via le Consumer Privacy Act) réglementent partiellement leur usage. Le Dakota du Nord ne fait partie d'aucun de ces États, laissant carte blanche aux forces de l'ordre pour déployer des technologies non auditées.
Les conséquences humaines et juridiques de l'erreur
Angela Lipps a passé près de six mois en prison, dans l'attente d'un procès qui n'a jamais eu lieu. Ses enfants et petits-enfants ont subi un traumatisme durable, tandis que sa réputation a été irrémédiablement entachée. Malgré la preuve de son innocence, elle attend toujours des excuses officielles des autorités du Dakota du Nord. Sur le plan juridique, cette affaire soulève des questions sur la responsabilité des algorithmes dans les erreurs judiciaires. Aux États-Unis, les recours contre les systèmes de reconnaissance faciale sont quasi inexistants, faute de cadre légal clair. La seule issue possible pour les victimes reste une action en justice pour négligence ou violation des droits civils, comme l'a fait Angela Lipps avec l'aide de l'ACLU (American Civil Liberties Union). Cette affaire rappelle celle de Robert Williams, arrêté à tort en 2020 par la police de Détroit suite à une erreur de reconnaissance faciale, ou encore celle de Nijeer Parks, incarcéré pendant dix jours en 2019 pour un crime qu'il n'avait pas commis. Ces cas illustrent l'urgence d'encadrer strictement ces technologies, sous peine de voir se multiplier les injustices.
Les limites techniques des systèmes de reconnaissance faciale
Les erreurs comme celle d'Angela Lipps s'expliquent par plusieurs limites inhérentes aux technologies actuelles. D'abord, la qualité des données d'entraînement. Les bases de données comme MegaFace ou MS-Celeb-1M sont souvent biaisées, avec une surreprésentation de visages masculins, blancs et jeunes. Cela conduit à des taux d'erreur plus élevés pour les femmes, les personnes de couleur ou les personnes âgées, comme Angela Lipps. Ensuite, la sensibilité aux variations d'éclairage et de pose. Les algorithmes modernes, bien que performants en conditions contrôlées, peinent à reconnaître un visage dans des conditions réelles (ombres, angles de prise de vue, expressions faciales). Une étude du National Institute of Standards and Technology (NIST) en 2023 a montré que les taux d'erreur pouvaient varier de 10 à 30% selon les conditions. Enfin, l'absence de mécanismes de révision en temps réel. Une fois qu'un algorithme a identifié un suspect, il n'existe aucun protocole pour remettre en cause cette décision avant une arrestation. Les systèmes comme celui utilisé au Dakota du Nord ne disposent pas de modules de feedback loop permettant de corriger les erreurs à posteriori. Pour améliorer la fiabilité, des solutions émergent, comme les systèmes hybrides combinant reconnaissance faciale et analyse comportementale, ou encore l'utilisation de modèles de type Vision Transformer (ViT), plus robustes aux variations de pose. Cependant, ces avancées restent marginales dans les outils déployés par les forces de l'ordre.
Les implications pour l'avenir de la reconnaissance faciale
Cette affaire intervient dans un contexte de montée des critiques contre la reconnaissance faciale aux États-Unis et en Europe. Plusieurs villes, comme San Francisco ou Portland, ont interdit son utilisation par la police. En France, la CNIL a récemment rappelé que son usage devait être strictement encadré pour éviter les dérives. Pourtant, les forces de l'ordre continuent de déployer ces outils, souvent sans transparence ni évaluation indépendante. Le cas d'Angela Lipps montre que les risques de faux positifs ne sont pas marginaux, mais systémiques. Une étude de l'université du Michigan en 2024 a révélé que les algorithmes de reconnaissance faciale produisaient des faux positifs dans 1 à 5% des cas, un taux inacceptable pour un outil judiciaire. Face à ces enjeux, plusieurs pistes sont envisagées :
- L'audit obligatoire des algorithmes par des tiers indépendants, comme le propose le Algorithmic Accountability Act aux États-Unis.
- L'instauration de seuils de confiance minimaux pour les correspondances, avec une double vérification humaine pour les cas critiques.
- L'interdiction des systèmes de reconnaissance faciale en temps réel dans l'espace public, comme le recommande l'UE dans son AI Act.
- Le développement de mécanismes de recours pour les victimes d'erreurs algorithmiques, avec des indemnisations automatiques en cas de faux positif avéré.