Accéder au contenu principal
Découvertes

Le taux d'erreur du logiciel de reconnaissance faciale de la police galloise est aberrant

Un an après sa mise en place, les statistiques d'erreurs du programme de reconnaissance faciale de la police galloise ont été dévoilées. Et le moins que l'on puisse dire, c'est que ces chiffres sont loin d'être négligeables.

Une publicité pour l'émission "Big Brother" dans les couloirs du métro londonien (2000).
Une publicité pour l'émission "Big Brother" dans les couloirs du métro londonien (2000). Carlos Lopez-Barillas/Getty Images
Publicité

Pour retrouver un suspect, il existe plusieurs solutions : se fier à un portrait-robot – quelle que soit sa qualité –, ou utiliser la reconnaissance faciale pour débusquer, comme l'a fait la Chine, un criminel en plein milieu d'un concert. Mais parfois, cette dernière technique n'offre pas vraiment le résultat escompté. En Grande-Bretagne par exemple, le système n'est pas encore tout à fait au point. 

VOIR AUSSI : En Chine, la reconnaissance faciale a permis l'arrestation d'un suspect au milieu d'une foule de 50 000 personnes

Mis en place à Cardiff l'an dernier lors de la finale de la Ligue des Champions, le programme de reconnaissance faciale de la police galloise n'a pas généré des résultats probants, comme le rapporte The Guardian dans un article. Après avoir scanné les visages de 170 000 personnes lors de l'événement, 2 470 ont été recensées comme criminelles car présentant des similitudes avec les photos présentes dans les bases de données. Sur ces 2 470 "suspects", 2 297 fausses alertes. Une marge d'erreur d'environ 92 %, donc. 

Pour se défendre, la police galloise a précisé dans un communiqué que "aucun système de reconnaissance faciale n'était fiable à 100 %", et que depuis sa mise en place en juin 2017, il avait tout de même permis 450 arrestations. Les autorités expliquent également n'avoir "arrêté aucun individu après une fausse alerte", comme celles comptabilisées lors de la finale de la Ligue des Champions par exemple. 

La faute aux "images de mauvaise qualité"

Pourquoi un taux d'erreur si important ? La police blâme les "images de mauvaise qualité" récoltées par le programme, et explique également qu'il s'agissait d'un premier essai d'une telle ampleur, d'où les défaillances. Cependant, ce mauvais démarrage n'a pas découragé les autorités galloises, qui ont continué et continueront à se servir du système notamment pour des événements importants, "potentiellement cibles de terroristes". Et si jamais d'autres erreurs continuent de se présenter, elles assurent qu'une "discussion entre le policier intervenant et l’individu" fiché serait suffisante pour prendre conscience de l'erreur du système. 

Une décision qui n'a pas manqué de faire réagir l'association à but non-lucratif Big Brother Watch, qui lutte pour les libertés et la protection de la vie privée. Via Twitter, l'organisation a annoncé le 5 mai qu'elle allait présenter sa campagne "#FaceOff" au Parlement britannique ce mois-ci : "Big Brother Watch, Football Supporters Federation et beaucoup d'autre alliés demandent à la police de mettre immédiatement fin à leur utilisation anarchique de la reconnaissance faciale."

Quelque chose à ajouter ? Dites-le en commentaire.

Le résumé de la semaineFrance 24 vous propose de revenir sur les actualités qui ont marqué la semaine

Emportez l'actualité internationale partout avec vous ! Téléchargez l'application France 24

Partager :
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.