L’utilisation d’une technologie de surveillance controversée démontre la nécessité de limiter le pouvoir de la police

Publié le 08 janvier 2022 par Mycamer

Cette chronique est une opinion de Kate Schneider, étudiante à la maîtrise à l’Université d’Oxford de Waterloo, en Ontario. Pour plus d’informations sur Section Opinion de CBC, veuillez consulter le FAQ.

Le mois dernier, CBC a publié un rapport divulguant nouveaux détails à propos de l’utilisation par le service de police de Toronto de la technologie de surveillance controversée de Clearview AI. Les résultats ont confirmé que la police de Toronto avait utilisé un logiciel de reconnaissance faciale pour identifier à la fois les suspects et les victimes dans plusieurs dizaines d’enquêtes policières.

Ces découvertes se sont appuyées sur les nouvelles de Février 2020 qui a initialement révélé que plusieurs agents avaient utilisé une version d’essai du logiciel, malgré leur refus de l’utiliser un mois auparavant.

Cette nouvelle en elle-même est profondément troublante, et pas seulement pour les implications sur la vie privée. Il révèle un degré inquiétant de pouvoir détenu par les forces de police et comment certaines technologies peuvent permettre l’abus de ce pouvoir.

Préoccupations concernant Clearview AI

Le service de police de Toronto n’est pas le seul organisme d’application de la loi au Canada à avoir été critiqué pour sa relation avec Clearview AI. Ces révélations ont été annoncées à la suite de la crise du Canada Décision du commissaire à la protection de la vie privée en juin que l’utilisation par la GRC de Clearview AI pour récupérer des images en ligne de Canadiens sans leur consentement violait la Loi sur la protection des renseignements personnels. Les services de police de Vancouver, Edmonton, Calgary, et Ottawa ont également divulgué avoir utilisé – ou “testé” – ce logiciel dans le passé.

Clearview AI est basée aux États-Unis, mais est bien connue dans le monde pour son logiciel de reconnaissance faciale. De nombreux services de police à travers le monde ont admis avoir utilisé cette technologie, y compris des services de États-Unis, La France, Australie, et le Royaume-Uni. La plupart de ces pays ont demandé à Clearview de purger sa base de données des images collectées là-bas. Il est projeté que un quart des forces de police américaines disposent d’outils de reconnaissance faciale.

Cette technologie de reconnaissance faciale peut être appliquée dans un certain nombre de situations. La police a été critiquée pour l’avoir utilisé pour identifier les manifestants lors de manifestations publiques. Ils peuvent également extraire des images de caméras de vidéosurveillance à proximité de scènes de crime et tenter de faire correspondre les visages identifiés avec la base de données alarmante de Clearview AI de plus de 10 milliards d’images extrait des sites de médias sociaux.

Les capacités de Clearview AI deviennent de plus en plus sophistiquées de manière terrifiante. En octobre 2021, le PDG Hoan Ton-That a annoncé que Clearview développait de nouveaux outils de reconnaissance faciale qui pourraient rendre les visages déguisés pour des raisons de confidentialité ou identifier quelqu’un même masqué.

La police face à un examen minutieux

À une époque où les forces de l’ordre font déjà l’objet d’une surveillance accrue par des mouvements comme Financer la police, la relation des forces policières canadiennes avec Clearview AI devrait nous rendre encore plus sceptiques quant à l’élargissement du pouvoir de la police.

En particulier, la capacité de la police à surveiller les Canadiens est la plus préoccupante pour le impacts potentiels sur les personnes racialisées, en particulier les Noirs et les Autochtones.

Bien que nous prétendions parfois que le racisme est exclusivement un problème américain, le Canada a sa propre histoire établie de discrimination raciale menée par la police. En tant qu’activiste et écrivain Desmond Cole a documenté, la police canadienne a maintenu des programmes de discrimination raciale, tels que les brevets. Une Commission ontarienne des droits de la personne Un rapport de 2020 a également révélé que la police de Toronto ciblait de manière disproportionnée les Canadiens noirs.

La technologie est souvent présentée comme moins biaisée en raison des hypothèses selon lesquelles elle élimine les préjugés humains. Cependant, il a été démontré que les logiciels de surveillance policière identifier mal les personnes racialisées à un taux plus élevé que les suspects blancs.

Avec tous ces facteurs combinés, il est clair que la police employant la technologie de surveillance n’est pas seulement une question de confidentialité. C’est aussi une question de racisme.

La voie à suivre

L’utilisation de Clearview AI par les forces de police canadiennes démontre un besoin de réglementer les technologies de surveillance par reconnaissance faciale en raison de leurs capacités inquiétantes à violer notre vie privée. Plus fondamentalement, cela montre aussi la nécessité de se méfier de plus en plus du pouvoir exercé par la police au Canada.

Comme on le voit, la vitesse de l’innovation technologique et les outils plus sophistiqués correspondants à la disposition des forces de l’ordre ne feront qu’exacerber les risques d’accorder un pouvoir policier étendu. Bien que tous les Canadiens devraient être inquiets, les antécédents policiers de notre pays montrent que les personnes racialisées en subiront très probablement les conséquences de manière disproportionnée.

Experts et défenseurs contre les violences policières ont déjà posé plusieurs suggestions pour savoir comment nous pouvons limiter le pouvoir de la police et assurer la sécurité de nos communautés dans moyens alternatifs. Les conclusions concernant la police canadienne et Clearview AI démontrent qu’il est temps que nous prêtions une attention particulière à ces demandes et que nous y donnions suite.


Avez-vous une opinion bien arrêtée qui pourrait apporter un éclairage, éclairer un problème dans l’actualité ou changer la façon dont les gens pensent d’un problème ? Nous voulons de vos nouvelles. Voici comment nous pitcher.

— to www.cbc.ca