28 septembre 2021

Temps de lecture : 4 min

L’Australie déploie massivement la reconnaissance faciale pour contrôler les quarantaines !

Premier pays, en dehors de la Chine, à mettre en place la reconnaissance faciale pour contrôler ses administrés dans le bon respect de leur quarantaine, l’Australie fait figure de – piètre – exemple. De quoi inspirer certains États européens ? Pas tant que les citoyens se feront entendre.

Depuis plusieurs mois, l’usage de la reconnaissance faciale à des fins sécuritaires et/ou sanitaires, et les réserves qu’il suscite, tant des citoyens que des institutions nationales ou européennes, ne cesse d’être traité dans nos colonnes. Si la Chine avait jeté un pavé dans la mare en 2014 avec l’instauration de son « crédit social » – en témoigne la horde de sujets à charge diffusés et publiés à l’époque par les mass media –, l’apathie médiatique semble aujourd’hui prévaloir dès que l’on évoque une possible application de cette technologie sur un territoire européen. Certes, on est encore loin de la résignation collective dépeinte dans Black Mirror – en Europe tout du moins –, mais quand on voit l’intérêt grandissant des pouvoirs public pour une telle technologie, on ne peut que redouter l’avenir. D’autant plus que ce qui est vrai dans nos contrées l’est davantage de l’autre côté de l’Atlantique ou de l’Océan Indien. De quoi donner ensuite donner des idées à tous les ayatollah du progrès technologique.

Une terre d’expérimentation

Début septembre, la police australienne annonçait recourir à la reconnaissance faciale pour s’assurer du bon respect des mesures sanitaires par ses concitoyens. En l’occurrence, ce sont les états de Nouvelles-Galles du Sud et Victoria – qui abrite notamment Sydney, Melbourne et donc plus de la moitié des 25 millions d’australiens – qui y ont recours pour s’assurer que leurs administrés restent bien isolés durant leur quarantaine. Le protocole mis en place impose aux australiens concernés de répondre à des contrôles inopinés en envoyant un selfie capturé depuis leur domicile. Si le logiciel, qui collecte également des données sur la localisation de ses utilisateurs, n’arrive pas à vérifier la « signature faciale » de la personne, la police est susceptible de passer à leur domicile pour de plus amples vérifications. Ces essais, réalisés sur la base du volontariat, sont basé sur une technologie développée depuis 2020 par une entreprise dénommée Genvis. La firme basée à Perth espère profiter de cet essai grandeur nature pour ensuite vendre leur solution à l’étranger.

L’ironie du sort est que cette information lourde de conséquences a été révélée quelques jours à peine après que les Nations Unies ont mis en garde sur les dangers de cette technologie en regard des droits de l’homme. Michelle Bachelet, la haute-commissaire des Nation unies aux droits de l’homme, a déclaré le mercredi 15 septembre dernier que la reconnaissance faciale présente « un risque grave pour les droits de l’homme », jusqu’à ce que « des garanties adéquates soient mises en place ». Avant de poursuivre : « L’intelligence artificielle peut être une force pour le bien, aidant les sociétés à surmonter certains des grands défis de notre époque, a-t-elle déclaré. Mais les technologies de l’IA peuvent avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans tenir suffisamment compte de la manière dont elles affectent les droits humains des personnes ».

Des opinions divergentes

Au vu de ces révélations, Kristin Butcher, directrice générale de Gengis a déclaré sobrement que « nous ne pouvons pas instaurer une quarantaine obligatoire sans opérer de vérifications si l’on souhaite que les populations ne courent aucuns dangers. D’autre part, il est impossible de vérifier systématiquement chaque adresse sur un territoire national donné, ainsi l’usage de la technologie s’impose ». Loin de partager sa vision de la situation, de nombreux avocats des droits humains ont déjà mis en garde sur l’inexactitude de la reconnaissance faciale, d’une part, et sur le risque d’une utilisation des données récoltés par les autorités à des fins autres que simplement sanitaire, d’autre part. Interrogé sur le sujet par d’Euronews, Toby Walsh, professeur d’Intelligence Artificielle à l’université de Nouvelle-Galles du Sud, concluait : « Cet usage spécifique me dérange, mais je suis avant tout inquiet par le fait que celui-ci symbolise la montée en puissance de cette technologie dans nos vies. Même si elle fonctionne convenablement, elle valide l’idée que l’application de la reconnaissance faciale est légitime. Jusqu’où irons-nous ? ».

En attendant le dénouement de cet effroyable scenario, nous vous relayons les résultats – encourageants – d’une étude menée par des chercheurs de l’Université Ben-Gurion du Néguev dont l’objectif était d’élaborer des moyens pour contourner ces logiciels de reconnaissance faciale. Après avoir appliqué du maquillage numériquement puis physiquement sur une vingtaine de personnes, les scientifiques ont réussi à tromper les logiciels dans 98% des cas. Le processus s’est fait en deux étapes : le maquillage numérique a été appliqué en fonction d’une carte thermique ciblant les régions les plus identifiables du visage. Un maquilleur a ensuite reproduit le maquillage numérique sur les participants, en s’assurant que le résultat soit le plus naturel possible. Dans les expériences numériques, les taux de réussites s’élevaient à 100 %. Concernant les expériences physiques, les participants ont été identifiés dans 47 % des cas, lorsqu’ils ne portaient pas de maquillage, et dans 33,7 % des cas quand ils étaient maquillés de façon aléatoire. Cependant, le système n’a identifié les participants que dans 1,2 % des cas lorsque les chercheurs ont appliqué le maquillage sur les parties hautement identifiables du visage. Concernant le maquillage utilisé, aucune crainte à avoir : l’objectif n’est pas de vous grimer comme le Joker de Todd Philips dès que vous voudrez passer un portique de sécurité. Les chercheurs ont eu recours à des palettes de couleur neutres pour obtenir une apparence naturelle. En bref, une étude qui rassurera – quelque peu – les défenseurs des droits de l’homme du monde… et les actionnaires de Séphora.

 

 

 

En résumé

Pour faire appliquer les quarantaines imposées à ses administrés, l’Australie teste des protocoles à base de reconnaissance faciale.

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia