IBM, Amazon et Microsoft ont successivement annoncé mettre un stop à la commercialisation de leurs technologies en reconnaissance faciale aux forces de police. Le profilage racial est un combat -qu’heureusement- personne ne veut mener.
C’était en 2015. L’attentat contre Charlie Hebdo et la série d’attaques du 13 novembre n’avaient pas fini de nous mettre KO, Jean Marie Le Pen était enfin exclu du Front National -un simple détail de l’histoire-, Barack Obama et Raoul Castro clôturaient une embrouille de 54 ans entre leurs deux pays, et la nouvelle trilogie Star Wars s’apprêtait à mettre d’accord la planète entière -pas la notre, malheureusement-. Au milieu de tout ce fracas d’actualités variées, 2015 marqua également l’entrée fracassante de la reconnaissance faciale sur les scènes médiatiques. Après un usage black mirroresque annoncé par le gouvernement chinois, et quelques autres applications souhaitées par les plus techno-utopiques -« c’est quand même vachement utile pour ouvrir son Iphone… »-, un bug dans la matrice n’allait pas tarder à nous remettre les idées en place.
Alors qu’il triait ses photos en utilisant le système proposé par Google Photos, Jacky Alciné, un utilisateur afro-américain et programmateur informatique de profession -ça ne s’invente pas- vit l’un de ses clichés labellisée « Gorilles ». Il lança immédiatement l’alerte sur Twitter en ces mots : « Google Photos, vous faites n’importe quoi. Mon amie n’est pas un gorille. Je comprends bien COMMENT cela a pu arriver, le problème, c’est POURQUOI. C’est comme ça qu’on se rend compte qui est vraiment le marché cible d’un produit ». Dans un article posté le 24 mars dernier, Influencia se demandait justement quel était « le prix démocratique de ce cordon technologique ? ». Une problématique qui transcende le « simple » débat sur la protection de notre vie privée…
Le fond du problème
La reconnaissance faciale est-elle stigmatisante ? Cette interrogation lourde de sens vient juste confirmer un sentiment amer : les algorithmes ont notoirement plus de mal à reconnaître les peaux non blanches ainsi que les femmes. En 2018, le MIT Media Lab avait publié une enquête intitulé Gender Shades, qui pointait du doigt les biais de cette technologie à partir des algorithmes de Microsoft, IBM et Face++. Si l’on prend, par exemple, l’algorithme de Microsoft, le taux de réussite est de 100 % pour les hommes à peau claire contre 79,2 % pour les femmes à peau noire. Le rapport démontre des disparités profondes entre les genres et les couleurs de peau.
Le MIT Media Lab concluait son enquête en affirmant que ces algorithmes sont utilisés avant même d’avoir été « publiquement testés pour une précision démographique ». En réalité, la reconnaissance faciale, même en s’appuyant sur une intelligence artificielle, est entièrement dépendante des données primaires avec lesquelles elle a été conçue. Elle dépend donc exclusivement de qui le conçoit et comment. Raison pour laquelle la résolution du problème passe par des équipes de développement doivent être moins homogènes et plus diversifiées démographiquement afin que les variables démographiques soient pensées et prises en compte lors de la conception. Les auteurs de Gender Bias en appelaient eux-mêmes à une prise de conscience : « Nous risquons de perdre les bénéfices des droits civiques et des droits des femmes à force d’affirmer faussement que les machines sont neutres. Nous demandons plus de transparence et de responsabilité ».
Garder le bon rôle
Mieux vaux tard que jamais, diront les plus cyniques. Alors que les manifestations font rage à travers le monde contre les violences policières et le racisme systémique, les géants de la tech semblent enfin se ranger du bon coté de l’histoire. Le 8 juin dernier, dans une lettre adressée au Congrès américain, Arvind Krishna, le directeur général d’IBM, annonçait que son entreprise ne proposerait plus de produits de reconnaissance faciale à usage général et appelait à un dialogue national sur l’utilisation de ces technologies. Le géant informatique américain déclarait ainsi être fermement opposé « à l’utilisation de toute technologie à des fins de surveillance de masse, de profilage racial, de violations des droits et libertés humaines de base ou encore tout objectif contraire à nos valeurs ». Un revirement stratégique à l’effet domino, puisqu’un jour plus tard, c’était au tour d’Amazon d’interdire pendant un an à la police d’utiliser son logiciel de reconnaissance faciale Rekognition, suivie 24 heures plus tard par Microsoft qui annonçait refuser de vendre ses services analogues « tant qu’il n’y aura pas de législation fédérale solide fondée sur les droits humains ». De quoi définitivement faire bouger les lignes en la matière ? Rendez-vous dans un an, Amazon…