16 septembre 2019

Temps de lecture : 5 min

La question éthique doit être au cœur des problématiques d’usage de l’Intelligence Artificielle

De nombreuses entreprises tendent à s’autoréguler afin d’établir les grandes lignes d’un usage éthique de l’IA, mais le grand public et les décideurs ont chacun leur propre conception sur la manière dont l’Homme et l’IA devraient converger. Dans ce contexte, des codes éthiques existent, comme les principes d’IA d’Asilomar, un ensemble de doctrines établies par l’institut Future of Life et adoptées notamment par Elon Musk, les directeurs de Facebook et de Google, et feu Stephen Hawking.

De nombreuses entreprises tendent à s’autoréguler afin d’établir les grandes lignes d’un usage éthique de l’IA, mais le grand public et les décideurs ont chacun leur propre conception sur la manière dont l’Homme et l’IA devraient converger. Dans ce contexte, des codes éthiques existent, comme les principes d’IA d’Asilomar, un ensemble de doctrines établies par l’institut Future of Life et adoptées notamment par Elon Musk, les directeurs de Facebook et de Google, et feu Stephen Hawking.

La plupart des consommateurs profitent chaque jour de l’IA de bien plus de façons qu’ils ne le pensent, que ce soit en utilisant un assistant vocal ou en suivant un itinéraire proposé par Google Maps. Le volume de données et leur diversité ne cessant de croître, l’IA va jouer un rôle de plus en plus central dans la détermination de ce qui mérite vraiment notre attention, tant au niveau personnel que professionnel. La recherche d’un équilibre harmonieux dans lequel l’humain et les machines travailleraient main dans la main en apportant leurs capacités respectives encourage à réfléchir aux questions éthiques liées à l’IA, et plus particulièrement les suivantes :

 Comment faire confiance aux recommandations préconisées par l’IA ?

L’informatique traditionnelle est incapable de traiter l’immense volume de données détenues par les entreprises. De ce fait, celles-ci ont de plus en plus recours à l’IA pour dégager du sens à partir d’ensembles de données structurés ainsi que des ensembles d’informations textuelles non structurés et plus « désordonnés ». Les machines peuvent réduire la pression exercée sur les collaborateurs, en traitant et en tirant parti des données, et leur permettre de se concentrer sur les aspects plus créatifs de leurs métiers. L’avantage du Machine Learning est que plus il est utilisé, plus son intelligence augmente, et la justesse des prédictions algorithmiques s’améliore avec le temps.
Pourtant, la question de savoir si nous pouvons et devrions nous fier à ces prédictions reste affaire de jugement, au même titre que pour les recommandations de n’importe quel conseiller, qu’il soit humain ou non. L’humain aura toujours son mot à dire dans la prise de décision basée sur l’IA. En pratique, les entreprises pourraient faire appel à un spécialiste des ressources humaines ou de l’éthique qui travaillerait avec des data scientists pour s’assurer que les recommandations en matière d’IA sont conformes aux valeurs culturelles de l’entreprise. Cela va de pair avec le huitième principe d’IA d’Asilomar : « Toute implication d’un système autonome dans une décision judiciaire devrait être accompagnée d’une explication satisfaisante contrôlable par un humain. »

 Comment garantir la sécurité et protéger la vie privée des consommateurs au regard de l’utilisation de l’IA ?

La sécurité et la confidentialité des données sont de plus en plus au cœur des préoccupations des entreprises technologiques, comme en témoigne l’élaboration de lois telles que le RGPD ou le CCPA. Des questions ont été soulevées sur la façon dont les entreprises technologiques devraient être autorisées à utiliser l’IA en dehors des pratiques commerciales traditionnelles, comme le déploiement des logiciels de reconnaissance faciale par les gouvernements. S’il est probable que la législation et l’autorégulation seront toutes deux nécessaires à la création de politiques générales applicables pour protéger la vie privée du public et de ce que les principes d’IA d’Asilomar appellent les « libertés réelles ou perçues des citoyens », les fournisseurs d’outils d’IA devraient jouer un rôle à part entière dans la protection des données personnelles. La sécurité doit faire partie intégrante des technologies d’IA. Elle doit être une priorité, non un ajout de dernière minute. Les entreprises technologiques doivent concevoir des systèmes d’IA qui limitent les risques de dysfonctionnement ou de piratage. En effet, ces derniers peuvent compromettre la confidentialité des entreprises et des autorités publiques qui les utilisent, ainsi que la vie privée des citoyens. Bien entendu, les entreprises doivent également adopter des stratégies qui font de la sécurité une priorité au sein de leurs organisations. Il est probable que les gouvernements continuent à s’impliquer pour garantir la sécurité publique, comme ils l’ont déjà fait pour les véhicules autonomes.

 Comment intégrer des valeurs humaines dans l’intelligence artificielle ?

Si les machines sont chargées de décider de ce qui est pertinent ou pas, comment garantir que ces décisions soient appliquées dans le respect de l’ensemble des principes que nous appliquerions à leur place ? De bien des façons déjà, l’IA a contribué à des avancées majeures. Par exemple, les solutions d’IA d’optimisation des performances des biens matériels, peuvent permettre de réduire le nombre d’accidents ferroviaires et le temps d’immobilisation des avions. Le personnel responsable de la maintenance bénéficie de tendances prédictives qui lui permettent d’éviter les dommages. Aligner les pratiques d’IA sur les valeurs humaines est possible lorsque les objectifs en matière de prise de décision assistée par machine sont dès le départ basés sur un code d’éthique. Pour cette raison, toute organisation devrait définir un ensemble de normes d’IA à revoir chaque fois qu’une nouvelle solution d’IA est déployée, afin de garantir l’alignement des valeurs.

Que faire pour empêcher l’infiltration de données biaisées ?

Croire que les données produites par l’IA sont dénuées de subjectivité est une idée fausse et dangereuse. Ce n’est pas parce que des tendances sont produites par des machines qu’elles sont impartiales. De fait, les biais de données sont une préoccupation bien réelle à laquelle les entreprises doivent répondre de manière proactive. Bien que les algorithmes soient intrinsèquement objectifs et que le Machine Learning dans l’absolu dépourvu de biais humains, il est assurément possible que les ensembles de données soient partiaux. Si des biais existent au sein des données, les algorithmes peuvent même les amplifier. La meilleure façon d’éviter les biais dans les systèmes d’IA est de les anticiper et de les empêcher dès de la recueil des données. Il est souvent nécessaire de commencer par utiliser un échantillon de données assez important pour produire des tendances fiables et réduire la subjectivité. Pour cela, il est nécessaire de disposer d’un système fiable capable de collecter et de traiter les ensembles d’informations les plus riches et complexes, y compris les données structurées et les contenus textuels non structurés, pour générer les tendances les plus pures possible. De plus, les principes de collecte des données doivent être encadrés par des équipes ayant différents points de vue, expériences et d’autres caractéristiques différenciatrices. Pour garantir que les perspectives couvrent le spectre le plus large possible, il peut être opportun d’inclure du personnel de services et niveaux hiérarchiques variés afin de promouvoir également la diversité intellectuelle.

Surveiller régulièrement son utilisation de l’IA et ses résultats

Bien entendu, même une approche préventive comme celle présentée ci-dessus ne peut garantir que les données soient entièrement dépourvues de biais. Il est donc essentiel que les résultats soient également examinés après coup pour déceler les signes de préjugés. Toute corrélation notable entre l’origine ethnique, la sexualité, l’âge, le genre, la religion ou d’autres facteurs doit être examinée. En cas de détection d’un biais, des stratégies d’atténuation telles que l’ajustement de la distribution des échantillons peuvent être mises en œuvre. Cependant, à l’instar de la collecte de données, ces tentatives d’atténuation doivent être correctement examinées selon différents angles. Avec autant d’applications potentielles pour l’IA, il est impossible de trouver des réponses définitives à chacune des questions posées ci-dessus. Il est néanmoins important de soutenir les changements positifs apportés par l’IA en incitant les utilisateurs à réfléchir à la portée de toutes ces questions alors que les machines jouent un rôle grandissant. Pour exploiter au mieux l’IA, il faut avoir dès le départ un objectif clair en accord avec les valeurs fondamentales de son entreprise et surveiller régulièrement son utilisation de l’IA et ses résultats.
 Par Zachary Jarvinen, Head of Technology Strategy, AI and Analytics chez OpenText

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia