Et si l’épidémie de Covid19 et ses nombreuses conséquences venaient de mettre en lumière l’une des limites des modèles d’intelligence artificielle ? De la publicité à la logistique, en passant par les services financiers les algorithmes de “machine learning” se sont parfois trouvés dépassés face aux imprévus engendrés par la crise…
Parmi les modèles d’intelligence artificielle déployés dans les entreprises, les algorithmes de “supervized machine learning” (“apprentissage automatique supervisé” en Français) figurent en bonne place. Cette technologie repose sur l’accumulation de données d’apprentissage, qui sont analysées par des algorithmes afin d’identifier automatiquement des “patterns”, (récurrences) qui permettent ensuite d’effectuer des prévisions et d’enclencher des actions. La détection de fraude, l’optimisation des publicités en programmatique, l’anticipation de la demande ou l’optimisation des stocks figurent parmi les nombreux cas d’usages de ces modèles. Mais face à un événement imprévu et à ses conséquences, les modèles de ce type sont mis en défaut : impossible de prédire et d’anticiper, étant donné que le cas de figure en question ne s’est jamais produit par le passé…
Des erreurs d’appréciation de la part des algorithmes
Dans le domaine de la détection des fraudes à la carte bancaire, un changement dans les comportements d’achat du porteur de la carte ou des dépenses inhabituelles sont des éléments qui éveillent la suspicion des algorithmes d’intelligence artificielle… C’est exactement ce qu’il s’est passé avec le confinement : les dépenses dans les restaurants ou dans les stations-service ont diminué, tandis que les paniers moyens en ligne ont fortement augmenté, avec parfois des dépenses totalement inhabituelles. De quoi perturber les modèles et générer un taux plus élevé de “faux positifs”, autrement dit des erreurs d’appréciation de la part des algorithmes.
Des pertes de chiffre d’affaires pour les commerçants
Aralya Sammé, Head of Financial Crime chez l’éditeur de solutions de détection de fraude et de blanchiment d’argent Featurespace a ainsi listé une série de comportements susceptibles de perturber les modèles, comme une hausse des transactions inhabituelles en direction de l’étranger (pour envoyer une aide financière à de la famille ou importer des biens de première nécessité devenus introuvables sur place), des achats d’or ou des retraits soudains de sommes importantes des marchés financiers. Ces “faux positifs” se traduisent généralement par une augmentation de la charge de travail pour les superviseurs qui vérifient manuellement les alertes remontées par les algorithmes, et donc par des temps de traitement accrus. Ce sont aussi des pertes de chiffre d’affaires pour les commerçants dont les transactions sont jugées suspectes et déclinées automatiquement…
Des publicités automatisées perturbées
La MIT Technology Review évoque dans un récent article le cas d’une plateforme de streaming vidéo dont les algorithmes de personnalisation et de recommandation ont été mis à mal par un afflux soudain de nouveaux abonnés, des vendeurs sur Amazon dont les publicités automatisées ont été perturbées par les changements de comportements d’achat et des modifications effectuées par la plateforme e-commerce pour s’adapter au confinement, ou encore le cas d’un vendeur de sauces et condiments en Inde, dont le système automatisé de gestion des stocks s’est révélé incapable de gérer les achats massifs et soudains de ses clients.
De la nécessité de garder des humains dans les process
La logistique est d’ailleurs un secteur qui a été mis à rude épreuve par la crise. Or, c’est également un domaine qui s’appuie de plus en plus sur l’intelligence artificielle, que ce soit pour prédire la demande, optimiser les stocks ou gérer les flux. Pour Ronan Fruit, Lead Data Scientist chez l’éditeur français de solutions d’automatisation de supply chain Vekia, la situation inédite a illustré l’importance de garder en permanence des humains dans les processus de décision, afin de pouvoir s’adapter en temps réel. “Il n’y a pas de magie : [avec l’apprentissage automatisé] on observe le passé pour prédire le futur. Si on est dans une situation totalement nouvelle, alors les hypothèses de base ne sont plus respectées,” expliquait-il lors d’un webinaire sur le sujet.
L’adaptabilité n’est pas encore au programme de l’IA
À l’avenir, les modèles de machine learning devront également garder en mémoire le caractère exceptionnel du confinement : il ne faudrait pas que les données inhabituelles enregistrées pendant la période altèrent les prévisions futures, lorsque la situation sera redevenue “normale”.
Avec ces ratés, la crise a montré que l’IA est encore loin d’avoir réussi à copier une caractéristique bien humaine : l’adaptabilité.