Se dirige-t-on tout droit vers un univers informationnel où le vrai du faux sera devenu indissociable et indétectable ? L’idée de cette inquiétante perspective est pourtant loin d’être une lubie. Le faux contenu généré par de l’intelligence artificielle (IA) atteint désormais de tels niveaux de sophistication que l’oeil humain mais aussi les logiciels ont de plus en plus de mal à discerner ce qui est authentique de ce qui est apocryphe. Fractl, une agence britannique expert en contenus digitaux, vient d’en fournir la démonstration à travers un vrai-faux blog entièrement conçu par IA. Objectif ? Alerter sur les potentielles dérives éditoriales qui peuvent abuser les lecteurs mais aussi les robots d’indexation des moteurs de recherche.
À peine avait-on commencé à se familiariser avec la “deep fake video” qui repoussait déjà fortement les frontières de la falsification informationnelle, qu’une autre technologie est en train de soulever d’immenses questions sur les risques de désinformation et de spamming massifs. À l’origine, il s’agit d’un projet de recherche mené par un laboratoire américain AI2 (Allen Institute for Artificial Intelligence). Créé en 2014 par Paul Allen, l’un des co-fondateurs de Microsoft, cet organisme explore et analyse les possibles usages de l’intelligence artificielle dans divers secteurs. Pour contrer les fake news propagées par des réseaux de neurones artificiels, AI2 a élaboré un puissant outil de détection baptisé Grover.
L’effet Grover
Afin d’être en capacité maximale de repérer les contenus fake générés par IA, y compris les plus sophistiqués, Grover intègre notamment une fonctionnalité spécifique qui lui permet de fabriquer lui-même ce type de contenus afin d’en apprendre automatiquement les caractéristiques et ainsi les reconnaître. Avec un niveau de performance plutôt élevé puisque Grover parvient à atteindre un taux de 92% de détection de fake news là où les autres outils existants se situent en moyenne à 73% (1). Mais, les chercheurs sont également tombés sur un autre constat de taille durant l’expérimentation anti-fake news effectuée avec Glover.
Il avait en effet été demandé à l’outil de produire un article scientifique bidon sur les liens de causalité entre les vaccins et l’autisme. Grover s’est tellement bien acquitté de sa tâche qu’il a réussi à induire en erreur les participants de l’étude qui ont lu le dit article et l’ont trouvé plus crédible que les sources réelles d’information qui leur avaient été soumises en parallèle ! Qu’il s’agisse de la cohérence rédactionnelle, de la pertinence du contenu et de la confiance globale inspirée, l’article a été jugé plus fiable que les autres contenus pourtant valides. En conclusion du test, le professeur Yejin Choi de l’université de Washington a déclaré (2) : “Notre travail avec Grover démontre que les meilleurs modèles pour détecter la désinformation sont aussi les meilleurs modèles pour la produire. Le fait que les participants à notre étude aient trouvé que les fausses histoires créées par Grover inspiraient plus confiance que celles écrites par des humains, illustre la profonde évolution technologique pour générer du langage naturel. Et aussi la nécessité de reprendre de l’avance sur cette menace”.
Plus vrai que nature
Intriguée par cette découverte presque paradoxale, l’agence britannique Fractl a décidé de réaliser à son tour une expérience identique en s’appuyant également sur Grover. Pour cela, elle a construit un vrai-faux blog intitulé malicieusement “This marketing blog does not exist” avec un sous-titre non moins plaisantin : “An AI Generated Marketing Blog by Fractl” ! Le résultat final est proprement bluffant. Le blog ressemble à s’y méprendre à ceux empruntés par les influenceurs marketing qui animent des blogs (codes visuels et éditoriaux). Hormis les titres, tous les contenus sont le fruit de l’IA de Grover et atteignent un niveau d’expression et de style écrit carrément surprenant. De l’expression familière à la tournure de phrase en vogue et à l’usage du jargon du métier, les billets mis en ligne sont stupéfiants de crédibilité. Ceci d’autant plus qu’ils sont accompagnés de la photo (fake elle aussi) de l’auteur, plus vraie que nature (5).
(1) Kimberley Mok – “Grover AI Detects Machine-Generated ‘Neural’ Fake News — By Also Generating It” – The New Stack – 20 juin 2019
(2) Ibid.
(3) Patrick Kulp – “New AI Can Detect Fake News With Unprecedented Accuracy—and Generate Its Own” – AdWeek – 31 mai 2019
(4) Tristan Greene – “This terrifying AI generates fake articles from any news site” – The Next Web – 24 juin 2019
(5) http://www.leblogducommunicant2-0.com/humeur/fake-news-ia-information-la-cote-dalerte-est-elle-en-train-detre-franchie/