Bienvenue dans la « vallée de l’étrange ». Cette invitation n’est pas faite pour vous encourager à regarder une nouvelle saison de la série Stranger Things ou pour vous inciter à frissonner d’effroi devant un film d’horreur. Non. Elle cherche à vous prévenir des dangers de la Toile et plus particulièrement de la multiplication des deepfakes qui circulent sur les réseaux sociaux.
Économie de l’intelligence
Chaque année, KPMG publie un Book de tendances. Son but est de proposer une réflexion sur l’hybridation des intelligences, artificielle et humaine, au service de futurs plus humains. Cette étude s’appuie sur un travail collectif, porté par des décideurs Innovation du monde de l’entreprise, des chercheurs, des universitaires et des experts du cabinet de conseil. Cette année, ce rapport de 50 pages explore une nouvelle ère d’intelligence collective entre humains et IA. « Avec l’arrivée des systèmes multi-agents autonomes, les robots humanoïdes, les solutions quantiques, nos sociétés basculent dans le monde de l’anthropo-tech, ouvrant un horizon de prospérité inédit pour ce siècle, explique ce Book intitulé « L’économie de l’intelligence ». (Il s’agit d’une) opportunité à saisir à condition de transformer cette tech révolution en une économie de l’intelligence, où puissances de calcul augmentées et savoirs humains trouvent le chemin d’une hybridation heureuse. »
Une menace pour la démocratie
Un de ses chapitres les plus intéressants détaille la « guerre du faux » dans laquelle nous sommes tous plus ou moins impliqués, qu’on le veuille ou non. « La multiplication des contenus produits par les IA ouvre la voie à une véritable guerre du faux où détournements d’informations et expositions malveillantes menacent les entreprises et les démocraties, note cette étude. Cela fait naître de nouveaux enjeux de protection des données et impose la nécessité de remettre la prévention au cœur de nos usages quotidiens. L’issue de cette guerre du faux tracera le chemin d’une émancipation citoyenne ou fera naître une menace vitale pour la réputation des entreprises et la démocratie. »
Une récente étude de l’IFOP commandée par le site Alucare.fr et l’agence spécialisée en data FLASHS montrait que 69% des Français ont entendu parler des deepfakes. Une tiers de ce panel composé d’un échantillon de 2191 personnes, représentatif de la population française âgée de 18 ans et plus, dont 551 jeunes de moins de 35 ans se sentait capable de détecter une image générée par l’intelligence artificielle mais une fois exposés à cinq images créées artificiellement, 94% des sondés ont cru à la véracité d’au moins un cliché. Plus de la moitié des Français questionnés (57%) craignaient d’être eux-mêmes victimes de deepfakes et 13% des moins de 25 ans disent que cela a déjà été leur cas. Aux États-Unis, 40% des élèves ont croisé des deepfakes durant l’année scolaire 2023-2024, et seulement 38% les ont jugés choquant révèle une étude du Center for Democracy and Technology.
Une menace mondiale
La révolution digitale a conduit à une course effrénée à la donnée et à la démultiplication des contenus, nourris de toujours plus de requêtages et d’interactions avec nos interfaces robotisées. Cette intensification inédite d’échanges porte sa part d’ombre, que les experts ont baptisé la nouvelle « vallée de l’étrange ». La résurgence de détournements et de « deepfakes »représenterait même la principale menace de ces deux prochaines années, selon le Forum économique mondial qui a écrit une étude à ce sujet avant le retour de Donald Trump à la Maison Blanche. « Même si les grands groupes apprennent à se protéger, il y aura toujours dans cette vallée un mauvais gars qui aura une longueur d’avance », prévient Hany Farid, professeur à l’université de Californie. Les 45 millions de vues d’un deepfake pornographique de Taylor Swift ou les 24 millions d’euros détournés à Hong Kong par des fraudeurs reproduisant la voix et l’image du directeur financier d’un grand groupe lors d’une visioconférence en sont les preuves les plus flagrantes. En 2019 déjà, l’artiste Barnaby Francis, connu sous le pseudonyme de Bill Posters, a publié un deep fake, qui est vite devenu viral, montrant le patron de Meta, Mark Zuckerberg, au ton sinistre, se réjouissant d’avoir « le contrôle total des données volées de milliards de personnes, leurs secrets, leurs vies, leur avenir ». Utilisées de longue date par l’industrie du divertissement, ces technologies de trucage reposant sur l’intelligence artificielle, connues également sous le nom de « synthetic media » sont désormais accessibles à tout un chacun, en quelques clics grâce à des applications comme Reface, Canny.AI ou Respeecher qui ont démocratisé son usage.
Tout va trop vite
Un des principaux dangers des deepfakes est la rapidité à laquelle ils se propagent sur internet. La moitié des vues d’un post s’enregistre en effet dès la première minute de publication, nous explique le Book de KPMG. Pour lutter contre ce fléau où le faux remplace le vrai, deux solutions existent : la prévention et l’éducation.
La mise en place d’algorithmes de recommandation plus participatifs est une option intéressante et plutôt efficace. La plateforme suisse de vidéos « libre et open source » Tournesol est équipée d’un outil d’aide à la décision collaboratif qui permet de valoriser des contenus qui ont tous fait l’objet de votes et de recommandations venant de la communauté des membres. Chaque compte certifié dispose d’un droit de vote pour valider ou non un contenu. Tournesol, qui compte à ce jour 22.000 utilisateurs ayant comparé près de 280.000 fois plus de 53.500 vidéos, s’est donnée pour mission de construire les « fondations d’une gouvernance algorithmique robuste ». Vaste programme…
Conseils à suivre
La banque espagnole Santander a, elle, lancé en août 2024 au Royaume-Uni sa première campagne publique de prévention de deepfakes. Portés par un influenceur expert en fintech, plusieurs films diffusés sur les réseaux sociaux mettaient en scène des vidéos truquées malveillantes et expliquaient les moyens de repérer les deepfakes – en notant des zones floues autour de la bouche ou des reflets suspects dans les verres de lunettes. Ces conseils ne sont pas inutiles quand on sait que moins de 20% des clients de Santander s’estiment capables de reconnaître un contenu truqué.
L’enseignement est un autre moyen efficace de lutter contre les fausses informations qui circulent sur la Toile. L’école supérieure de communication et publicité (ISCOM) propose déjà à ses étudiants de première année une matinée de cours dédiée à la sensibilisation aux deepfakes. Les jeunes, qui sont des boulimiques de l’image, prennent rarement le temps de vérifier la véracité des vidéos qu’ils regardent. « C’est pourquoi il est important de bien les former, nous expliquait récemment Laurence Gosse, la directrice scientifique de l’ISCOM. Il n’est pas facile de séparer le bon grain de l’ivraie. » L’École centrale de Lyon a choisi de créer un modèle d’éducation plus ludique avec son escape game baptisé « Escape The Fake ». Tous les moyens sont bons pour ne pas se perdre dans la « vallée de l’étrange »…