13 janvier 2025

Temps de lecture : 5 min

L’IA d’Apple nous bombarde de fake news et prouve qu’elle est loin… d’être intelligente

« Apple Intelligence », un nouveau modèle d’IA présenté par Apple fin 2024 n’en finit plus de susciter les polémiques pour les fake news qu’il partage en masse. Certaines voix de l’industrie réclament ces derniers jours son retrait alors que l’entreprise dirigée par Tim Cook prévoyait un déploiement mondial à partir d’avril prochain…

Le 28 octobre dernier, la firme à la pomme dévoilait pour la première fois les fonctionnalités d’Apple Intelligence, son IA homemade, à destination de l’iPhone, l’iPad et de ses différents modèles de Mac. Un lancement exclusif à certains territoires anglo-saxons dans un premier temps – États-Unis, Afrique du Sud, Australie, Canada, Irlande, Nouvelle-Zélande – puis au Royaume-Uni – avant un déploiement plus large en Europe à partir d’avril prochain – selon le plan initial tout du moins.

Preuve de son ambition, l’entreprise promettait à ses clients « une suite d’outils » visant à « améliorer l’expérience utilisateur en facilitant l’accomplissement de diverses tâches, tout en établissant de nouvelles normes en matière de confidentialité dans le domaine de l’IA ». Apple déclarant même sans sourciller que son intelligence artificielle était « la meilleure de l’industrie ». Comment dit-on « c’est loupé » dans la langue de Shakespeare ?

Une IA qui n’en fait qu’à sa tête

Moins de trois mois plus tard, les belles promesses ont laissé la place à une série de controverses aussi grotesques que dangereuses – pour les personnalités mentionnées – au Royaume-Uni. Concrètement, la mal-nommée « Apple Intelligence » a la fâcheuse habitude de relayer fake news sur fake news au moment d’informer ses usagers. Pour rappel, Apple Intelligence permet de regrouper plusieurs actualités publiées par de grands médias sous forme de notifications générées par l’IA. Le problème étant que le système cite directement les organes de presse en question comme les sources de ses informations… et notamment la BBC qui n’a rien demandé et dont la réputation se retrouve salie par ces révélations trompeuses.

Pour l’instant cantonnée au territoire britannique – les médias français peuvent dormir sur leurs oreilles – cette situation est suffisamment grave pour que les principaux organes de presse du pays, la BBC en tête de gondole, réclament le retrait pur et simple de cette technologie avant un déploiement à grande échelle. Certaines fake news marquantes partagées depuis décembre 2024 concernent notamment Luigi Mangione, le meurtrier présumé du PDG de UnitedHealthcare, Brian Thompson, que l’IA annonçait s’être suicidé dans sa cellule ou encore Rafael Nadal qui aurait révélé son homosexualité. Dans les infox moins « déterminantes » en termes d’image mais tout de même sacrément cocasses, Apple Intelligence a également affirmé que le sportif Luke Littler avait remporté le Championnat du monde de fléchettes PDC… quelques heures avant le début de la compétition.

Des réputations à protéger

Quand on sait à quel point une information non vérifiée peut rapidement impacter la réputation d’un média, la BBC s’est empressée de déclarer dans un communiqué que « ces résumés d’Apple ne reflètent pas – et dans certains cas contredisent complètement – le contenu original de la BBC. Il est essentiel qu’Apple s’attaque d’urgence à ces problèmes, car l’exactitude de nos informations est essentielle au maintien de la confiance ».

La British Broadcasting Corporation n’est pas le seul éditeur victime du manque de rigueur – pour ne pas dire de la bêtise – d’Apple Intelligence. En novembre dernier, le journaliste Ken Schwencke qui travaille pour ProPublica, un média indépendant basé à New York, alertait sur un résumé inexact généré par Apple Intelligence et basé sur un article du New York Times affirmant que le Premier ministre israélien Benjamin Netanyahu avait été arrêté. Quand on connait le contexte actuel au Moyen-Orient, voilà une fausse information qui aurait pu avoir des conséquences bien réelles si partagée en masse…

Ces erreurs, maintes fois répétées, ont même incité Reporters sans frontières à réclamer d’Apple d’agir de manière responsable en supprimant purement et simplement cette fonctionnalité. Malgré les plaintes de la BBC et de l’organisation à but non lucratif, Apple a préféré se murer dans le silence pendant longtemps. Mais cette semaine, l’entreprise s’est – enfin – adressée aux critiques en annonçant dans un communiqué qu’elle allait mettre à jour son IA dans les « prochaines semaines » afin de clarifier ces cas relayés par la presse. L’entreprise n’a pas reconnu ses erreurs, si ce n’est qu’elle a indiqué, procéder à des « améliorations continues ». Tout est dans le phrasé :

« Apple Intelligence est en version bêta et nous apportons continuellement des améliorations grâce aux commentaires des utilisateurs. Une mise à jour du logiciel dans les semaines à venir permettra de mieux préciser quand le texte affiché est un résumé fourni par Apple Intelligence. Nous encourageons les utilisateurs à nous faire part de leurs inquiétudes s’ils voient un résumé de notification inattendu », a déclaré Apple dans ce communiqué transmis à la BBC.

Lever de boucliers

Une réponse qui manque de conviction selon Reporters sans Frontières qui a répondu à la firme que le fait d’étiqueter son contenu comme étant généré par l’IA ne fait que transférer la responsabilité du partage de l’infox aux utilisateurs, qui sont donc censés vérifier si toutes les informations qui leur tombent dessus sont véridiques ou non. Vincent Berthier, responsable du bureau de la technologie et du journalisme de l’organisation a tout de même « félicité Apple » de reconnaitre « que son offre en matière d’IA a besoin d’être améliorée. Mais la mise à jour proposée semble admettre implicitement qu’il n’est pas possible de rendre cette fonctionnalité plus fiable. Nous réitérons donc notre appel à Apple pour qu’elle la supprime. Les IA sont des machines à probabilités, et les faits ne peuvent pas être décidés par un coup de dé ».

Avant de conclure : « RSF appelle Apple à agir de manière responsable en supprimant cette fonctionnalité. La production automatisée de fausses informations attribuées à un média porte atteinte à la crédibilité de ce dernier et met en péril le droit du public à une information fiable sur l’actualité ». De nombreuses voix de l’industrie se sont fait l’écho de ces craintes et notamment celle de Dave Lee, un chroniqueur bien connu du Bloomberg Opinion spécialisé dans la tech, qui affirme à son tour qu’Apple Intelligence n’est « pas prête pour le monde réel ».

À qui la faute ? Certainement pas aux utilisateurs

Même si elle est toujours dans l’œil du cyclone, l’entreprise a déclaré qu’elle ne fournirait aucun autre commentaire que ceux formulés à la BBC. Cela n’a pas empêché la NUJ – pour National Union of Journalists –, l’un des plus grands syndicats de journalistes au monde, a rentré dans la danse en déclarant qu’une mise à jour du système n’allait pas assez loin : « Apple doit agir rapidement en supprimant Apple Intelligence pour s’assurer qu’elle ne contribue pas à la désinformation déjà répandue et qu’elle ne porte pas préjudice au journalisme en ligne », a ainsi expliqué Laura Davison, secrétaire générale de la NUJ.

Peut-être que certain.e.s trouveront ces erreurs comiques et sans réelles conséquences, déjà parce qu’on ne sait pas combien de personnes les voient ni à quelle fréquence mais ensuite parce que comme le rappelle Apple lui-même : « le contenu original » traité par son IA est toujours « à portée de main ». Mais comme l’a expliqué précédemment Reporters sans Frontières et à présent le NUJ, toujours par la voix de Laura Davison : « À une époque où l’accès à des informations exactes n’a jamais été aussi important, le public ne doit pas être placé dans une position où il doit remettre en question l’exactitude des informations qu’il reçoit ». Aux développeurs d’assumer les risques… et les bourdes de leurs joujoux.

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia