Peux-tu me dire « comment un mouton peut se faire plumer » en un langage compris par les geeks ? Cette question devrait être posée à ChatGPT. Lancée en décembre 2022, cette intelligence artificielle reposant sur le dialogue qui se présente sous forme de chatbot n’a pas été longue à attirer les margoulins du net et les escrocs du web.
Un communiqué de l’éditeur britannique de logiciels spécialisée dans la cybersécurité Sophos a révélé que des escrocs proposaient sur Google Play et l’App Store d’Apple des applications frauduleuses prétendant offrir un accès au service de chatbot ChatGPT d’OpenAI par le biais d’essais gratuits qui finissent par facturer des frais d’abonnement.
Attention au fleeceware
Il existe des versions payantes de GPT et de ChatGPT pour les utilisateurs réguliers et les développeurs, mais tous les internautes peuvent essayer le chatbot d’IA gratuitement sur le site de l’entreprise. Les applications frauduleuses veulent tirer profit des personnes qui ont entendu parler de cette nouvelle technologie mais qui ne savent pas vraiment comme y accéder ni l’utiliser. Des publicités sur ces « solutions » ont été diffusées sur les réseaux sociaux et des applications ont déjà été mises en vente sur Google Play et l’App Store. Les prix des abonnements mensuels proposés vont de 9,99 à 69,99 dollars, de jolies sommes pour un service en réalité totalement gratuit.
La technique utilisée est celle du « fleeceware ». Ces applications, qui incitent les victimes à payer une redevance hebdomadaire ou mensuelle, sont difficiles à éradiquer, car elles ne présentent généralement pas le comportement techniquement invasif et malveillant qui entraînerait leur blocage automatique par les logiciels de cybersécurité. Lorsque les escrocs soumettent leurs applications à Apple et à Google, les chercheurs notent qu’ils incluent rarement tous les détails concernant les tarifs de leurs abonnements et la date à laquelle les utilisateurs devront les payer pour continuer à bénéficier des fonctionnalités proposées. Ces fraudeurs de la Toile peuvent également changer leurs exigences sans modifier la façon dont l’application est conçue. Malin mais illégal…
Des offres trop belles pour être vraies
Cette technique n’est pas nouvelle. En 2011 et 2012, un groupe d’escrocs offrait soi-disant gratuitement des échantillons de crèmes pour la peau aux femmes en Grande-Bretagne qui devaient s’inscrire en ligne pour en profiter. Une fois la commande passée, les utilisatrices s’abonnaient automatiquement à un paiement mensuel qui pouvait atteindre 70 livres sterling (80 euros). Ce petit « détail » figurait dans un texte en caractères minuscules qu’aucune internaute ne lisait. En 2017, au moins 200 des 50.000 personnes qui avaient téléchargé l’application Mobile Protection: Clean & Security VPN sur l’App Store ont, quant à elles, eu la bonne surprise de devoir payer un abonnement mensuel de 400 dollars alors qu’elles pensaient avoir été séduites par une offre de trois jours gratuits. Ou quand « cadeau » rime avec « gogo »…
Les pirates sont partout
Les pirates du web ont aussi compris qu’ils pouvaient utiliser ChatGPT pour escroquer les plus crédules d’entre nous. Dans un rapport publié le 22 février , la société de cybersécurité Kaspersky a révélé que des hackers avaient publié une fausse plateforme ressemblant en tous points au chatbot pour piéger ses utilisateurs. L’AI va également aider les escrocs à écrire des SMS et des emails pour hacker des particuliers et des entreprises. Les attaques en ligne sont un business florissant et juteux.
Dans sa dernière étude annuelle pour laquelle 3000 responsables informatiques ont été questionnés dans 14 pays, Sophos révèle que 66% des sociétés interrogées affirment avoir été victimes d’attaques de ransomwares en 2022 (64% pour la France) contre à peine 37% deux ans plus tôt. A l’échelon mondial, près de la moitié des victimes (47%) ont accepté de payer une rançon. Ce chiffre ne dépasserait pas les 25% dans notre pays. Les Français seraient-ils plus courageux ou davantage enclins à mentir que les autres ? A vous de juger…