L’intelligence artificielle bouleverse plusieurs sphères de nos sociétés et est utilisée à plein d’escients. L’une d’entre elles est malheureusement la fraude. Des pirates informatiques ne se gênent pas pour utiliser les outils d’IA afin d’arnaquer les gens. On vous explique les tactiques populaires, puis comment les reconnaître et s’en protéger.

La montée fulgurante de l’utilisation de l’intelligence artificielle ces dernières années bouleverse plusieurs personnes.

D’abord d’un point de vue professionnel. Certains modèles d’intelligence artificielle sont voués à radicalement changer nos façons de travailler. Oui ça peut remplacer certains emplois, mais ça peut aussi nous rendre plus efficace dans nos tâches.

Ensuite d’un point de vue personnel alors qu’on est appelé de plus en plus à devoir distinguer ce qui est créé par un humain ou un robot.

D’autant plus que tous ces outils d’intelligence artificielle sont à portée de main.

ChatGPT, Gemini, Claude, LLaMa, Midjourney, Dall-E, voilà autant d’outils qu’on peut utiliser dès maintenant pour générer du contenu ou des images avec l’IA.

Et ce ne sont que ceux dont on entend le plus parler. Il y a plein d’autres outils disponibles utilisant la puissance de l’IA.

Malheureusement, il y a des personnes mal intentionnées qui ont décidé d’utiliser ces outils pour commettre des activités frauduleuses.

Quels sont les risques et les types de fraudes utilisant l’IA?

Les pirates informatiques et les fraudeurs ont évidemment vu une occasion de mettre à profit les outils d’intelligence artificielle pour créer leurs larcins.

Voici quelques types et cas de fraudes conçues avec l’IA qui sont les plus répandus.

Courriels et textos d’hameçonnages (phishing / smishing)

Pourquoi faire soi-même ce qu’on peut sous-traiter à l’IA?

Voilà sûrement le mode de pensée des pirates lorsqu’ils délèguent la tâche à l’IA pour créer des courriels ou des textos d’hameçonnages.

C’est que par sa capacité d’analyser de grandes quantités de données personnelles, il peut ensuite parvenir à générer des messages très ciblés et convaincants.

Il peut ensuite faire des envois automatiques à n’importe quel moment de la journée en se basant sur une simple liste de courriels ou de numéros de téléphone.

Mais l’esprit demeure toujours le même que pour un message d’hameçonnage rédigé par un humain.

Le message va vouloir susciter un sentiment d’urgence et nous inviter à cliquer sur un lien ou un fichier. Ceux-ci s’avèrent alors malveillants ou frauduleux.

Ils peuvent cacher un logiciel malveillant ou chercher à nous soutirer de l’argent.

Rédaction de faux articles

C’est la fonction pour laquelle on connaît et utilise peut-être le plus l’IA dans nos vies personnelles.

On l’utilise pour rédiger un texte, un courriel ou bien pour rédiger un résumé d’un long document.

Cette capacité d’analyse, de synthétisation et de rédaction de l’IA peut être facilement utilisée par des acteurs malveillants.

Ces derniers peuvent demander à l’IA de rédiger un article sensationnaliste ou rocambolesque dans le but d’attirer du trafic sur un site web.

Ces sites peuvent ensuite cacher des liens malveillants avec pour buts de nous infecter ou nous voler notre argent.

Manipulations d’images

La capacité de l’intelligence artificielle à générer des images réalistes s’améliore constamment.

Celle-ci peut notamment être utilisée pour générer de fausses bannières publicitaires ou carrément pour truquer des photos.

Les pirates peuvent alors chercher à générer de la désinformation, nous inciter à aller sur un site malveillant ou faire du chantage.

Quand bien même que l’on sait que la photo est fausse, si celle-ci semble vraiment réaliste elle pourrait être utilisée contre nous.

Ce pourrait-être pour nous discréditer aux yeux d’un employeur, de nos amis ou notre famille.

Fraude vocale (Voice Cloning)

L’intelligence artificielle abandonne de plus en plus son ton robotique au profit d’un ton humain.

L’intelligence artificielle abandonne de plus en plus son ton robotique au profit d’un ton humain.

Tellement que même Microsoft a décidé de ne pas lancer au grand public Vall-E 2, son outil de synthèse vocale. La raison? Parce que c’est trop réaliste!

Toujours est-il qu’il existe d’autres outils de synthétisation vocale alimentée par l’IA.

À l’aide d’une simple vidéo  ou d’un extrait audio de 1 ou 2 minutes de nous, que l’on a publiée sur les réseaux sociaux, un pirate peut facilement synthétiser notre voix.

Celle-ci peut ensuite être utilisée pour commettre une fraude de type « grands-parents » notamment.

En ayant amassé des informations personnelles à notre sujet, ils pourraient alors appeler un de nos proches en utilisant notre voix, puis tenter de leur soutirer de l’argent.

Il en va de même pour des appels prétextant être d’une compagnie ou d’une agence gouvernementale.

Enfin, certains fraudeurs pourraient tenter d’appeler une compagnie en notre nom ou notre institution financière.

Heureusement, les entreprises s’arment pour pouvoir détecter le tout et se munissent de solution d’authentification de la voix.

Vidéo trucage / Hypertrucage (deep fake)

Le « deep fake » est la tactique dont on entend le plus souvent parler.

Il s’agit du principe de prendre des images réelles et d’utiliser l’IA pour remplacer le visage et/ou la voix de la personne dans la vidéo.

Les algorithmes de l’intelligence artificielle peuvent analyser des milliers d’images et de vidéos d’une personne, capturer chaque détail de son apparence, de ses expressions faciales et de sa voix. Ils peuvent ensuite générer une vidéo complètement bluffante.

Nous-mêmes à francoischarron.com avons regardé pour un outil nous permettant de traduire nos vidéos dans d’autres langues. C’était stupéfiant de voir la facilité de me faire parler en anglais, en espagnol ou en allemand.

Tout ce que ça prend c’est une vidéo de quelques minutes et le tour est joué.

On voit de plus en plus de célébrités être victime de ça, alors que de fausses vidéos circulent sur les réseaux sociaux.

On peut penser à Nathalie Simard et ses pilules pour maigrir ou bien à Marie-Claude Barrette qui aurait vanté les vertus d’une cryptomonnaie à l’émission: Tout le monde en parle.

Mais cela peut aussi nous arriver, encore une fois à l’aide d’une simple vidéo que l’on publie sur les réseaux sociaux notamment.

Une telle vidéo peut ensuite être utilisée pour frauder des gens ou certains de nos proches.

Surtout quand on sait qu’il existe des outils permettant de changer de visage dans des appels vidéo.

Comment reconnaître les fraudes créées avec l’IA?

Reconnaître les fraudes créées avec l’IA va être un défi qui va se complexifier à mesure que les outils d’IA vont continuer de se perfectionner.

Ce n’est pas pour autant une raison pour baisser les bras et s’avouer vaincu. Il y a des moyens de se protéger et reconnaître le vrai du faux.

Décupler sa vigilance

Ultimement, tout va toujours démarrer par notre vigilance et ce que j’aime appeler notre « bullshitomètre ».

Quand on reçoit un courriel suspect, on a tout intérêt à se souvenir des trucs pour détecter les courriels d’hameçonnages comme regarder l’adresse courriel de l’expéditeur.

Si on voit sur Facebook un soi-disant article reprenant le look d’un journal populaire, on doit se rappeler que les médias n’ont malheureusement plus le droit de publier sur Facebook. Dès lors, l’article a de bonnes chances d’être frauduleux et d’avoir utilisé l’IA pour écrire le texte.

Si on voit sur Facebook un soi-disant article reprenant le look d’un journal populaire, on doit se rappeler que les médias n’ont malheureusement plus le droit de publier sur Facebook. Dès lors, l’article a de bonnes chances d’être frauduleux et d’avoir utilisé l’IA pour écrire le texte.

Pour ce qui est des vidéos « deepfake », on a tout intérêt à en regarder volontairement pour déceler le trucage.

On va souvent se rendre compte qu’il y a peut-être des défaillances (glitchs) dans l’image ou que les lèvres ne suivent pas tout à fait la voix. C’est important de bien regarder les expressions faciales, puisque c’est souvent là qu’on va déceler l’arnaque.

Bref, c’est en entraînant notre œil qu’on pourra mieux déceler les fausses vidéos.

Puis bon, il y a le propos aussi qui est dit dans la vidéo. Est-ce vraisemblable? On a tout intérêt à aller vérifier si l’information est vraie via des sources crédibles et vérifiées.

Renforcer la communication

On le mentionnait, il n’est pas impossible d’utiliser l’IA pour synthétiser notre voix et créer de fausses vidéos de nous ou de nos proches.

Dans un cas où un de nos soi-disant proches nous contacte, oui on doit user de notre vigilance si ses propos semblent étranges, mais il faut user de ruse.

D’abord, on va regarder si c’est bel et bien son numéro de téléphone, sa vraie adresse courriel, son vrai compte Messenger, etc.

Puis, on peut poser des questions dont seule la personne connait la réponse afin de vérifier si c’est bel et bien elle. On peut même élaborer un code secret avec chacun de nos proches. Ça peut être un mot loufique qu’on ne s’est jamais échangé virtuellement comme: pâté chinois.

On peut également passer par un autre canal de communication pour vérifier avec cette personne si c’est bel et bien elle qui vient de nous contacter.

Il en va de même lorsqu’une compagnie ou une agence gouvernementale nous contacte.

En cas de doute, on est mieux de trouver leurs coordonnées officielles sur leur site internet, puis les contacter pour savoir si ce qu’on vient de nous dire est vrai.

Faire effacer nos données

Pour créer ses fraudes, les outils d’’intelligence artificielle a besoin de données. Mieux des données personnelles.

À mesure qu’on étale notre vie sur les réseaux sociaux ou qu’on ouvre des comptes sur des sites ou applications à gauche et à droite, on éparpille nos fameuses données.

Certaines compagnies vont

collecter ces données dans le but de les revendre à des compagnies ou des annonceurs. On les appelle les courtiers de données.

Une fois qu’elles sont partagées de la sorte, on est la merci de leur système de sécurité. Une fuite chez l’une d’entre elles et BAM, nos données circulent partout et l’IA peut facilement les utiliser.

C’est dans cette optique notamment qu’il existe des solutions comme Incogni ou Delete Me qui vont agir comme des avocats pour nous.

Ces solutions vont exiger à ces compagnies de courtages de faire effacer nos données plutôt que nous ayons à le faire nous-même. 

Utiliser l’IA pour lutter contre l’IA

Ça peut sembler ironique, mais l’IA va aussi pouvoir jouer un grand rôle pour identifier et empêcher les fraudes.

Effectivement, il existe des outils qui sont spécialement conçus pour reconnaître ce qui a été généré par l’IA.

On peut notamment penser à Lucide IA qui est en mesure de détecter les textes écrits par ChatGPT.

Il existe aussi Winston AI qui lui peut non seulement détecter les textes écrit par l’IA, mais aussi les images générées par l’IA.

Il existe également TraceGPT, Hive, GPTZero, Smodin, Orginality.AI, bref de nombreux outils existent et d’autres vont continuer de faire surface pour nous aider.

En sommes, on peut rendre la vie plus difficile aux fraudeurs si on applique ce cocktail de trucs pour déceler leurs stratagèmes.