By Content Writer–10 février 2026–5 min read
L’intelligence artificielle (IA) est en train de transformer notre mode de vie et aussi, malheureusement, le mode opératoire de nombreux fraudeurs. Les criminels utilisent l’IA pour donner aux anciennes arnaques un aspect nouveau, plus convaincant et plus difficile à repérer. Ils peuvent cloner des voix, créer de fausses vidéos et se faire passer pour des personnes de confiance. Leur objectif? Vous convaincre d’envoyer de l’argent ou de fournir des renseignements personnels.
Les hypertrucages sont des images, des vidéos ou des sons générés par l’IA qui imitent de vraies personnes. Les fraudeurs les utilisent afin de se faire passer pour des célébrités, des fonctionnaires ou même vos amis et des membres de votre famille. Ils peuvent :
publier de fausses vidéos de personnes célèbres faisant la promotion d’investissements douteux;
vous appeler en utilisant une voix clonée qui ressemble à celle de quelqu’un que vous connaissez;
créer de faux profils à l’aide de photos générées par l’IA.
Les fraudeurs utilisent l’IA pour rendre leurs arnaques plus personnelles et plus crédibles. Voici leurs tactiques les plus courantes :
Arnaque par texto – Les fraudeurs peuvent utiliser l’IA pour créer des courriels d’hameçonnage personnalisés, publier de faux messages sur les médias sociaux ou même se faire passer pour quelqu’un d’autre dans une session de clavardage.
Clonage vocal – Également connu sous le nom d’« hypertrucage audio », le clonage vocal consiste à utiliser l’IA pour copier la voix de quelqu’un. Les fraudeurs utilisent le clonage vocal pour faire de l’hameçonnage téléphonique. Par exemple, ils appellent quelqu’un en se faisant passer pour un parent en détresse ou un représentant de la banque.
Vidéos ou images « hypertruquées » – Les images et vidéos hypertruquées sont générées par l’IA pour remplacer ou imiter l’apparence d’une personne. Il peut s’agir d’une fausse photo de profil ou d’une fausse vidéo d’une personne qui semble dire des choses qu’elle n’a jamais dites.
Stratagème d’investissement – Les fraudeurs utilisent l’IA pour créer de fausses vidéos d’« experts financiers » ou de célébrités qui parlent d’une affaire « à ne pas manquer », souvent à propos d’une cryptomonnaie ou d’une action en bourse. Ils utilisent également l’IA pour diffuser de faux renseignements afin d’inciter les gens à acheter certaines actions. Lorsque de nombreuses personnes achètent cette action, son prix augmente. Les fraudeurs vendent alors leurs actions à gros prix et font de l’argent. Lorsqu’ils cessent de parler de l’action, son cours chute fortement et d’autres personnes perdent de l’argent. Il s’agit d’un stratagème frauduleux de type « gonfler et larguer ».
Arnaque amoureuse – Vous pourriez rencontrer quelqu’un qui vous paraît charmant par l’intermédiaire d’une application de rencontre ou d’un réseau social, mais dont les photos et même les conversations vidéo sont des hypertrucages. Les fraudeurs utilisent l’IA pour remplacer leur visage par celui d’une vraie personne et pour imiter la voix de cette personne. À partir de leur faux compte, ils créent une relation en ligne pouvant durer des semaines ou des mois. Ils finissent par vous demander de l’argent ou vos renseignements financiers personnels.
Arnaque du besoin d’argent urgent – Les fraudeurs peuvent utiliser l’IA pour imiter la voix ou l’image vidéo d’un membre de votre famille. Elle est parfois appelée « l’arnaque des grands-parents ». Un fraudeur vous appelle en utilisant le clonage vocal d’un membre de la famille proche ou d’un ami et prétend se trouver dans une situation d’urgence et avoir besoin d’argent immédiatement.
Arnaque de la recommandation d’une célébrité (publicité) – Si vous voyez une vidéo d’une célébrité faisant la promotion d’un produit ou d’un service dont vous ne l’avez jamais entendue parler auparavant, redoublez de vigilance. Les fraudeurs peuvent créer une fausse publication de recommandation en utilisant l’image et la ressemblance d’une personne célèbre. Les fraudeurs utilisent également des représentants du gouvernement dans leurs vidéos hypertruquées pour convaincre leurs victimes d’investir ou de divulguer des renseignements délicats.
Vol d’identité : Les hypertrucages utilisant l’IA permettent aux criminels de voler plus facilement votre identité. Les voleurs peuvent utiliser des renseignements personnels volés, ainsi que de fausses photos créées par l’IA, afin de se faire passer pour quelqu’un d’autre et de tenter d’avoir accès à votre argent. La technologie des hypertrucages peut tromper les systèmes de sécurité qui utilisent la reconnaissance faciale ou les appels vidéo, en affichant un faux visage très réaliste. Les fraudeurs peuvent également enregistrer la voix de quelqu’un et utiliser l’IA pour l’imiter, ce qui leur permet de passer les contrôles de sécurité vocaux ou de répondre aux questions de sécurité.
L’IA donne aux fraudeurs les outils qui leur permettent de rendre leurs mensonges crédibles. La vidéo hypertruquée d’une célébrité ou d’un représentant du gouvernement peut donner un air de légitimité à un investissement frauduleux. Le clonage vocal peut faire en sorte qu’un appel concernant un besoin d’argent semble vraiment urgent et crédible. Les fraudeurs utilisent toutes ces méthodes dans le but de vous faire agir sans prendre le temps de réfléchir.
Faites attention si vous recevez un appel ou un message inattendu. Si quelque chose vous semble louche, raccrochez et vérifiez par un autre moyen. Un mot-code familial peut être utile pour confirmer l’identité de la personne qui vous appelle.
Ne révélez pas trop d’informations en ligne. Limitez les renseignements personnels fournis sur les réseaux sociaux. Les fraudeurs utilisent cette information pour vous faire croire qu’ils vous connaissent.
Pratiquez la cybersécurité. Vérifiez les liens sur lesquels vous cliquez et les fichiers que vous téléchargez en ligne.
Vérifiez l’inscription avant d’investir. Au Nouveau-Brunswick, les plateformes de négociation doivent être inscrites auprès de la Commission et les conseillers doivent être inscrits auprès des Autorités canadiennes en valeurs mobilières (ACVM).
Faites une pause avant de réagir. Les fraudeurs misent sur le sentiment d’urgence. Prenez le temps de vérifier toute demande concernant de l’argent ou des renseignements délicats.
Tenez-vous au courant. Découvrez les dernières arnaques.