Intelligence artificielle et escroquerie, comment l’IA optimise les tactiques actuelles
Publié le 19 septembre 2024 • 7 min de lecture
Ces dernières années, l’IA a été mise à profit dans de nombreux domaines. Malheureusement, les fraudeurs ont eux aussi trouvé des moyens d’exploiter cette technologie pour faire évoluer leurs escroqueries et cibler plus de gens. Apprenez-en davantage sur les escroqueries qui reposent sur l’IA, vous saurez ainsi les repérer et pourrez vous en protéger.
Le moins que l’on puisse dire, c’est que l’IA a fait beaucoup de bruit ces dernières années. En effet, si la presse a vanté ses mérites, puisqu’elle peut faciliter le quotidien (correcteur grammatical, stationnement automatisé, reconnaissance faciale), certains en ont également dénoncé les dangers. Force est de constater qu’elle a aussi aidé les fraudeurs à accroître la portée des escroqueries courantes et à en élever le niveau de sophistication.
Voici cinq exemples d’escroqueries qui sont devenues plus efficaces grâce aux nouvelles technologies :
Rédaction de courriels et de textos d’hameçonnage plus convaincants
Auparavant, les erreurs grammaticales et d’orthographe étaient des indicateurs d’alerte qui permettaient d’identifier immédiatement un faux courriel, texto ou site Web. Après tout, les entreprises légitimes font appel à des rédacteurs professionnels, des services de marketing et des correcteurs d’épreuve pour s’assurer que la langue et la ponctuation sont correctes et conformes à leur marque. Un excès de points d’exclamation et des formulations maladroites nous signalaient que les messages ne provenaient pas de sources fiables.
Toutefois, grâce à la technologie de l’IA, les messages peuvent facilement être exempts d’erreurs. De plus, les escrocs peuvent utiliser l’IA pour chercher des renseignements vous concernant en ligne et ainsi personnaliser les messages. Ils seront alors d’autant plus convaincants.
Création d’hypertrucages mettant en scène des personnalités
Grâce à l’IA, les escrocs peuvent cloner les voix de personnalités (célébrités, membres du gouvernement, hauts dirigeants) pour tenter de piéger les gens avec de faux appels ou de fausses publicités. La « personnalité » essayera alors de vous convaincre de réaliser un certain placement ou de contribuer à une œuvre de bienfaisance. Parce que les gens font souvent confiance aux personnes connues et respectées, ces hypertrucages peuvent être très efficaces pour les convaincre de se départir de leur argent.
Usurpation de l’identité d’un ami ou d’un membre de la famille
Ces dernières années, une des escroqueries les plus courantes et les plus efficaces est la fraude des grands-parents : un escroc se fait passer pour un être cher, en général un petit-enfant qui appelle pour dire qu’il rencontre des problèmes et a besoin d’argent immédiatement.
Certains outils d’IA peuvent recréer une voix grâce à un échantillon vocal. L’escroc peut alors appeler, se faire passer pour le petit-enfant (ou un être cher) et demander de l’argent pour payer une rançon, une caution ou un billet d’avion pour rentrer à la maison.
Usurpation de l’identité d’un employeur
Au cours de la dernière année, les attaques par hypertrucage se sont multipliées. En effet, plusieurs entreprises ont été dupées par des clones audio et vidéo créés grâce à l’IA.
Récemment, des malfaiteurs ont mis en œuvre une escroquerie complexe et très lucrative dans le but de piéger un employé. Ce dernier a transféré 38,8 millions de dollars des caisses de son entreprise. Pour ce faire, ils ont utilisé une technologie de pointe afin de se faire passer pour un haut dirigeant de l’entreprise, et ont invité l’employé à une fausse vidéoconférence. Les « personnes » avec qui il a interagi étaient toutes des créations générées par la technologie d’hypertrucage.
Création de faux sites Web
Les escrocs peuvent utiliser l’IA pour créer de faux sites Web. Ils envoient ensuite des liens par courriel ou sur les médias sociaux. Un faux magasin en ligne peut alors offrir un article difficile à trouver à un prix réduit ou une vente à durée limitée pour vous pousser à faire un achat. Une fois que vous avez entré vos renseignements pour le paiement, ils peuvent s’en servir pour faire des achats frauduleux.
Voici comment vous protéger contre les escroqueries qui reposent sur l’IA
Comment se protéger d’une technologie aussi sophistiquée ? La réponse est simple, il faut revenir aux bases :
-
Si une demande ou un message semble suspect, communiquez directement avec la personne en utilisant une autre méthode éprouvée. Par exemple, décrochez votre téléphone et appelez le membre de la famille qui se dit en difficulté.
-
Ne l’écoutez pas s’il vous demande de « garder le secret ». De nombreux escrocs arrivent à leurs fins en convainquant leurs victimes de ne parler à personne du virement ou de l’interaction. Dans le cas de fraude des grands-parents, par exemple, le « petit-enfant » suppliera le grand-parent de ne pas appeler ses parents pour parler de la situation dans laquelle il se trouve. Dans le cas d’escroqueries visant des employés, l’escroc qui se fait passer pour un membre de la haute direction peut insister pour que l’opération demeure confidentielle. La nature urgente et secrète d’un message est un signal d’alarme.
-
Faites vos recherches. Ne vous laissez pas berner par l’appui d’une célébrité à un organisme de bienfaisance ou sa recommandation concernant un placement. Si l’organisme de bienfaisance ou le fonds en question vous intéresse, faites une recherche de votre côté et transférez votre argent au moyen de services fiables.
-
Fiez-vous à votre instinct. La première pensée de l’employé des finances qui a été dupé par une fausse vidéo a été que quelque chose ne tournait pas rond. Mais il en a fait fi quand il a vu le « chef de la direction » dans la vidéoconférence. Avant d’effectuer une opération, d’envoyer de l’argent ou de donner des renseignements, assurez-vous de valider la demande auprès d’une autre source.
-
Restez à l’affût d’images et des mots qui semblent trop parfaits. Bien qu’il puisse être difficile de repérer une image ou un texte généré par l’IA, certains détails ne trompent pas. Un mannequin avec des cheveux trop brillants et une peau trop lisse ou un aliment à la forme parfaite et aux couleurs éclatantes sont autant de signes que vous pourriez être sur un faux site Web. N’oubliez pas non plus que même les meilleurs écrivains peuvent faire des erreurs grammaticales ou se montrer incohérents quand ils avancent un argument. Un texte exempt d’erreur, peut être le signe d’un faux site Web.
En offrant la possibilité de créer, ou de recréer, une image, une vidéo ou une voix, l’IA ouvre de nouvelles possibilités pour les fraudeurs en matière de ciblage et de tromperie rendant ainsi les escroqueries existantes encore plus crédibles.
Pour vous protéger, n’oubliez pas de faire confiance à votre instinct et de vérifier la source du message, et évitez de vous précipiter pour effectuer une opération, quelle qu’elle soit. Le plus souvent, c’est en prenant du recul pour évaluer une situation inhabituelle que vous éviterez de devenir la victime d’une escroquerie. Même une escroquerie qui repose sur l’IA.
Une autre façon de vous protéger est de vous tenir au courant des dernières escroqueries. La page Alertes de fraudes de RBC est une bonne ressource à consulter régulièrement, car elle est régulièrement mise à jour pour inclure les dernières escroqueries touchant les clients de RBC.
Le présent article vise à offrir des renseignements généraux seulement et n’a pas pour objet de fournir des conseils juridiques ou financiers, ni d’autres conseils professionnels. Veuillez consulter un conseiller professionnel en ce qui concerne votre situation particulière. Les renseignements présentés sont réputés être factuels et à jour, mais nous ne garantissons pas leur exactitude et ils ne doivent pas être considérés comme une analyse exhaustive des sujets abordés. Les opinions exprimées reflètent le jugement des auteurs à la date de publication et peuvent changer. La Banque Royale du Canada et ses entités ne font pas la promotion, ni explicitement ni implicitement, des conseils, des avis, des renseignements, des produits ou des services de tiers.
Partager cet article