top of page

Quand l’intelligence artificielle devient… sournoisement maligne

L’intelligence artificielle, c’est fascinant. On lui demande d’écrire un poème, de corriger un texte ou même de générer une recette vide-frigo : elle s’exécute sans broncher. Mais aussi performante soit-elle, l’IA n’a ni morale ni jugement… et certains l’utilisent à très mauvais escient.

Vous croyiez que les arnaques par courriel ou les faux appels téléphoniques étaient inquiétants? Attendez de découvrir comment les escrocs modernisent leurs méthodes grâce à l’IA.

Des voix qui n’existent pas, mais qui semblent si vraies…

Imaginez recevoir un appel de votre petit-fils, affolé :

– « Grand-maman, j’ai eu un accident, j’ai besoin d’aide tout de suite. Peux-tu m’envoyer de l’argent par virement? »

La voix est celle de votre petit-fils. Même ton, même intonation. Mais… ce n’est pas lui. C’est l’IA qui l’imite.


Ce type d’escroquerie s’appelle l’arnaque vocale par clonage. Il suffit à l’escroc de récupérer un enregistrement de quelques secondes (ex. : une vidéo sur TikTok, Instagram ou Facebook) pour entraîner un outil d’IA capable de reproduire la voix de quelqu’un avec une précision troublante. Le tout en quelques minutes. Et avec très peu de moyens.

Des visages familiers… qui ne sont que des masques

Autre procédé : les vidéos hypertruquées (deepfakes). Ce sont des vidéos truquées dans lesquelles le visage ou la voix d’une personne sont manipulés par IA. On peut ainsi créer une fausse vidéo d’un politicien qui tient des propos qu’il n’a jamais prononcés… ou pire, une vidéo de vous-même, truquée à partir de photos publiées en ligne.

Ces vidéos servent parfois à piéger ou à faire chanter des victimes. Certaines arnaques de type pornodivulgation (revenge porn) s’appuient désormais sur des contenus entièrement fabriqués, mais terriblement convaincants.

L’arnaque sentimentale reprogrammée

Les escrocs utilisaient déjà des scénarios bien huilés sur les sites Web de rencontre, mais maintenant, grâce à des agents conversationnels (chatbots) dopés à l’IA, ils peuvent :

  • entretenir plusieurs conversations à la fois,

  • écrire des messages crédibles, sans fautes ni incohérences,

  • adapter le ton selon les réponses de la victime,

  • et se faire passer pour un homme ou une femme, jeune ou âgé·e, sans jamais se tromper.

Autrement dit, ils deviennent presque impossibles à démasquer, surtout si la victime est vulnérable, isolée ou simplement en quête d’un peu d’attention.

Faux sites Web, fausses photos, faux humains

Des photos générées par IA? Il y en a à la pelle sur les profils frauduleux. Des visages parfaitement symétriques, légèrement flous en arrière-plan, sans détails comme des boucles d’oreilles identiques des deux côtés ou des lunettes bien droites. (C’est souvent là qu’on repère le truc!) Regardez bien la photo ci-dessous, générée par IA, et pratiquez-vous à repérer les anomalies ou… des dents et un sourire « trop parfaits ». Rappelez-vous le leitmotiv de cette chronique : « Si c’est trop beau pour être vrai… ».

photo générée par IA.png

De plus, l’IA peut désormais rédiger des faux avis, construire des sites Web fictifs, ou même envoyer des courriels personnalisés avec votre prénom, votre région, vos habitudes d’achat, pour que vous baissiez la garde.

Et tout ça, à grande échelle.

Comment se protéger? Voici la trousse de survie numérique :

  1. Activez la méfiance « positive ».
    Si un message vous semble bizarre, ou si une demande d’argent est faite sous pression ou dans l’urgence… prenez une pause. Vérifiez. Appelez la vraie personne. Demandez à voir autrement.
     

  2. Protégez vos voix et vos vidéos.
    Ne publiez pas trop de vidéos où votre voix est bien audible. Et si vous le faites, limitez l’accès à vos publications (réglages de confidentialité sur les réseaux sociaux).
     

  3. Utilisez la double vérification.
    Sur vos comptes, activez l’authentification à deux facteurs. Elle bloque souvent les tentatives d’usurpation même si quelqu’un a réussi à obtenir votre mot de passe.

  4. Doutez des vidéos trop spectaculaires.
    Un politicien qui avoue un crime? Une célébrité qui vous offre de l’argent? Un appel vidéo trop parfait? Vérifiez toujours à la source (et cherchez une version crédible dans les médias reconnus).
     

  5. Signalez les abus.
    Vous croyez avoir vu un profil douteux, un message étrange, une tentative de fraude par IA? Signalez-le sur la plateforme concernée, et sur le site Web du Centre antifraude du Canada : www.antifraudcentre-centreantifraude.ca

Une dernière chose…

L’intelligence artificielle n’est pas mauvaise en soi. Mais comme tout outil puissant, elle peut être détournée. La meilleure défense, ce n’est pas la peur… c’est la vigilance, l’information, et surtout, la solidarité.

Vous avez vécu une expérience étrange liée à une voix clonée ou un à message trop personnalisé? Partagez votre histoire avec Le Nénuphar (de façon anonyme si vous le souhaitez) pour prévenir d’autres lecteurs.

Liste de tous les articles de.jpg
bottom of page