En 2025, la plateforme Cybermalveillance.gouv.fr a assisté plus de 500 000 victimes, soit une hausse de 20 % par rapport à 2024 (source : rapport d’activité Cybermalveillance.gouv.fr, mars 2026). Parmi les menaces en forte progression : les arnaques utilisant l’intelligence artificielle. Voix clonées, vidéos truquées, emails hyper-personnalisés… Ces nouvelles techniques rendent les escroqueries redoutablement crédibles. Ce guide vous explique comment les reconnaître et vous en protéger, sans panique.
L’intelligence artificielle a fait des progrès spectaculaires ces deux dernières années. Le problème, c’est que les escrocs l’ont adoptée plus vite que tout le monde. Ils s’en servent désormais pour imiter la voix de vos proches, créer de fausses vidéos ou rédiger des emails frauduleux sans la moindre faute.
Le 3 février 2026, la CNIL a qualifié les deepfakes de “menace systémique” dans un communiqué officiel (source : CNIL, février 2026). Le ministère de l’Intérieur a publié une fiche pratique dédiée aux arnaques utilisant l’IA sur sa plateforme Ma Sécurité (source : masecurite.interieur.gouv.fr, 2025).
La bonne nouvelle : ces arnaques reposent toutes sur les mêmes ressorts psychologiques. En les connaissant, vous pouvez les déjouer.
Les 4 types d’arnaques par IA qui visent les seniors en 2026
1. Le clonage vocal : quand votre “petit-fils” vous appelle à l’aide
C’est la version numérique de l’arnaque au petit-fils, mais infiniment plus convaincante. Grâce à des logiciels accessibles en ligne, les escrocs peuvent reproduire fidèlement la voix d’un proche à partir de seulement 5 à 10 secondes d’enregistrement (source : rapport TechnoMind, novembre 2025). Un message vocal sur WhatsApp, une vidéo publiée sur les réseaux sociaux ou un simple message sur répondeur leur suffit.
Comment ça se passe concrètement :
Vous recevez un appel. Vous entendez la voix de votre petit-fils, paniqué : il dit avoir eu un accident, être hospitalisé ou avoir des ennuis avec la justice. Il vous supplie d’envoyer de l’argent immédiatement et vous demande de ne prévenir personne. La voix est identique : le timbre, les intonations, les petites hésitations. Le numéro qui s’affiche peut même être maquillé pour ressembler à un numéro connu.
Témoignage : Pierre, 60 ans, Ile-de-France, 2025 : “J’ai reçu un appel de ce que je croyais être mon petit-fils. La voix était exactement la sienne. Il disait qu’il avait besoin d’aide de toute urgence. J’ai transféré 2 000 euros avant de réaliser que c’était une arnaque. Quand j’ai rappelé mon petit-fils sur son vrai numéro, il ne savait même pas de quoi je parlais.” (source : seneoo.com, témoignage anonymisé, 2025)
En mars 2024, à Lyon, une mère de famille a versé 8 000 euros après avoir reçu un appel de “sa fille”, en pleurs, disant avoir eu un accident. Sa fille était en réalité en cours au moment de l’appel (source : blog economie-numerique.net, novembre 2024).
Selon la NCOA (National Council on Aging), les adultes de plus de 60 ans représentent 43 % des pertes financières totales liées aux arnaques, bien qu’ils déposent moins de plaintes que les autres tranches d’âge (source : NCOA, 2025).
Comment le reconnaître :
- L’appel arrive toujours dans l’urgence : accident, hospitalisation, problème judiciaire
- L’interlocuteur vous demande de ne prévenir personne d’autre
- Il demande un virement immédiat ou l’achat de coupons prépayés
- Si vous posez une question personnelle précise (un souvenir, un surnom), l’escroc hésite ou esquive
2. Les deepfakes vidéo : de faux visages en appel vidéo
Si vous pensez qu’un appel vidéo est plus sûr qu’un appel vocal, détrompez-vous. En 2025, une entreprise multinationale basée à Hong Kong a perdu 25 millions de dollars après qu’un employé a participé à un appel vidéo sur Zoom avec ce qu’il pensait être ses collègues et son directeur financier. Tous les participants étaient des deepfakes en temps réel (source : CNN, février 2024 ; Tookitaki, mars 2025).
Ces techniques se démocratisent et commencent à toucher les particuliers. Le scénario le plus courant en France : un faux conseiller bancaire vous appelle en visioconférence pour “vérifier votre identité” ou “sécuriser votre compte” suite à une supposée activité suspecte. Le visage affiché à l’écran ressemble à un professionnel en costume, dans un décor de bureau. Tout est généré par IA.
Comment le reconnaître :
- Votre banque ne vous contacte jamais en appel vidéo pour des opérations de sécurité
- Le visage peut présenter de légers artefacts : contours du visage flous, clignements irréguliers, mouvements de lèvres légèrement décalés par rapport au son
- L’interlocuteur insiste pour que vous restiez en ligne et ne raccrochiez pas
- Il vous demande de réaliser des opérations bancaires pendant l’appel
3. Les emails frauduleux ultra-personnalisés générés par IA
Fini les emails d’arnaque bourrés de fautes d’orthographe envoyés depuis “prince.nigeria@gmail.com”. En 2026, l’IA rédige des emails parfaits, personnalisés avec vos vraies informations personnelles. Selon les chercheurs en cybersécurité, les emails de phishing générés par IA ont augmenté de 4 000 % depuis 2022, et leur taux de clic est 60 % plus élevé que celui des emails frauduleux traditionnels (source : Keepnet Labs, janvier 2026).
Le rapport Cybermalveillance.gouv.fr 2025 confirme que le phishing reste la menace principale pour les particuliers en France, avec une hausse de 70 % des signalements, alimentée par l’exploitation malveillante des fuites de données massives (source : rapport d’activité Cybermalveillance.gouv.fr 2025).
Comment ça se passe concrètement :
Vous recevez un email qui semble venir de votre banque, de votre mutuelle ou de la Sécurité sociale. Il mentionne votre vrai nom, parfois votre adresse ou votre numéro de contrat. Le français est impeccable. Le message vous invite à cliquer sur un lien pour “mettre à jour vos coordonnées”, “confirmer un remboursement” ou “sécuriser votre compte”.
Comment le reconnaître :
- Vérifiez l’adresse email de l’expéditeur (pas seulement le nom affiché). Une adresse officielle se termine par le domaine de l’organisme (ex : @ameli.fr, @impots.gouv.fr)
- Survolez le lien sans cliquer pour voir l’URL réelle
- Un organisme officiel ne vous demande jamais votre mot de passe ou vos coordonnées bancaires par email
- Même si le message ne contient aucune faute, la demande d’action urgente reste le signal d’alerte principal
4. Le faux support technique “assisté par IA”
L’arnaque au faux support technique est la 3e menace la plus fréquente pour les particuliers selon Cybermalveillance.gouv.fr. En 2025, elle s’est enrichie d’une nouvelle dimension : des chatbots IA qui imitent un dialogue naturel avec un technicien.
En juillet 2025, Microsoft, Cybermalveillance.gouv.fr et le Parquet de Paris ont lancé un appel commun à la mobilisation contre ces arnaques (source : Microsoft France, juillet 2025). Une étude Ifop pour Microsoft révèle que seuls 16 % des seniors déclarent savoir exactement quoi faire face à une arnaque en ligne (source : étude Microsoft/Ifop, 2025).
Comment ça se passe concrètement :
Un message d’alerte apparaît sur votre écran d’ordinateur : “Virus détecté ! Appelez immédiatement le support technique au 01 XX XX XX XX.” Si vous appelez, un chatbot IA vous répond comme un vrai technicien, avec un discours fluide et rassurant. Il vous demande d’installer un logiciel de prise en main à distance, puis un “technicien” prend le contrôle de votre ordinateur. Il simule un diagnostic et vous facture un dépannage fictif de 200 à 500 euros.
Témoignage : Colette, 74 ans, Nantes, février 2026 : “Un message est apparu sur mon ordinateur disant que mes données personnelles étaient compromises. J’ai appelé le numéro et la personne au bout du fil avait l’air très compétente. Elle m’a fait installer un logiciel et a pris le contrôle de mon ordinateur pendant 45 minutes. À la fin, elle m’a demandé 350 euros par carte bancaire pour le dépannage. Mon fils m’a dit ensuite que c’était une arnaque classique, mais moi, sur le moment, tout semblait réel.” (source : signal-arnaques.com, témoignage anonymisé)
Comment le reconnaître :
- Microsoft, Apple, Google ne vous affichent jamais de message d’alerte avec un numéro de téléphone à appeler
- Un vrai technicien ne vous demande jamais d’installer un logiciel de contrôle à distance par téléphone
- Le paiement est toujours exigé immédiatement, souvent par carte bancaire ou coupons prépayés
5 réflexes pour vous protéger des arnaques par IA
1. Convenez d’un mot de passe familial
Choisissez avec vos proches un mot ou une phrase que seuls vous connaissez. En cas d’appel urgent demandant de l’argent, demandez ce mot de passe. Si la personne ne le connaît pas ou esquive la question, raccrochez. Ce réflexe simple neutralise le clonage vocal.
2. Raccrochez et rappelez toujours sur le numéro habituel
Si un proche, votre banque ou un organisme vous contacte avec une demande urgente, ne poursuivez pas la conversation. Raccrochez calmement et rappelez vous-même le numéro que vous connaissez (celui de votre répertoire, celui au dos de votre carte bancaire, celui du site officiel). Si l’appel était légitime, vous retrouverez votre interlocuteur. S’il ne l’était pas, vous aurez évité l’arnaque.
3. Ne faites jamais un virement sous la pression
Aucun organisme officiel, aucune banque, aucun proche dans une situation réelle ne vous demandera d’agir dans les minutes qui suivent sans possibilité de vérification. L’urgence artificielle est le premier outil des escrocs. Si quelqu’un vous demande un virement immédiat, c’est un signal d’alarme.
4. Vérifiez les emails en regardant l’adresse, pas le contenu
Le contenu d’un email frauduleux peut être parfait grâce à l’IA. Mais l’adresse d’expéditeur reste difficile à falsifier complètement. Regardez l’adresse email complète (pas seulement le nom affiché) et vérifiez que le domaine correspond bien à l’organisme (ex : @ameli.fr et non @ameli-remboursement.com).
5. Parlez-en autour de vous sans honte
Les arnaques par IA sont conçues pour tromper tout le monde, y compris des professionnels de la cybersécurité. Si vous avez un doute, parlez-en à un proche, un voisin ou appelez Info Escroqueries au 0 805 805 817 (appel gratuit). Demander un avis n’est pas un signe de faiblesse, c’est le réflexe le plus efficace.
Que faire si vous avez été victime
Ne culpabilisez pas. Ces arnaques sont conçues par des professionnels de la manipulation et les technologies utilisées sont extrêmement convaincantes. Voici les étapes à suivre :
Dans les premières heures
- Contactez votre banque immédiatement pour signaler l’opération et demander un rappel de fonds si possible. Faites opposition sur votre carte si vous avez communiqué vos coordonnées bancaires.
- Changez vos mots de passe si vous avez communiqué des identifiants ou installé un logiciel à distance.
- Conservez toutes les preuves : numéro d’appel, captures d’écran, emails, relevés bancaires.
Dans les jours qui suivent
- Déposez plainte en ligne sur
pre-plainte-en-ligne.gouv.frou au commissariat/gendarmerie. Apportez toutes les preuves collectées. - Signalez sur Cybermalveillance.gouv.fr pour obtenir un diagnostic personnalisé et être orienté vers un professionnel de proximité si nécessaire.
- Signalez le numéro au 33700 (par SMS, gratuit) si l’arnaque est arrivée par téléphone ou SMS.
Les contacts utiles
| Organisme | Contact | Usage |
|---|---|---|
| Info Escroqueries | 0 805 805 817 (gratuit) | Conseils et orientation |
| Cybermalveillance | cybermalveillance.gouv.fr | Diagnostic et assistance |
| PHAROS | internet-signalement.gouv.fr | Signaler un contenu en ligne |
| 33700 | SMS au 33700 | Signaler un appel/SMS frauduleux |
| Votre banque | Numéro au dos de votre carte | Opposition et rappel de fonds |
| CNIL | cnil.fr | Signaler un usage abusif de vos données |
L’IA n’est pas que du côté des escrocs
Il serait injuste de ne voir que le mauvais côté de l’intelligence artificielle. Les autorités et les entreprises de cybersécurité utilisent aussi l’IA pour détecter les arnaques plus rapidement. Le projet GenFakes du Pôle d’Expertise de la Régulation Numérique (PEReN), en partenariat avec le laboratoire d’innovation numérique de la CNIL (LINC), travaille sur la détection automatique des deepfakes et le tatouage numérique des contenus authentiques (source : CNIL, 2026).
Les opérateurs téléphoniques déploient également des filtres IA pour bloquer les appels frauduleux avant qu’ils ne vous atteignent. Et les navigateurs web intègrent de plus en plus de protections automatiques contre les sites de phishing.
Ces progrès sont encourageants, mais ils ne remplacent pas votre vigilance personnelle. Les réflexes décrits dans cet article restent votre meilleure protection.
Conclusion : la technologie change, les réflexes restent les mêmes
Les outils des escrocs se perfectionnent, mais les mécanismes de manipulation restent identiques : l’urgence, l’émotion, l’imitation d’une autorité ou d’un proche. Si vous connaissez ces mécanismes, vous êtes déjà bien armé.
Si vous ne devez retenir que trois choses :
- Un mot de passe familial neutralise le clonage vocal
- Raccrocher et rappeler soi-même déjoue toute usurpation d’identité
- L’urgence est toujours suspecte quand elle vient d’un appel, d’un SMS ou d’un email
Et si vous avez un doute, parlez-en. Appelez Info Escroqueries au 0 805 805 817 (appel gratuit). Il n’est jamais trop tard pour demander de l’aide.
Note éditoriale
Sources consultées : Rapport d’activité 2025 Cybermalveillance.gouv.fr (mars 2026), fiche pratique “Arnaques utilisant l’intelligence artificielle” du ministère de l’Intérieur (masecurite.interieur.gouv.fr, 2025), communiqué CNIL sur les deepfakes (février 2026), fiche CNIL “Hypertrucage (deepfake) : comment se protéger” (février 2026), rapport Keepnet Labs sur le phishing 2025, étude Microsoft/Ifop sur les seniors et les arnaques au faux support technique (2025), appel commun Microsoft-Cybermalveillance.gouv.fr-Parquet de Paris (juillet 2025), NCOA guide on AI scams for older adults (2025), American Bar Association (septembre 2025), témoignages anonymisés via signal-arnaques.com, seneoo.com et blog economie-numerique.net.
Limites de cet article : Les statistiques françaises spécifiques aux arnaques par IA ciblant les seniors sont encore parcellaires, car le rapport Cybermalveillance.gouv.fr ne distingue pas systématiquement les arnaques utilisant l’IA des arnaques traditionnelles. Les témoignages sont anonymisés et les montants déclarés ne sont pas vérifiables de manière indépendante. Les techniques d’arnaque évoluent rapidement ; de nouvelles variantes peuvent apparaître après la publication de cet article.
Date de vérification : 16 avril 2026
Conflits d’intérêt : aucun
Questions fréquentes
-
Il suffit de 5 à 10 secondes d'enregistrement vocal (message vocal WhatsApp, vidéo sur les réseaux sociaux, message sur répondeur) pour qu'un logiciel d'IA reproduise fidèlement une voix, avec ses intonations, son rythme et même ses hésitations. Ces outils sont accessibles gratuitement en ligne.
-
Posez une question personnelle dont seul votre proche connaît la réponse (un souvenir commun, le nom d'un animal de compagnie). Vous pouvez aussi convenir à l'avance d'un mot de passe familial. En cas de doute, raccrochez et rappelez votre proche sur son numéro habituel.
-
Oui, même si ces arnaques ciblent davantage les entreprises pour l'instant. En 2025, une entreprise de Hong Kong a perdu 25 millions de dollars après un appel vidéo où tous les participants étaient des deepfakes. Les particuliers sont de plus en plus visés par de faux appels vidéo de conseillers bancaires.
-
Appelez immédiatement votre banque pour tenter un rappel de fonds. Déposez plainte en ligne sur pre-plainte-en-ligne.gouv.fr ou au commissariat. Signalez l'arnaque sur cybermalveillance.gouv.fr pour être accompagné. Conservez tous les éléments : numéro d'appel, messages, relevés bancaires.
-
Les emails générés par IA sont plus convaincants car ils ne contiennent plus les fautes d'orthographe habituelles et sont personnalisés avec des informations réelles. Mais certains indices restent : adresse d'expéditeur suspecte, demande urgente d'argent ou d'informations personnelles, lien vers un site non officiel.