Nel 2025, la piattaforma francese di cybersicurezza Cybermalveillance.gouv.fr ha assistito oltre 500.000 vittime, con un aumento del 20 % rispetto al 2024 (fonte: rapporto di attivita Cybermalveillance.gouv.fr, marzo 2026). Tra le minacce in piu forte crescita: le truffe con intelligenza artificiale. Voci clonate, video falsi, email iperpersonalizzate… Queste nuove tecniche rendono le truffe incredibilmente credibili. Questa guida Le spiega come riconoscerle e proteggersi, senza panico.
L’intelligenza artificiale ha fatto progressi spettacolari negli ultimi due anni. Il problema e che i truffatori l’hanno adottata piu rapidamente di chiunque altro. La usano ormai per imitare la voce dei Suoi familiari, creare video falsi e redigere email fraudolente senza il minimo errore.
Il 3 febbraio 2026, l’autorita francese per la protezione dei dati (CNIL) ha definito i deepfake come una “minaccia sistemica” in un comunicato ufficiale (fonte: CNIL, febbraio 2026). Il Ministero dell’Interno francese ha pubblicato una guida dedicata alle truffe con IA sulla piattaforma Ma Securite (fonte: masecurite.interieur.gouv.fr, 2025).
La buona notizia: tutte queste truffe si basano sugli stessi meccanismi psicologici. Conoscendoli, puo difendersi efficacemente.
I 4 tipi di truffe con IA che colpiscono gli anziani nel 2026
1. Clonazione vocale: quando Suo “nipote” chiama chiedendo aiuto
E la versione digitale della classica truffa del nipote, ma infinitamente piu convincente. Con software accessibile gratuitamente, i truffatori possono riprodurre fedelmente la voce di un familiare a partire da soli 5-10 secondi di audio (fonte: rapporto TechnoMind, novembre 2025). Un messaggio vocale su WhatsApp, un video pubblicato sui social media o un semplice messaggio in segreteria e tutto cio che serve.
Cosa succede in pratica:
Lei riceve una chiamata. Sente la voce di Suo nipote, in preda al panico: dice di aver avuto un incidente, di essere in ospedale o di avere problemi con la giustizia. La supplica di inviare denaro immediatamente e Le chiede di non avvisare nessuno. La voce e identica: il tono, le inflessioni, le piccole esitazioni. Il numero visualizzato puo essere manipolato per sembrare un numero familiare.
Testimonianza: Pierre, 60 anni, Ile-de-France, 2025: “Ho ricevuto una chiamata da quello che credevo fosse mio nipote. La voce era esattamente la sua. Diceva che aveva bisogno di aiuto urgente. Ho trasferito 2.000 euro prima di rendermi conto che era una truffa. Quando ho richiamato mio nipote al suo vero numero, non sapeva nemmeno di cosa parlassi.” (fonte: seneoo.com, testimonianza anonimizzata, 2025)
Nel marzo 2024, a Lione, una madre ha trasferito 8.000 euro dopo aver ricevuto una chiamata dalla “figlia”, in lacrime, che diceva di aver avuto un incidente. La figlia era in realta a lezione in quel momento (fonte: blog economie-numerique.net, novembre 2024).
Secondo il NCOA (National Council on Aging), gli adulti oltre i 60 anni rappresentano il 43 % delle perdite finanziarie totali per truffe, pur presentando meno denunce rispetto ad altre fasce d’eta (fonte: NCOA, 2025).
Come riconoscerla:
- La chiamata arriva sempre con urgenza: incidente, ospedalizzazione, problema legale
- L’interlocutore Le chiede di non avvisare nessuno
- Richiede un bonifico immediato o l’acquisto di carte prepagate
- Se fa una domanda personale precisa (un ricordo, un soprannome), il truffatore esita o elude
2. Deepfake video: volti falsi nelle videochiamate
Se pensa che una videochiamata sia piu sicura di una telefonata, si sbaglia. Nel 2025, una multinazionale con sede a Hong Kong ha perso 25 milioni di dollari dopo che un dipendente ha partecipato a una videochiamata Zoom con quelli che sembravano i colleghi e il direttore finanziario. Tutti i partecipanti erano deepfake in tempo reale (fonte: CNN, febbraio 2024; Tookitaki, marzo 2025).
Queste tecniche si stanno democratizzando e iniziano a colpire i privati. Lo scenario piu comune: un falso consulente bancario La chiama in videoconferenza per “verificare la Sua identita” o “mettere in sicurezza il Suo conto” a seguito di una presunta attivita sospetta. Il volto sullo schermo sembra un professionista in giacca e cravatta con uno sfondo da ufficio. E tutto generato dall’IA.
Come riconoscerla:
- La Sua banca non La contatta mai in videochiamata per operazioni di sicurezza
- Il volto puo presentare lievi artefatti: contorni facciali sfocati, battito di palpebre irregolare, movimenti delle labbra leggermente fuori sincrono con l’audio
- L’interlocutore insiste affinche Lei resti in linea e non riattacchi
- Le chiede di effettuare operazioni bancarie durante la chiamata
3. Email di phishing ultrapersonalizzate generate dall’IA
Sono finiti i tempi delle email truffaldine piene di errori ortografici inviate da “principe.nigeria@gmail.com”. Nel 2026, l’IA scrive email perfette, personalizzate con le Sue vere informazioni personali. Secondo i ricercatori di cybersicurezza, le email di phishing generate dall’IA sono aumentate del 4.000 % dal 2022 e il loro tasso di clic e del 60 % superiore rispetto alle email fraudolente tradizionali (fonte: Keepnet Labs, gennaio 2026).
Il rapporto Cybermalveillance.gouv.fr 2025 conferma che il phishing resta la minaccia principale per i privati in Francia, con un aumento del 70 % delle segnalazioni, alimentato dallo sfruttamento malevolo di massicce fughe di dati (fonte: rapporto di attivita Cybermalveillance.gouv.fr 2025).
Cosa succede in pratica:
Lei riceve un’email che sembra provenire dalla Sua banca, dalla Sua assicurazione sanitaria o dall’ente previdenziale. Riporta il Suo vero nome, talvolta il Suo indirizzo o numero di contratto. La lingua e impeccabile. Il messaggio La invita a cliccare su un link per “aggiornare i Suoi dati”, “confermare un rimborso” o “mettere in sicurezza il Suo conto”.
Come riconoscerla:
- Verifichi l’indirizzo email del mittente (non solo il nome visualizzato). Un indirizzo ufficiale termina con il dominio dell’organizzazione
- Passi il mouse sul link senza cliccare per vedere l’URL reale
- Nessun ente ufficiale Le chiede mai la password o i dati bancari via email
- Anche se il messaggio non contiene errori, una richiesta di azione urgente resta il principale segnale d’allarme
4. Falso “supporto tecnico” con IA
La truffa del falso supporto tecnico e la 3a minaccia piu frequente per i privati secondo Cybermalveillance.gouv.fr. Nel 2025 si e arricchita di una nuova dimensione: chatbot IA che imitano una conversazione naturale con un tecnico.
Nel luglio 2025, Microsoft, Cybermalveillance.gouv.fr e la Procura di Parigi hanno lanciato un appello congiunto contro queste truffe (fonte: Microsoft Francia, luglio 2025). Un sondaggio Ifop per Microsoft ha rivelato che solo il 16 % degli anziani dichiara di sapere esattamente cosa fare di fronte a una truffa online (fonte: studio Microsoft/Ifop, 2025).
Cosa succede in pratica:
Un messaggio di allerta appare sullo schermo del Suo computer: “Virus rilevato! Chiami immediatamente il supporto tecnico al [numero].” Se chiama, un chatbot IA risponde come un vero tecnico, con un discorso fluido e rassicurante. Le chiede di installare un software di accesso remoto, poi un “tecnico” prende il controllo del Suo computer. Simula una diagnosi e Le addebita da 200 a 500 euro per una riparazione fittizia.
Testimonianza: Colette, 74 anni, Nantes, febbraio 2026: “Un messaggio e apparso sul mio computer dicendo che i miei dati personali erano compromessi. Ho chiamato il numero e la persona al telefono sembrava molto competente. Mi ha fatto installare un software e ha preso il controllo del mio computer per 45 minuti. Alla fine mi ha chiesto 350 euro con carta per la riparazione. Mio figlio mi ha poi detto che era una truffa classica, ma in quel momento tutto sembrava reale.” (fonte: signal-arnaques.com, testimonianza anonimizzata)
Come riconoscerla:
- Microsoft, Apple e Google non mostrano mai messaggi di allerta con un numero di telefono da chiamare
- Un vero tecnico non Le chiede mai di installare un software di controllo remoto per telefono
- Il pagamento e sempre richiesto immediatamente, spesso con carta o carte prepagate
5 riflessi per proteggersi dalle truffe con IA
1. Concordi una parola d’ordine familiare
Scelga con i Suoi familiari una parola o una frase che solo voi conoscete. Se riceve una chiamata urgente che chiede denaro, chieda la parola d’ordine. Se la persona non la conosce o elude la domanda, riattacchi. Questo semplice riflesso neutralizza la clonazione vocale.
2. Riattacchi sempre e richiami al numero abituale
Se un familiare, la Sua banca o un ente La contatta con una richiesta urgente, non prosegua la conversazione. Riattacchi con calma e richiami Lei stesso il numero che conosce (dalla Sua rubrica, dal retro della carta bancaria, dal sito ufficiale). Se la chiamata era legittima, trovera il Suo interlocutore. Se non lo era, avra evitato la truffa.
3. Non faccia mai un bonifico sotto pressione
Nessun ente ufficiale, nessuna banca, nessun familiare in una situazione reale Le chiedera di agire in pochi minuti senza possibilita di verifica. L’urgenza artificiale e lo strumento principale dei truffatori. Se qualcuno Le chiede un bonifico immediato, e un segnale d’allarme.
4. Controlli le email guardando l’indirizzo, non il contenuto
Il contenuto di un’email fraudolenta puo essere perfetto grazie all’IA. Ma l’indirizzo del mittente resta difficile da falsificare completamente. Guardi l’indirizzo email completo (non solo il nome visualizzato) e verifichi che il dominio corrisponda all’organizzazione.
5. Ne parli senza vergogna
Le truffe con IA sono progettate per ingannare chiunque, compresi i professionisti della cybersicurezza. Se ha un dubbio, ne parli con un familiare, un vicino o chiami il numero antifrode. Chiedere un parere non e un segno di debolezza: e il riflesso piu efficace.
Cosa fare se e stato vittima
Non si colpevolizzi. Queste truffe sono ideate da manipolatori professionisti e la tecnologia impiegata e estremamente convincente. Ecco i passi da seguire:
Nelle prime ore
- Contatti immediatamente la Sua banca per segnalare l’operazione e richiedere il recupero dei fondi se possibile. Blocchi la carta se ha comunicato i Suoi dati bancari.
- Cambi le Sue password se ha comunicato credenziali di accesso o installato software di accesso remoto.
- Conservi tutte le prove: numeri di telefono, screenshot, email, estratti conto.
Nei giorni successivi
- Sporga denuncia presso la Polizia Postale o i Carabinieri, anche online tramite il portale dedicato.
- Segnali l’incidente al CSIRT Italia (csirt.gov.it) o alla Polizia Postale (commissariatodips.it).
- Segnali il numero se la truffa e arrivata per telefono o SMS.
Contatti utili (Italia)
| Organismo | Contatto | Scopo |
|---|---|---|
| Polizia Postale | commissariatodips.it | Denunce e segnalazioni |
| Carabinieri | 112 | Denunce |
| CSIRT Italia | csirt.gov.it | Sicurezza informatica |
| Garante Privacy | garanteprivacy.it | Protezione dati personali |
| La Sua banca | Numero sul retro della carta | Blocco carta e recupero fondi |
| AGCOM | agcom.it | Segnalazione abusi telecomunicazioni |
L’IA non e solo dalla parte dei truffatori
Sarebbe ingiusto vedere solo il lato negativo dell’intelligenza artificiale. Le autorita e le aziende di cybersicurezza usano anch’esse l’IA per rilevare le truffe piu rapidamente. Il progetto GenFakes del PEReN (Polo di Competenza della Regolazione Digitale), in collaborazione con il laboratorio di innovazione digitale della CNIL (LINC), lavora sul rilevamento automatico dei deepfake e sulla marcatura digitale dei contenuti autentici (fonte: CNIL, 2026).
Gli operatori telefonici stanno inoltre implementando filtri IA per bloccare le chiamate fraudolente prima che La raggiungano. E i browser web integrano sempre piu protezioni automatiche contro i siti di phishing.
Questi sviluppi sono incoraggianti, ma non sostituiscono la Sua vigilanza personale. I riflessi descritti in questo articolo restano la Sua migliore protezione.
Conclusione: la tecnologia cambia, i riflessi restano gli stessi
Gli strumenti dei truffatori si perfezionano, ma i meccanismi di manipolazione restano identici: urgenza, emozione, imitazione di un’autorita o di un familiare. Se conosce questi meccanismi, e gia ben protetto.
Se ricorda solo tre cose:
- Una parola d’ordine familiare neutralizza la clonazione vocale
- Riattaccare e richiamare da soli vanifica qualsiasi furto d’identita
- L’urgenza e sempre sospetta quando arriva da una chiamata, un SMS o un’email
E se ha un dubbio, ne parli. Chiami la Polizia Postale o il 112. Non e mai troppo tardi per chiedere aiuto.
Nota editoriale
Fonti consultate: Rapporto di attivita 2025 Cybermalveillance.gouv.fr (marzo 2026), guida sulle truffe con IA del Ministero dell’Interno francese (masecurite.interieur.gouv.fr, 2025), comunicato CNIL sui deepfake (febbraio 2026), guida CNIL “Deepfake: come proteggersi” (febbraio 2026), rapporto Keepnet Labs sul phishing 2025, studio Microsoft/Ifop sugli anziani e le truffe del falso supporto tecnico (2025), comunicato congiunto Microsoft-Cybermalveillance.gouv.fr-Procura di Parigi (luglio 2025), guida NCOA sulle truffe con IA per gli anziani (2025), American Bar Association (settembre 2025), testimonianze anonimizzate da signal-arnaques.com, seneoo.com e blog economie-numerique.net.
Limiti di questo articolo: Le statistiche specifiche sulle truffe con IA rivolte agli anziani sono ancora parziali, poiche i rapporti ufficiali non distinguono sistematicamente tra truffe basate sull’IA e truffe tradizionali. Le testimonianze sono anonimizzate e gli importi dichiarati non possono essere verificati in modo indipendente. Le tecniche di truffa evolvono rapidamente; nuove varianti possono apparire dopo la pubblicazione di questo articolo.
Data di verifica: 16 aprile 2026
Conflitti di interesse: nessuno
Questions fréquentes
-
Bastano da 5 a 10 secondi di registrazione vocale (un messaggio vocale WhatsApp, un video sui social media, un messaggio in segreteria) perche un software di IA riproduca fedelmente una voce, con la sua intonazione, il suo ritmo e persino le sue esitazioni. Questi strumenti sono disponibili gratuitamente online.
-
Faccia una domanda personale a cui solo il Suo familiare puo rispondere (un ricordo condiviso, il nome di un animale domestico). Puo anche concordare in anticipo una parola d'ordine familiare. In caso di dubbio, riattacchi e richiami il Suo familiare al numero abituale.
-
Si, anche se attualmente queste truffe colpiscono piu spesso le aziende. Nel 2025, una multinazionale di Hong Kong ha perso 25 milioni di dollari dopo una videochiamata in cui tutti i partecipanti erano deepfake. I privati sono sempre piu bersaglio di false videochiamate da parte di presunti consulenti bancari.
-
Contatti immediatamente la Sua banca per tentare il recupero dei fondi. Sporga denuncia alle forze dell'ordine. Segnali la truffa sulla piattaforma nazionale di cybersicurezza. Conservi tutte le prove: numeri di telefono, messaggi, estratti conto.
-
Le email generate dall'IA sono piu convincenti perche non contengono piu i soliti errori ortografici e sono personalizzate con informazioni reali. Ma restano alcuni indizi: indirizzo del mittente sospetto, richiesta urgente di denaro o dati personali, link a siti non ufficiali.