Aller au contenu principal

Estafas con IA en 2026: deepfakes y voces clonadas contra mayores

Clonacion de voz, deepfakes, phishing IA: las nuevas estafas dirigidas a personas mayores en 2026 y como protegerse eficazmente.

Estafas con IA en 2026: deepfakes y voces clonadas contra mayores

En 2025, la plataforma francesa de ciberseguridad Cybermalveillance.gouv.fr asistio a mas de 500.000 victimas, un aumento del 20 % respecto a 2024 (fuente: informe de actividad Cybermalveillance.gouv.fr, marzo de 2026). Entre las amenazas de mayor crecimiento: las estafas con inteligencia artificial. Voces clonadas, videos falsos, correos hiperpersonalizados… Estas nuevas tecnicas hacen que el fraude sea terriblemente convincente. Esta guia le explica como reconocerlas y protegerse, sin panico.

La inteligencia artificial ha progresado de forma espectacular en los ultimos dos anos. El problema es que los estafadores la han adoptado mas rapido que nadie. Ahora la usan para imitar la voz de sus familiares, crear videos falsos y redactar correos fraudulentos sin una sola falta.

El 3 de febrero de 2026, la autoridad francesa de proteccion de datos (CNIL) califico los deepfakes de “amenaza sistemica” en un comunicado oficial (fuente: CNIL, febrero de 2026). El Ministerio del Interior frances publico una guia dedicada a las estafas con IA en su plataforma Ma Securite (fuente: masecurite.interieur.gouv.fr, 2025).

La buena noticia: todas estas estafas se basan en los mismos mecanismos psicologicos. Si los conoce, puede protegerse.

Los 4 tipos de estafas con IA que afectan a las personas mayores en 2026

1. Clonacion de voz: cuando su “nieto” le llama pidiendo ayuda

Es la version digital de la clasica estafa del nieto, pero infinitamente mas convincente. Con software disponible gratuitamente, los estafadores pueden reproducir fielmente la voz de un familiar a partir de solo 5 a 10 segundos de audio (fuente: informe TechnoMind, noviembre de 2025). Un mensaje de voz de WhatsApp, un video publicado en redes sociales o un simple mensaje en el contestador es todo lo que necesitan.

Que ocurre en la practica:

Usted recibe una llamada. Escucha la voz de su nieto, en panico: dice que ha tenido un accidente, que esta hospitalizado o que tiene problemas con la justicia. Le suplica que envie dinero inmediatamente y le pide que no avise a nadie. La voz es identica: el tono, las inflexiones, las pequenas dudas. El numero que aparece puede estar manipulado para parecerse a uno conocido.

Testimonio: Pierre, 60 anos, Ile-de-France, 2025: “Recibi una llamada de lo que creia que era mi nieto. La voz era exactamente la suya. Decia que necesitaba ayuda urgente. Transferi 2.000 euros antes de darme cuenta de que era una estafa. Cuando llame a mi nieto a su numero real, no tenia ni idea de que le hablaba.” (fuente: seneoo.com, testimonio anonimizado, 2025)

En marzo de 2024, en Lyon, una madre transfirio 8.000 euros tras recibir una llamada de “su hija”, llorando, diciendo que habia tenido un accidente. Su hija estaba en clase en ese momento (fuente: blog economie-numerique.net, noviembre de 2024).

Segun el NCOA (National Council on Aging), los adultos mayores de 60 anos representan el 43 % de las perdidas financieras totales por estafas, a pesar de presentar menos denuncias que otros grupos de edad (fuente: NCOA, 2025).

Como reconocerlo:

  • La llamada siempre llega con urgencia: accidente, hospitalizacion, problema legal
  • El interlocutor le pide que no avise a nadie
  • Solicita una transferencia inmediata o la compra de tarjetas prepago
  • Si hace una pregunta personal concreta (un recuerdo, un apodo), el estafador duda o esquiva

2. Deepfake de video: caras falsas en videollamadas

Si piensa que una videollamada es mas segura que una llamada telefonica, pienselo de nuevo. En 2025, una multinacional con sede en Hong Kong perdio 25 millones de dolares despues de que un empleado participara en una videollamada de Zoom con lo que parecia ser sus colegas y el director financiero. Todos los participantes eran deepfakes en tiempo real (fuente: CNN, febrero de 2024; Tookitaki, marzo de 2025).

Estas tecnicas se estan democratizando y empiezan a afectar a particulares. El escenario mas comun: un falso asesor bancario le llama por videoconferencia para “verificar su identidad” o “asegurar su cuenta” tras una supuesta actividad sospechosa. El rostro en la pantalla parece un profesional con traje y fondo de oficina. Todo esta generado por IA.

Como reconocerlo:

  • Su banco nunca le contacta por videollamada para operaciones de seguridad
  • El rostro puede presentar ligeros artefactos: contornos faciales borrosos, parpadeos irregulares, movimientos de labios ligeramente desfasados con el audio
  • El interlocutor insiste en que no cuelgue
  • Le pide realizar operaciones bancarias durante la llamada

3. Correos de phishing ultrapersonalizados generados por IA

Se acabaron los correos de estafa llenos de faltas de ortografia enviados desde “principe.nigeria@gmail.com”. En 2026, la IA redacta correos perfectos, personalizados con su informacion personal real. Segun investigadores en ciberseguridad, los correos de phishing generados por IA han aumentado un 4.000 % desde 2022, y su tasa de clics es un 60 % superior a la de los correos fraudulentos tradicionales (fuente: Keepnet Labs, enero de 2026).

El informe de Cybermalveillance.gouv.fr 2025 confirma que el phishing sigue siendo la principal amenaza para los particulares en Francia, con un aumento del 70 % en los reportes, impulsado por la explotacion maliciosa de filtraciones masivas de datos (fuente: informe de actividad Cybermalveillance.gouv.fr 2025).

Que ocurre en la practica:

Usted recibe un correo que parece provenir de su banco, mutualidad o la Seguridad Social. Menciona su nombre real, a veces su direccion o numero de contrato. El idioma es impecable. El mensaje le invita a hacer clic en un enlace para “actualizar sus datos”, “confirmar un reembolso” o “asegurar su cuenta”.

Como reconocerlo:

  • Verifique la direccion de correo del remitente (no solo el nombre mostrado). Una direccion oficial termina con el dominio de la organizacion
  • Pase el cursor sobre el enlace sin hacer clic para ver la URL real
  • Ningun organismo oficial le pide nunca su contrasena o datos bancarios por correo
  • Aunque el mensaje no contenga errores, una solicitud de accion urgente sigue siendo la senal de alerta principal

4. Falso “soporte tecnico” con IA

La estafa del falso soporte tecnico es la 3a amenaza mas frecuente para los particulares segun Cybermalveillance.gouv.fr. En 2025 se enriquecio con una nueva dimension: chatbots de IA que imitan una conversacion natural con un tecnico.

En julio de 2025, Microsoft, Cybermalveillance.gouv.fr y la Fiscalia de Paris lanzaron un llamamiento conjunto contra estas estafas (fuente: Microsoft Francia, julio de 2025). Una encuesta de Ifop para Microsoft revelo que solo el 16 % de las personas mayores afirma saber exactamente que hacer ante una estafa en linea (fuente: estudio Microsoft/Ifop, 2025).

Que ocurre en la practica:

Un mensaje de alerta aparece en la pantalla de su ordenador: “Virus detectado! Llame inmediatamente al soporte tecnico al [numero].” Si llama, un chatbot de IA responde como un tecnico real, con un discurso fluido y tranquilizador. Le pide instalar un software de acceso remoto, y luego un “tecnico” toma el control de su ordenador. Simula un diagnostico y le cobra de 200 a 500 euros por una reparacion ficticia.

Testimonio: Colette, 74 anos, Nantes, febrero de 2026: “Un mensaje aparecio en mi ordenador diciendo que mis datos personales estaban comprometidos. Llame al numero y la persona al telefono parecia muy competente. Me hizo instalar un software y tomo el control de mi ordenador durante 45 minutos. Al final, me pidio 350 euros con tarjeta para la reparacion. Mi hijo me dijo despues que era una estafa clasica, pero en el momento, todo parecia real.” (fuente: signal-arnaques.com, testimonio anonimizado)

Como reconocerlo:

  • Microsoft, Apple y Google nunca muestran mensajes de alerta con un numero de telefono al que llamar
  • Un tecnico real nunca le pide instalar un software de control remoto por telefono
  • El pago siempre se exige de inmediato, generalmente con tarjeta o tarjetas prepago

5 reflejos para protegerse de las estafas con IA

1. Acuerde una contrasena familiar

Elija con sus familiares una palabra o frase que solo ustedes conozcan. Si recibe una llamada urgente pidiendo dinero, pregunte por la contrasena. Si la persona no la conoce o esquiva la pregunta, cuelgue. Este simple reflejo neutraliza la clonacion de voz.

2. Cuelgue siempre y vuelva a llamar al numero habitual

Si un familiar, su banco o un organismo le contacta con una solicitud urgente, no continue la conversacion. Cuelgue con calma y vuelva a llamar usted mismo al numero que conoce (de su agenda, del reverso de su tarjeta bancaria, de la web oficial). Si la llamada era legitima, encontrara a su interlocutor. Si no lo era, habra evitado la estafa.

3. No haga nunca una transferencia bajo presion

Ningun organismo oficial, ningun banco, ningun familiar en una situacion real le pedira actuar en minutos sin posibilidad de verificacion. La urgencia artificial es la herramienta principal de los estafadores. Si alguien le exige una transferencia inmediata, es una senal de alarma.

4. Compruebe los correos mirando la direccion, no el contenido

El contenido de un correo fraudulento puede ser perfecto gracias a la IA. Pero la direccion del remitente sigue siendo dificil de falsificar completamente. Mire la direccion de correo completa (no solo el nombre mostrado) y verifique que el dominio corresponde a la organizacion.

5. Hable de ello sin verguenza

Las estafas con IA estan disenadas para enganar a todo el mundo, incluidos profesionales de la ciberseguridad. Si tiene dudas, hable con un familiar, un vecino o llame a la linea de atencion contra el fraude. Pedir opinion no es signo de debilidad: es el reflejo mas eficaz.

Que hacer si ha sido victima

No se culpe. Estas estafas estan disenadas por manipuladores profesionales y la tecnologia utilizada es extremadamente convincente. Estos son los pasos a seguir:

En las primeras horas

  1. Contacte inmediatamente con su banco para reportar la operacion y solicitar una devolucion si es posible. Bloquee su tarjeta si ha facilitado sus datos bancarios.
  2. Cambie sus contrasenas si ha facilitado datos de acceso o instalado software de acceso remoto.
  3. Conserve todas las pruebas: numeros de telefono, capturas de pantalla, correos, extractos bancarios.

En los dias siguientes

  1. Presente una denuncia ante la Policia Nacional, la Guardia Civil o en linea a traves de la sede electronica del ministerio correspondiente.
  2. Reporte el incidente al INCIBE (Instituto Nacional de Ciberseguridad) a traves de su linea 017 gratuita.
  3. Reporte el numero si la estafa llego por telefono o SMS.

Contactos utiles (Espana)

OrganismoContactoProposito
INCIBE017 (gratuito)Asesoramiento en ciberseguridad
Policia Nacional091 / policia.esDenuncias
Guardia Civil062 / guardiacivil.esDenuncias
AEPDaepd.esProteccion de datos personales
Su bancoNumero en el reverso de su tarjetaBloqueo de tarjeta y devolucion
OSIosi.esOficina de Seguridad del Internauta

La IA no esta solo del lado de los estafadores

Seria injusto ver solo el lado negativo de la inteligencia artificial. Las autoridades y las empresas de ciberseguridad tambien usan la IA para detectar estafas mas rapidamente. El proyecto GenFakes del PEReN (Polo de Expertise de la Regulacion Digital), en colaboracion con el laboratorio de innovacion digital de la CNIL (LINC), trabaja en la deteccion automatica de deepfakes y el marcado digital de contenidos autenticos (fuente: CNIL, 2026).

Los operadores telefonicos tambien despliegan filtros de IA para bloquear llamadas fraudulentas antes de que le lleguen. Y los navegadores web integran cada vez mas protecciones automaticas contra sitios de phishing.

Estos avances son alentadores, pero no sustituyen su vigilancia personal. Los reflejos descritos en este articulo siguen siendo su mejor proteccion.

Conclusion: la tecnologia cambia, los reflejos siguen siendo los mismos

Las herramientas de los estafadores se perfeccionan, pero los mecanismos de manipulacion siguen siendo identicos: urgencia, emocion, suplantacion de una autoridad o un familiar. Si conoce estos mecanismos, ya esta bien protegido.

Si solo recuerda tres cosas:

  • Una contrasena familiar neutraliza la clonacion de voz
  • Colgar y volver a llamar uno mismo frustra cualquier suplantacion de identidad
  • La urgencia siempre es sospechosa cuando viene de una llamada, un SMS o un correo

Y si tiene dudas, hable de ello. Llame al 017 del INCIBE (gratuito). Nunca es tarde para pedir ayuda.


Nota editorial

Fuentes consultadas: Informe de actividad 2025 Cybermalveillance.gouv.fr (marzo de 2026), guia de estafas con IA del Ministerio del Interior frances (masecurite.interieur.gouv.fr, 2025), comunicado de la CNIL sobre deepfakes (febrero de 2026), guia CNIL “Deepfakes: como protegerse” (febrero de 2026), informe Keepnet Labs sobre phishing 2025, estudio Microsoft/Ifop sobre personas mayores y estafas de falso soporte tecnico (2025), comunicado conjunto Microsoft-Cybermalveillance.gouv.fr-Fiscalia de Paris (julio de 2025), guia NCOA sobre estafas con IA para adultos mayores (2025), American Bar Association (septiembre de 2025), testimonios anonimizados de signal-arnaques.com, seneoo.com y blog economie-numerique.net.

Limitaciones de este articulo: Las estadisticas especificas sobre estafas con IA dirigidas a personas mayores son aun parciales, ya que los informes oficiales no distinguen sistematicamente entre estafas con IA y estafas tradicionales. Los testimonios estan anonimizados y las cantidades declaradas no pueden verificarse de forma independiente. Las tecnicas de estafa evolucionan rapidamente; pueden aparecer nuevas variantes tras la publicacion de este articulo.

Fecha de verificacion: 16 de abril de 2026

Conflictos de interes: ninguno

Questions fréquentes