2025 hat die franzosische Cybersicherheits-Plattform Cybermalveillance.gouv.fr uber 500.000 Opfer betreut — ein Anstieg von 20 % gegenuber 2024 (Quelle: Tatigkeitsbericht Cybermalveillance.gouv.fr, Marz 2026). Zu den am starksten wachsenden Bedrohungen gehoren Betrugsmaschen mit kunstlicher Intelligenz. Geklonte Stimmen, gefalschte Videos, hyperpersonalisierte E-Mails… Diese neuen Techniken machen Betrug erschreckend glaubwurdig. Dieser Leitfaden erklart Ihnen, wie Sie sie erkennen und sich schutzen — ohne Panik.
Kunstliche Intelligenz hat in den letzten zwei Jahren spektakulare Fortschritte gemacht. Das Problem: Betruger haben sie schneller ubernommen als alle anderen. Sie nutzen sie mittlerweile, um Stimmen Ihrer Angehorigen nachzuahmen, gefalschte Videos zu erstellen und fehlerfreie betrugerische E-Mails zu verfassen.
Am 3. Februar 2026 bezeichnete die franzosische Datenschutzbehorde (CNIL) Deepfakes in einer offiziellen Mitteilung als “systemische Bedrohung” (Quelle: CNIL, Februar 2026). Das franzosische Innenministerium veroffentlichte auf seiner Plattform Ma Securite einen eigenen Leitfaden zu KI-gesteuerten Betrugsmaschen (Quelle: masecurite.interieur.gouv.fr, 2025).
Die gute Nachricht: Alle diese Betrugsmaschen setzen auf die gleichen psychologischen Mechanismen. Wenn Sie diese kennen, konnen Sie sich schutzen.
Die 4 Arten von KI-Betrug, die Senioren 2026 ins Visier nehmen
1. Stimmenklonen: Wenn Ihr “Enkel” um Hilfe ruft
Dies ist die digitale Version des klassischen Enkeltricks — aber unendlich uberzeugender. Mit frei zuganglicher Software konnen Betruger die Stimme eines Angehorigen aus nur 5 bis 10 Sekunden Audiomaterial originalgetreu nachbilden (Quelle: TechnoMind-Bericht, November 2025). Eine WhatsApp-Sprachnachricht, ein Video in sozialen Medien oder eine einfache Mailbox-Ansage genugt.
Was konkret passiert:
Sie erhalten einen Anruf. Sie horen die panische Stimme Ihres Enkels: Er sagt, er hatte einen Unfall, liege im Krankenhaus oder habe Arger mit dem Gesetz. Er fleht Sie an, sofort Geld zu schicken, und bittet Sie, niemandem etwas zu sagen. Die Stimme ist identisch: der Tonfall, die Betonungen, die kleinen Pausen. Die angezeigte Nummer kann sogar so manipuliert sein, dass sie einer bekannten Nummer ahnelt.
Erfahrungsbericht: Pierre, 60 Jahre, Ile-de-France, 2025: “Ich erhielt einen Anruf von dem, was ich fur meinen Enkel hielt. Die Stimme war exakt seine. Er sagte, er brauche dringend Hilfe. Ich uberwies 2.000 Euro, bevor ich merkte, dass es Betrug war. Als ich meinen Enkel auf seiner richtigen Nummer zuruckrief, wusste er von nichts.” (Quelle: seneoo.com, anonymisierter Erfahrungsbericht, 2025)
Im Marz 2024 uberwies eine Mutter in Lyon 8.000 Euro, nachdem sie einen Anruf von “ihrer Tochter” erhalten hatte, die weinend sagte, sie habe einen Unfall gehabt. Ihre Tochter war zu diesem Zeitpunkt im Unterricht (Quelle: Blog economie-numerique.net, November 2024).
Laut dem NCOA (National Council on Aging) machen Erwachsene uber 60 Jahre 43 % der gesamten finanziellen Verluste durch Betrug aus, obwohl sie weniger Anzeigen erstatten als andere Altersgruppen (Quelle: NCOA, 2025).
Wie Sie ihn erkennen:
- Der Anruf kommt immer mit Dringlichkeit: Unfall, Krankenhaus, Rechtsstreit
- Der Anrufer bittet Sie, niemandem etwas zu sagen
- Er fordert eine sofortige Uberweisung oder den Kauf von Prepaid-Gutscheinen
- Wenn Sie eine gezielte personliche Frage stellen (eine Erinnerung, ein Spitzname), zogert der Betruger oder weicht aus
2. Deepfake-Video: Gefalschte Gesichter im Videoanruf
Wenn Sie denken, ein Videoanruf sei sicherer als ein Telefonat, irren Sie sich. 2025 verlor ein in Hongkong ansassiges multinationales Unternehmen 25 Millionen Dollar, nachdem ein Mitarbeiter an einem Zoom-Anruf mit seinen vermeintlichen Kollegen und dem Finanzdirektor teilnahm. Alle Teilnehmer waren Echtzeit-Deepfakes (Quelle: CNN, Februar 2024; Tookitaki, Marz 2025).
Diese Techniken werden immer zuganglicher und betreffen zunehmend Privatpersonen. Das haufigste Szenario: Ein falscher Bankberater ruft Sie per Videokonferenz an, um “Ihre Identitat zu verifizieren” oder “Ihr Konto zu sichern”, weil angeblich verdachtige Aktivitaten festgestellt wurden. Das Gesicht auf dem Bildschirm sieht aus wie ein Fachmann im Anzug mit Buro-Hintergrund. Alles ist KI-generiert.
Wie Sie ihn erkennen:
- Ihre Bank kontaktiert Sie niemals per Videoanruf fur Sicherheitsoperationen
- Das Gesicht kann leichte Artefakte aufweisen: unscharfe Gesichtskonturen, unregelmassiges Blinzeln, leicht asynchrone Lippenbewegungen
- Der Anrufer besteht darauf, dass Sie in der Leitung bleiben und nicht auflegen
- Er fordert Sie auf, wahrend des Anrufs Banktransaktionen durchzufuhren
3. KI-generierte, hochpersonalisierte Phishing-E-Mails
Vorbei sind die Zeiten betrugerischer E-Mails voller Rechtschreibfehler von “prinz.nigeria@gmail.com”. 2026 schreibt die KI perfekte, mit echten personlichen Daten personalisierte E-Mails. Laut Cybersicherheitsforschern sind KI-generierte Phishing-E-Mails seit 2022 um 4.000 % gestiegen, und ihre Klickrate ist 60 % hoher als bei herkommlichen betrugerischen E-Mails (Quelle: Keepnet Labs, Januar 2026).
Der Bericht von Cybermalveillance.gouv.fr 2025 bestatigt, dass Phishing die grosste Bedrohung fur Privatpersonen in Frankreich bleibt, mit einem Anstieg der Meldungen um 70 %, bedingt durch die bosartige Ausnutzung massiver Datenlecks (Quelle: Tatigkeitsbericht Cybermalveillance.gouv.fr 2025).
Was konkret passiert:
Sie erhalten eine E-Mail, die scheinbar von Ihrer Bank, Krankenversicherung oder dem Finanzamt stammt. Sie enthalt Ihren richtigen Namen, manchmal Ihre Adresse oder Vertragsnummer. Die Sprache ist einwandfrei. Die Nachricht fordert Sie auf, auf einen Link zu klicken, um “Ihre Daten zu aktualisieren”, “eine Erstattung zu bestatigen” oder “Ihr Konto zu sichern”.
Wie Sie sie erkennen:
- Prufen Sie die E-Mail-Adresse des Absenders (nicht nur den angezeigten Namen). Eine offizielle Adresse endet mit der Domain der Organisation
- Fahren Sie mit der Maus uber den Link, ohne zu klicken, um die echte URL zu sehen
- Keine offizielle Stelle fragt jemals per E-Mail nach Ihrem Passwort oder Ihren Bankdaten
- Selbst wenn die Nachricht fehlerfrei ist, bleibt eine dringende Handlungsaufforderung das wichtigste Warnsignal
4. Falscher KI-gestutzter “technischer Support”
Der Betrug mit falschem technischen Support ist die dritthaufigste Bedrohung fur Privatpersonen laut Cybermalveillance.gouv.fr. 2025 kam eine neue Dimension hinzu: KI-Chatbots, die ein naturliches Gesprach mit einem Techniker imitieren.
Im Juli 2025 haben Microsoft, Cybermalveillance.gouv.fr und die Pariser Staatsanwaltschaft gemeinsam zur Wachsamkeit gegenuber diesen Betrugsmaschen aufgerufen (Quelle: Microsoft Frankreich, Juli 2025). Eine Ifop-Umfrage fur Microsoft ergab, dass nur 16 % der Senioren angeben, genau zu wissen, was sie bei einem Online-Betrug tun sollen (Quelle: Microsoft/Ifop-Studie, 2025).
Was konkret passiert:
Eine Warnmeldung erscheint auf Ihrem Computerbildschirm: “Virus erkannt! Rufen Sie sofort den technischen Support an unter [Telefonnummer].” Wenn Sie anrufen, antwortet ein KI-Chatbot wie ein echter Techniker, mit flussiger und beruhigender Sprache. Er bittet Sie, eine Fernzugriffs-Software zu installieren, dann ubernimmt ein “Techniker” die Kontrolle uber Ihren Computer. Er simuliert eine Diagnose und berechnet Ihnen 200 bis 500 Euro fur eine fiktive Reparatur.
Erfahrungsbericht: Colette, 74 Jahre, Nantes, Februar 2026: “Auf meinem Computer erschien eine Nachricht, dass meine personlichen Daten gefahrdet seien. Ich rief die Nummer an, und die Person am Telefon klang sehr kompetent. Sie liess mich eine Software installieren und ubernahm 45 Minuten lang die Kontrolle uber meinen Computer. Am Ende forderte sie 350 Euro per Kreditkarte fur die Reparatur. Mein Sohn sagte mir danach, dass es ein klassischer Betrug war, aber in dem Moment wirkte alles echt.” (Quelle: signal-arnaques.com, anonymisierter Erfahrungsbericht)
Wie Sie ihn erkennen:
- Microsoft, Apple und Google zeigen niemals Warnmeldungen mit einer anzurufenden Telefonnummer an
- Ein echter Techniker fordert Sie niemals auf, telefonisch eine Fernsteuerungssoftware zu installieren
- Die Zahlung wird immer sofort verlangt, oft per Kreditkarte oder Prepaid-Gutscheinen
5 Reflexe zum Schutz vor KI-Betrug
1. Vereinbaren Sie ein Familien-Codewort
Wahlen Sie mit Ihren Angehorigen ein Wort oder einen Satz, den nur Sie kennen. Wenn Sie einen dringenden Anruf erhalten, in dem Geld gefordert wird, fragen Sie nach dem Codewort. Wenn die Person es nicht kennt oder ausweicht, legen Sie auf. Dieser einfache Reflex macht Stimmenklonen wirkungslos.
2. Legen Sie immer auf und rufen Sie uber die gewohnte Nummer zuruck
Wenn ein Angehoriger, Ihre Bank oder eine Behorde Sie mit einer dringenden Anfrage kontaktiert, setzen Sie das Gesprach nicht fort. Legen Sie ruhig auf und rufen Sie selbst die Ihnen bekannte Nummer an (aus Ihrem Adressbuch, von der Ruckseite Ihrer Bankkarte, von der offiziellen Webseite). War der Anruf berechtigt, erreichen Sie Ihren Kontakt. War er es nicht, haben Sie den Betrug vermieden.
3. Uberweisen Sie niemals unter Druck
Keine offizielle Stelle, keine Bank, kein Angehoriger in einer echten Situation wird von Ihnen verlangen, innerhalb von Minuten zu handeln, ohne Uberprufungsmoglichkeit. Kunstliche Dringlichkeit ist das wichtigste Werkzeug der Betruger. Wenn jemand eine sofortige Uberweisung fordert, ist das ein Alarmsignal.
4. Prufen Sie E-Mails anhand der Adresse, nicht des Inhalts
Der Inhalt einer betrugerischen E-Mail kann dank KI perfekt sein. Aber die Absenderadresse lasst sich kaum vollstandig falschen. Schauen Sie sich die vollstandige E-Mail-Adresse an (nicht nur den angezeigten Namen) und prufen Sie, ob die Domain zur Organisation passt.
5. Sprechen Sie daruber — ohne Scham
KI-Betrug ist darauf ausgelegt, jeden zu tauschen, einschliesslich Cybersicherheits-Experten. Wenn Sie Zweifel haben, sprechen Sie mit einem Angehorigen, einem Nachbarn oder rufen Sie die Polizei-Beratung an. Nach einem Rat zu fragen ist kein Zeichen von Schwache — es ist der wirksamste Reflex.
Was tun, wenn Sie Opfer geworden sind
Geben Sie sich keine Schuld. Diese Betrugsmaschen werden von professionellen Manipulatoren entwickelt, und die eingesetzte Technologie ist ausserst uberzeugend. Hier sind die notwendigen Schritte:
In den ersten Stunden
- Kontaktieren Sie sofort Ihre Bank, um die Transaktion zu melden und moglichst eine Ruckbuchung zu veranlassen. Lassen Sie Ihre Karte sperren, wenn Sie Bankdaten weitergegeben haben.
- Andern Sie Ihre Passworter, wenn Sie Zugangsdaten weitergegeben oder Fernzugriffs-Software installiert haben.
- Sichern Sie alle Beweise: Telefonnummern, Screenshots, E-Mails, Kontoauszuge.
In den folgenden Tagen
- Erstatten Sie Anzeige bei der Polizei oder online uber die Onlinewache Ihres Bundeslandes.
- Melden Sie den Vorfall bei der Verbraucherzentrale oder beim BSI (Bundesamt fur Sicherheit in der Informationstechnik).
- Melden Sie die Nummer bei der Bundesnetzagentur, wenn der Betrug telefonisch oder per SMS erfolgte.
Nutzliche Kontakte
| Organisation | Kontakt | Zweck |
|---|---|---|
| Polizei | 110 | Anzeige und Beratung |
| BSI | bsi.bund.de | IT-Sicherheit und Pravention |
| Verbraucherzentrale | verbraucherzentrale.de | Beratung und Hilfe |
| Bundesnetzagentur | bundesnetzagentur.de | Rufnummernmissbrauch melden |
| Ihre Bank | Nummer auf der Kartenruckseite | Kartensperrung und Ruckbuchung |
KI steht nicht nur auf der Seite der Betruger
Es ware ungerecht, nur die negative Seite der kunstlichen Intelligenz zu sehen. Behorden und Cybersicherheitsunternehmen nutzen KI ebenfalls, um Betrug schneller zu erkennen. Das Projekt GenFakes des PEReN (Pol d’Expertise de la Regulation Numerique) arbeitet in Partnerschaft mit dem digitalen Innovationslabor der CNIL (LINC) an der automatischen Deepfake-Erkennung und dem digitalen Wasserzeichen authentischer Inhalte (Quelle: CNIL, 2026).
Telefonanbieter setzen ebenfalls KI-Filter ein, um betrugerische Anrufe zu blockieren, bevor sie Sie erreichen. Und Webbrowser integrieren zunehmend automatische Schutzfunktionen gegen Phishing-Seiten.
Diese Entwicklungen sind ermutigend, ersetzen aber nicht Ihre personliche Wachsamkeit. Die in diesem Artikel beschriebenen Reflexe bleiben Ihr bester Schutz.
Fazit: Die Technologie andert sich, die Reflexe bleiben gleich
Die Werkzeuge der Betruger werden ausgefeilter, aber die Manipulationsmechanismen bleiben identisch: Dringlichkeit, Emotionen, Nachahmung einer Autoritat oder eines Angehorigen. Wenn Sie diese Mechanismen kennen, sind Sie bereits gut geschutzt.
Wenn Sie nur drei Dinge behalten:
- Ein Familien-Codewort macht Stimmenklonen wirkungslos
- Auflegen und selbst zuruckrufen vereitelt jeden Identitatsbetrug
- Dringlichkeit ist immer verdachtig, wenn sie von einem Anruf, einer SMS oder einer E-Mail kommt
Und wenn Sie Zweifel haben, sprechen Sie daruber. Rufen Sie die Polizei-Beratung an. Es ist nie zu spat, um Hilfe zu bitten.
Redaktionelle Anmerkung
Herangezogene Quellen: Tatigkeitsbericht 2025 Cybermalveillance.gouv.fr (Marz 2026), Leitfaden “KI-gesteuerte Betrugsmaschen” des franzosischen Innenministeriums (masecurite.interieur.gouv.fr, 2025), CNIL-Erklarung zu Deepfakes (Februar 2026), CNIL-Leitfaden “Deepfakes: Wie Sie sich schutzen” (Februar 2026), Keepnet Labs Phishing-Bericht 2025, Microsoft/Ifop-Studie zu Senioren und falschen technischen Support-Betrugsmaschen (2025), gemeinsame Erklarung Microsoft-Cybermalveillance.gouv.fr-Pariser Staatsanwaltschaft (Juli 2025), NCOA-Leitfaden zu KI-Betrug fur altere Erwachsene (2025), American Bar Association (September 2025), anonymisierte Erfahrungsberichte uber signal-arnaques.com, seneoo.com und Blog economie-numerique.net.
Einschrankungen dieses Artikels: Spezifische Statistiken zu KI-gestutzten Betrugsmaschen gegen Senioren sind noch unvollstandig, da offizielle Berichte nicht systematisch zwischen KI-gesteuerten und herkommlichen Betrugsmaschen unterscheiden. Erfahrungsberichte sind anonymisiert und die angegebenen Betrage konnen nicht unabhangig verifiziert werden. Betrugstechniken entwickeln sich schnell weiter; neue Varianten konnen nach Veroffentlichung dieses Artikels auftreten.
Datum der Uberprufung: 16. April 2026
Interessenkonflikte: keine
Questions fréquentes
-
Bereits 5 bis 10 Sekunden einer Stimmaufnahme (eine WhatsApp-Sprachnachricht, ein Video in sozialen Medien, eine Mailbox-Ansage) genugen, damit eine KI-Software eine Stimme originalgetreu nachbilden kann -- inklusive Tonfall, Rhythmus und sogar Zogern. Diese Werkzeuge sind kostenlos online verfugbar.
-
Stellen Sie eine personliche Frage, die nur Ihr Angehoriger beantworten kann (eine gemeinsame Erinnerung, der Name eines Haustiers). Sie konnen auch im Voraus ein Familien-Codewort vereinbaren. Im Zweifelsfall legen Sie auf und rufen Ihren Angehorigen unter seiner ublichen Nummer zuruck.
-
Ja, auch wenn diese Betrugsmaschen derzeit haufiger Unternehmen betreffen. 2025 verlor ein Hongkonger Unternehmen 25 Millionen Dollar nach einem Videoanruf, bei dem alle Teilnehmer Deepfakes waren. Privatpersonen werden zunehmend durch gefalschte Videoanrufe vermeintlicher Bankberater ins Visier genommen.
-
Kontaktieren Sie sofort Ihre Bank, um eine Ruckbuchung zu veranlassen. Erstatten Sie Anzeige bei der Polizei. Melden Sie den Betrug bei Ihrer nationalen Cybersicherheits-Plattform. Bewahren Sie alle Beweise auf: Telefonnummern, Nachrichten, Kontoauszuge.
-
KI-generierte E-Mails sind uberzeugender, weil sie keine typischen Rechtschreibfehler mehr enthalten und mit echten personlichen Daten personalisiert sind. Aber einige Hinweise bleiben: verdachtige Absenderadresse, dringende Forderung nach Geld oder personlichen Daten, Links zu inoffiziellen Webseiten.