Digitalisierung & Technologie, 18. März 2026

Realität oder Fälschung?

Wie Deepfakes unsere Wahrnehmung täglich auf die Probe stellen

ERGO Expertin Anna Kessler

Deepfakes begegnen uns mittlerweile fast täglich in sozialen Netzwerken wie TikTok, Instagram und YouTube sowie über E-Mail und Messenger-Dienste. Wir werden mit Fake-Schlagzeilen, Phishing-Nachrichten, nachgeahmten Stimmen und täuschend echten Fotos oder Videos konfrontiert, beruflich wie auch privat. Ein Überblick von ERGO Expertin Anna Kessler.

Besorgniserregend ist, dass wir diese Inhalte oft nicht sofort oder sogar gar nicht als unecht erkennen. Laut einer aktuellen Statistik der Cybersecurity-Firma Deepstrike liegt die menschliche Erkennungsrate von hochwertigen KI-generierten Videos bei nur 24,5 Prozent.

Diese Technologien eröffnen neue Möglichkeiten, stellen jedoch auch eine ernsthafte Bedrohung dar. Die Zahl der Cyber-Angriffe und Betrugsversuche mit Deepfakes wächst exponentiell und gefährdet weltweit alle Branchen, insbesondere die Finanzindustrie. Dank der rasanten Entwicklung von KI-Technologien können Deepfakes heute mit wenigen Trainingsdaten kostengünstig und schnell erstellt sowie direkt in Medien mit großer Reichweite eingesetzt werden.

Wie werden Deepfakes definiert?

Der Begriff „Deepfakes“ setzt sich aus „Deep Learning“ und „Fake“ zusammen und verweist damit auf die zugrundeliegenden KI-Technologien. Mithilfe von Deep Machine Learning-Modellen werden synthetische Medien erstellt, die täuschend echt wirken. Laut dem Bundesministerium für Sicherheit in der Informationstechnik (BSI) lassen sich Deepfakes in drei Kategorien unterteilen: Video/Bild, Audio und Text.

1. Video/Bild

In den letzten Jahren wurden mehrere KI-basierte Verfahren zur Manipulation von Gesichtern entwickelt. Eine Methode ist das „Face Swapping“, bei dem ein Bild mit dem Gesicht einer Person so verändert wird, dass es wie das Gesicht einer anderen Person aussieht. Ursprüngliche Mimik, Beleuchtung und Blickrichtung bleiben erhalten. Eine kleine Menge hochqualitativen Bildmaterials genügt, um die sogenannten Auto-encoder-Modelle zu trainieren, die Gesichtsmerkmale präzise analysieren und oft sogar in Echtzeit in hochauflösender Qualität nachbilden können.

Ein weiteres Verfahren ist das „Face Reenactment“, bei dem die Mimik und Bewegungen einer Person so verändert werden, dass sie Aussagen tätigt oder Verhaltensweisen zeigt, die nicht der Realität entsprechen. Hierzu wird ein 3D-Modell der Zielperson aus einem Videostream erstellt, das in Kombination mit dem Videostream eines Manipulators in Echtzeit täuschend echte Gesichtsausdrücke erzeugt. Werden mit einem dieser Verfahren synthetische Personen geschaffen, die in der Realität nicht existieren, spricht man von „(Pseudo-)Identitäten“ (Quelle: BSI).

2. Audio

Die Erstellung manipulierter Stimmen erfolgt laut BSI häufig durch die Verfahren „Text-to-Speech (TTS)“ oder „Voice Conversion (VC)“. Bei TTS wird ein Text in ein Audio-Signal umgewandelt, um denselben Inhalt mit der künstlichen Stimme einer Zielperson wiederzugeben. Im Gegensatz dazu ersetzt die Voice-Conversion Technik ein reales Audio-Signal in Echtzeit durch eine künstlich erzeugte Stimme. Für den Zuhörer klingt es damit so, als würde die Zielperson tatsächlich sprechen.

3. Text

Mit Large Language Models können in kürzester Zeit lange, zusammen-hängende Texte verfasst oder plausibel fortgesetzt werden, die im Schreibstil perfekt auf die Zielgruppe und den jeweiligen Kontext angepasst sind. Insbesondere die Fälschung von Gesichtern und Stimmen birgt eine wachsende Gefahr für Privatpersonen und Organisatoren. Dies zeigt sich in Form von Daten-Phishing, Desinformationskampagnen sowie in der Überlistung biometrischer Systeme, die beispielsweise bei der Fern-identifikation verwendet werden. (Quelle: BSI).

An KI führt heutzutage kein Weg mehr vorbei. Die Technologie ist gekommen, um zu bleiben. Umso wichtiger ist es, dass wir frühzeitig lernen, effektiv und verantwortungsbewusst mit ihr zu leben und zu arbeiten.

Anna Kessler, Head of Innovation Consulting & Delivery bei der ERGO Group AG

Wie ernst ist die Bedrohungslage durch Deepfakes? Zahlen, Daten, Fakten im Überblick

Eine Cyber Security Studie von PwC zeigt, dass in den vergangenen drei Jahren bereits rund 90% der Unternehmen in Deutschland Ziel von Datenangriffen geworden sind (global 82%). Dabei erlitten knapp die Hälfte der Unternehmen finanzielle Schäden bis zu 1 Mio. US-Dollar.

Bereits 2024 haben weltweit etwa die Hälfte aller Unternehmen Betrugs-fälle mit sowohl Audio- als auch Video Deepfakes gemeldet. Häufig wer-den verschiedene Deepfake-Techniken auch kombiniert, wie beispiels-weise der Angriff auf das britische Ingenieurunternehmen Arup zeigt (siehe Abbildung). Identitätsmissbrauch gilt dabei als vorherrschende Bedrohung mit besonders auffällig hohen Zahlen in Deutschland, Mexiko und UAE (Quelle: Regula). In absoluten Zahlen stieg die Anzahl verbreiteter Deepfakes von ca. 500.000 im Jahr 2023 auf prognostizierte 8 Mio. im Jahr 2025 (Quelle: Deepstrike). Die Finanzbranche ist dabei besonders anfällig für finanzielle Verluste durch Deepfakes und Desinformation, da sie stark von digitalen Transaktionen mit Geldsummen abhängt und das Risiko eines Vertrauensverlustes erheblich ist. Aber auch andere Branchen, wie Medien und Telekommunikation sind häufig betroffen.

In der Versicherungsbranche werden Deepfakes neben gezielten An-griffen auf die IT- und Dateninfrastruktur auch zunehmend genutzt, um für gefälschte Schadens- oder Leistungsansprüche realistische Bilder und Dokumente zu erstellen oder um mit manipulierten Stimmproben oder Identitäten Kundenidentifikationssysteme zu überlisten. Laut eines Reports der Swiss Re nehmen auch Rechtsstreitigkeiten und Haftungs-ansprüche deutlich zu, da Versicherungsnehmer vermehrt Opfer von Deepfake-Betrügen werden. Schätzungsweise liegen die Schäden durch Versicherungsbetrug mit Deepfakes weltweit bereits über 120 Mrd. US-Dollar jährlich (Quelle: Computerweekly).

Wie können Organisationen sich schützen?

Die regulatorische Grundlage bietet u.a. der seit August 2024 schrittweise eingeführte EU AI Act, der Organisationen dazu verpflichtet, KI-generierte und genutzte synthetische Inhalte in einem maschinenlesbaren Format als künstlich oder manipuliert zu kennzeichnen (Quelle: EU AI Act).

Zur Sicherstellung der Authentizität und Integrität synthetischer Medien werden kryptografische Verfahren genutzt, um die Quelle des Materials eindeutig an eine Identität zu binden. Aktuelle Verfahren konzentrieren sich darauf, digitale Signaturen im Bild- oder Ton-Aufnahmeprozess zu verwenden, um nachträgliche unerwünschte Änderungen zu verhindern. Sogenannte „Poisoning-Angriffe“ dienen dazu, Manipulationen in Trainingsdaten systematisch abzuwehren (Quelle: BSI). Gerade mit Blick auf rechtssichere digitale Signaturen rückt auch die für 2027 geplante Einführung der EUDI-Wallet zur europaweiten sicheren Identifikation per Smartphone stark in den Fokus.

Deep Machine Learning-Modelle kommen auch zum Einsatz, um Anomalien und manipulierte Medien mithilfe von Deepfake-Trainings-daten und systemische Schwachstellen frühzeitig zu erkennen und proaktive Schutzmechanismen zu entwickeln (Quelle: Fraunhofer AISEC). Umfassende Mitarbeiter-Schulungsmaßnahmen sowie Deepfake-Simulationen sind dabei ebenso wichtig wie vorausschauende Analyse-Tools, Echtzeit-Reporting und schnelle Reaktionsmechanismen.

Wo entstehen auch neue Chancen?

Sowohl im privaten als auch beruflichen Umfeld ist es essenziell, sich aktiv mit der Bedrohungslage durch Deepfakes auseinanderzusetzen. Dennoch sollten wir die positiven Aspekte des rasanten Technologiefortschritts nicht außer Acht lassen. KI-Technologien haben bereits in vielen Unter-nehmen deutliche Effizienzgewinne erzielt, sei es durch Prozessautomatisierung, KI-Agenten als virtuelle Mitarbeiter oder Alltagshelfer wie z.B. ERGOGPT. Kommunikations- und Marketingabteilungen arbeiten zunehmend mit generativer KI und können so schneller auf aktuelle Entwicklungen reagieren.

Neue Marktchancen gibt es auch im Produktmanagement, wo beispiels-weise neue Cyberversicherungs-Produkte entwickelt werden. Chat-, Voice-Bots sowie KI-Avatare revolutionieren die Kundeninteraktion, indem sie 24/7 einen schnellen Zugang zu Produkt- und Servicewelten bieten. Initiativen wie die EUDI-Wallet schaffen auf europäischer Ebene die Grundlage für ein weiteres Wachstum digitaler Transkationen und einen besseren Schutz unserer digitalen Identität. An KI führt heutzutage kein Weg mehr vorbei. Die Technologie ist gekommen, um zu bleiben. Umso wichtiger ist es, dass wir frühzeitig lernen, effektiv und verantwortungsbewusst mit ihr zu leben und zu arbeiten.

Text: Anna Kessler


Ihre Meinung
Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: radar@ergo.de


Weitere Magazin-Beiträge