Video-Calls als neue Täuschungsfalle
Im Darknet werden bereits ab etwa 30 US-Dollar Echtzeit-Deepfakes für Videokonferenzen angeboten, inklusive Gesichts- und Stimmanpassung. Gleichzeitig existieren Open-Source-Projekte, die technisch versierte Nutzer kostenlos einsetzen können. Die Hürden für den Einsatz von Live-Deepfakes sind also denkbar niedrig. Und sie werden bereits eingesetzt.
In einem früh dokumentierten Fall aus dem Jahr 2024 wurde beispielsweise ein international tätiger Konzern in Hongkong mit einem Deepfake getäuscht. Ein Angestellter überwies mehr als 20 Millionen US‑Dollar, da er in einem Videoanruf glaubte, seinen Vorgesetzten zu sehen und zu hören. Dabei ist nicht vollends geklärt, ob es sich bereits um einen Live-Deepfake handelte oder lediglich die Stimmen geklont wurden.
Seit diesem frühen Fall hat sich die KI-Technologie jedoch rasant weiterentwickelt. Komplett gefälschte Personen sind mit überschaubarem Aufwand und mit geringen Kosten möglich geworden. Es ist daher kaum überraschend, dass es nicht bei Live-Deepfakes für Zahlungsanweisungen, auch „CEO-Fraud“ genannt, geblieben ist.
Cyberkriminelle nutzen sie auch, um an sensible Informationen zu gelangen oder um Video-Ident-Vorgänge oder biometrische Authentifizierungen zu umgehen. Allein hier lauern sehr viele verschiedene Möglichkeiten für Betrugsmaschen. Nicht unerwähnt bleiben soll an dieser Stelle das Live-Deepfake-Update für den Enkeltrick. Gerade ältere Menschen, die in Echtzeit unter Druck gesetzt werden, könnten durch täuschend echte Imitationen leicht zu Opfern von Kriminellen werden.
Wie lassen sich Live-Deepfakes erkennen?
Die Frage ist: Wie können wir uns vor dieser neuen digitalen Täuschungsfalle verlässlich schützen? Aktuell muss man klar sagen: Es gibt keinen verlässlichen Schutz vor Live-Deepfakes! Daher ist es umso wichtiger, über dieses Thema offen zu sprechen und so auf die Gefahr aufmerksam zu machen.
Ob es in Zukunft einen verlässlichen Schutz geben wird, ist noch nicht absehbar. Es gibt zwar einige technologische Ansätze, doch auch die Deepfake-Anwendungen entwickeln sich laufend weiter. Daher hier einige Tipps, mit denen sich virtuelle Täuschungen in Livestreams eventuell entlarven lassen.
- Visuelle Unstimmigkeiten: Solche visuellen Fehler und Überlagerungen kennen wir, wenn jemand in einem Live-Call einen virtuellen Hintergrund verwendet. Solche Fehler können auch auf dem Gesicht von Live-Deepfakes vorkommen.
Tipp: Wenn das virtuelle Set-up (Kopfhörer, Hintergrund etc.) plötzlich ganz anders als gewohnt ist, sollte man freundlich nach dem Grund dafür fragen.
- Mimik: Auch die Mimik kann seltsam wirken, wenn sie nicht ganz zur Emotion passt oder sich die Person anders als gewöhnlich verhält.
Tipp: Auch hier ist Nachfragen eine sinnvolle Option, die entweder empathisch oder entlarvend wirkt.
- Audio‑Unstimmigkeiten: Wenn sich die Stimme zu glatt anhört, etwas metallisch klingt und Hintergrund- und Nebengeräusche (wie Atmung) komplett fehlen, ist Vorsicht geboten.
Tipp: Live-Deepfaker werden sich bemühen, möglichst wenig zu sprechen, um nicht aufzufallen.
- Kontext‑Warnzeichen: Kommt es zu ungewöhnlichen Abweichungen von üblichen Prozessen, wird zusätzlicher Zeitdruck aufgebaut oder sind starke Emotionen im Spiel, kann das ebenfalls auf einen Täuschungsversuch hinweisen.
Tipp: Wenn keine plausible Erklärung für zeitlichen Druck oder Abweichungen von Prozessen gegeben wird, sollte der Anruf abgebrochen werden. Anschließend kann ein anderer Kommunikationskanal zur Überprüfung genutzt werden. Auch ein klassischer Anruf während des Meetings kann hilfreich sein.
Schlusswort: Vertrauen braucht klare Regeln
An vielen Stellen zeigen sich aktuell Risse in der digitalen Welt: Was ist noch echt, wem können wir noch vertrauen? Für Unternehmen und Organisationen ist das eine Entwicklung, die sie nicht ignorieren dürfen. Sie sollten eine Unternehmenskultur aufbauen, die auf Vertrauen basiert, aber auch klare Regeln nennt, um Live-Deepfakes zumindest zu erschweren. Und nach außen gerichtet geht es besonders beim Einsatz von KI um Transparenz und Klarheit, ansonsten steht das Vertrauen der Kundinnen und Kunden auf dem Spiel.
Text: Falk Hedemann