Digitalisierung & Technologie, 7. Mai 2026

Deepfakes – jetzt auch „live“ in virtuellen Meetings

Was technisch schon heute möglich ist

Face Swap Deepfakes

Wenn der Papst plötzlich wie ein Rapper angezogen ist oder Sylvester Stallone überraschend die Rolle von Arnold Schwarzenegger in Terminator 2 übernimmt, ist vielen schnell klar: Das ist ein Deepfake. Bei diesen aufwendig produzierten Täuschungen haben wir zumindest die Zeit ihre Echtheit zu überprüfen. Bei einer neuen Form ist das dagegen kaum möglich: Deepfakes in Video-Calls.

Deepfakes sind beileibe kein neues Phänomen. Es gibt sie schon seit vielen Jahren, doch das Aufkommen verschiedener leistungsstarker KI-Tools hat ihre Verbreitung geradezu explodieren lassen. Plötzlich ist es für jedermann möglich, Bilder und Videos mit beeindruckender Täuschungswirkung zu erstellen. Visuelle Plattformen wie TikTok, Instagram oder Pinterest werden mit KI-Inhalten überschwemmt. Nicht alle wollen bewusst täuschen, doch auch die Zahl der Deepfakes mit unlauteren Absichten steigt.

Gestern noch niedliche Katzengesichter, heute perfekte Täuschung

Wer sicherstellen wollte, nicht getäuscht zu werden, setzte dafür auf virtuelle Meetings. Sich live vor den Kameras der Laptops zu treffen, war so etwas wie ein Safe-Room. Doch auch dabei konnte etwas schieflaufen, wie der Auftritt eines texanischen Rechtsanwalts in einer Zoom-Konferenz offenbarte: Ausgerechnet der Anwalt erschien als niedliche Katze, weil zuvor jemand auf seinem Laptop einen entsprechenden Kamerafilter aktiviert hatte.

Während der Anwalt krampfhaft versuchte, den Filter irgendwie wieder zu deaktivieren, hörte man ihn verzweifelt sagen: „Ich bin keine Katze!“ Zu diesem Zeitpunkt war es allerdings bereits zu spät, denn das Video wurde zu einem gigantischen viralen Hit.

So witzig diese Anekdote auch sein mag, sie erhält heute einen ernsten Hintergrund. Bislang musste sonst kaum jemand seine Identität in virtuellen Meetings bezeugen, doch das könnte sich bald ändern. Ein Video-Call ist im Jahr 2026 kein sicherer Identitätsnachweis mehr – weder privat noch geschäftlich.

Grund dafür sind verschiedene KI-Technologien, die Gesichter und Stimmen in Echtzeit verändern können. Damit ist es möglich, sich auch in Livestreams als eine andere Person auszugeben.

Was technisch schon heute möglich ist

Live‑Face‑Swap: Tools wie „Deep Live Cam“ oder ähnliche Lösungen ersetzen Gesichter in Echtzeit in einem laufenden Videostream, inklusive Mimik und Lippensynchronisation. Das funktioniert mit gängigen Plattformen wie Zoom, Microsoft Teams, Google Meet oder per OBS‑Virtual-Cam auch in jedem beliebigen Videocall.

Live‑Voice‑Cloning: KI‑Modelle können aus wenigen Sekunden Audio eine Stimme klonen und in Echtzeit sprechen lassen. Tonhöhe, Stimmung und Sprache sind beliebig anpassbar.

Komplett gefälschte Personen: Angreifer kombinieren Gesichts- und Stimm-Deepfakes und speisen sie direkt in den Call ein, sodass der Gesprächspartner wie eine reale Führungskraft oder Kollegin wirkt.

Video-Calls als neue Täuschungsfalle

Im Darknet werden bereits ab etwa 30 US-Dollar Echtzeit-Deepfakes für Videokonferenzen angeboten, inklusive Gesichts- und Stimmanpassung. Gleichzeitig existieren Open-Source-Projekte, die technisch versierte Nutzer kostenlos einsetzen können. Die Hürden für den Einsatz von Live-Deepfakes sind also denkbar niedrig. Und sie werden bereits eingesetzt.

In einem früh dokumentierten Fall aus dem Jahr 2024 wurde beispielsweise ein international tätiger Konzern in Hongkong mit einem Deepfake getäuscht. Ein Angestellter überwies mehr als 20 Millionen US‑Dollar, da er in einem Videoanruf glaubte, seinen Vorgesetzten zu sehen und zu hören. Dabei ist nicht vollends geklärt, ob es sich bereits um einen Live-Deepfake handelte oder lediglich die Stimmen geklont wurden.

Seit diesem frühen Fall hat sich die KI-Technologie jedoch rasant weiterentwickelt. Komplett gefälschte Personen sind mit überschaubarem Aufwand und mit geringen Kosten möglich geworden. Es ist daher kaum überraschend, dass es nicht bei Live-Deepfakes für Zahlungsanweisungen, auch „CEO-Fraud“ genannt, geblieben ist.

Cyberkriminelle nutzen sie auch, um an sensible Informationen zu gelangen oder um Video-Ident-Vorgänge oder biometrische Authentifizierungen zu umgehen. Allein hier lauern sehr viele verschiedene Möglichkeiten für Betrugsmaschen. Nicht unerwähnt bleiben soll an dieser Stelle das Live-Deepfake-Update für den Enkeltrick. Gerade ältere Menschen, die in Echtzeit unter Druck gesetzt werden, könnten durch täuschend echte Imitationen leicht zu Opfern von Kriminellen werden.

Wie lassen sich Live-Deepfakes erkennen?

Die Frage ist: Wie können wir uns vor dieser neuen digitalen Täuschungsfalle verlässlich schützen? Aktuell muss man klar sagen: Es gibt keinen verlässlichen Schutz vor Live-Deepfakes! Daher ist es umso wichtiger, über dieses Thema offen zu sprechen und so auf die Gefahr aufmerksam zu machen.

Ob es in Zukunft einen verlässlichen Schutz geben wird, ist noch nicht absehbar. Es gibt zwar einige technologische Ansätze, doch auch die Deepfake-Anwendungen entwickeln sich laufend weiter. Daher hier einige Tipps, mit denen sich virtuelle Täuschungen in Livestreams eventuell entlarven lassen.

  • Visuelle Unstimmigkeiten: Solche visuellen Fehler und Überlagerungen kennen wir, wenn jemand in einem Live-Call einen virtuellen Hintergrund verwendet. Solche Fehler können auch auf dem Gesicht von Live-Deepfakes vorkommen.
    Tipp: Wenn das virtuelle Set-up (Kopfhörer, Hintergrund etc.) plötzlich ganz anders als gewohnt ist, sollte man freundlich nach dem Grund dafür fragen.
  • Mimik: Auch die Mimik kann seltsam wirken, wenn sie nicht ganz zur Emotion passt oder sich die Person anders als gewöhnlich verhält.
    Tipp: Auch hier ist Nachfragen eine sinnvolle Option, die entweder empathisch oder entlarvend wirkt.
  • Audio‑Unstimmigkeiten: Wenn sich die Stimme zu glatt anhört, etwas metallisch klingt und Hintergrund- und Nebengeräusche (wie Atmung) komplett fehlen, ist Vorsicht geboten.
    Tipp: Live-Deepfaker werden sich bemühen, möglichst wenig zu sprechen, um nicht aufzufallen.
  • Kontext‑Warnzeichen: Kommt es zu ungewöhnlichen Abweichungen von üblichen Prozessen, wird zusätzlicher Zeitdruck aufgebaut oder sind starke Emotionen im Spiel, kann das ebenfalls auf einen Täuschungsversuch hinweisen.
    Tipp: Wenn keine plausible Erklärung für zeitlichen Druck oder Abweichungen von Prozessen gegeben wird, sollte der Anruf abgebrochen werden. Anschließend kann ein anderer Kommunikationskanal zur Überprüfung genutzt werden. Auch ein klassischer Anruf während des Meetings kann hilfreich sein.
     

Schlusswort: Vertrauen braucht klare Regeln

An vielen Stellen zeigen sich aktuell Risse in der digitalen Welt: Was ist noch echt, wem können wir noch vertrauen? Für Unternehmen und Organisationen ist das eine Entwicklung, die sie nicht ignorieren dürfen. Sie sollten eine Unternehmenskultur aufbauen, die auf Vertrauen basiert, aber auch klare Regeln nennt, um Live-Deepfakes zumindest zu erschweren. Und nach außen gerichtet geht es besonders beim Einsatz von KI um Transparenz und Klarheit, ansonsten steht das Vertrauen der Kundinnen und Kunden auf dem Spiel.

Text: Falk Hedemann


Ihre Meinung
Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: radar@ergo.de


Weitere Magazin-Beiträge