Was versteht man unter Deep Fake?


Cybersecurity

Digitalisierung & Technologie, 16.10.2023

Deep Fakes sind eine ernsthafte Bedrohung für die Gesellschaft und für Unternehmen. Auf //next haben wir die Gefahren schon häufiger thematisiert. Um diesen entgegenzuwirken, seien Awareness-Maßnahmen, technologische Lösungen, strenge Gesetze und die Förderung von Medienkompetenz erforderlich, sagt Sima Krause aus dem Information Security Team von ERGO.

Frau mit Lupe 

Als Deep Fake wird eine Technologie bezeichnet, die es ermöglicht, digitale Medieninhalte wie Videos, Bilder und Audioaufnahmen so zu manipulieren, dass sie echt erscheinen, obwohl sie in Wirklichkeit gefälscht sind.

Der Begriff „Deep Fake“ leitet sich von „Deep Learning“ (Tiefes Lernen) und „Fake“ (Fälschung) ab und bezieht sich auf die Verwendung von künstlicher Intelligenz, um manipulierte Inhalte zu erstellen.

Anwendungsgebiete von Deep Fake

Die Technologie basiert auf generativen neuronalen Netzwerken (GANs), die in der Lage sind, bestimmte Muster und Merkmale in Daten zu erkennen und zu reproduzieren. Im Fall von Deep Fakes werden GANs verwendet, um das Aussehen von Gesichtern in Videos zu verändern, die Stimmen von Personen zu imitieren oder sogar komplett gefälschte Inhalte zu erstellen.

Gängige Anwendungen von Deep Fakes sind

  • Gesichtstausch, 
  • Stimmenimitation,
  • Erstellung von Fake-Videos,
  • Digitale Kunst und Effekte.
 

Deep Fakes können zur Verbreitung von Fehlinformationen, zur Verletzung der Privatsphäre Einzelner, zur Erzeugung gefälschter Nachrichten und zu anderen bösartigen Zwecken missbraucht werden. Daher ist es wichtig, dass man auf die Gefahren von Deep Fake aufmerksam macht und Techniken zur Erkennung und Bekämpfung solcher Inhalte nutzt.

Gefahren von Deep Fakes

  1. Desinformation und Manipulation:
    Eine der offensichtlichsten Gefahren von Deep Fakes ist die Verbreitung von Fehlinformationen und Manipulation. Politiker und Politikerinnen, Prominente und andere einflussreiche Personen können leicht Ziel von Deep-Fake-Angriffen werden, bei denen sie in scheinbar echten, skandalösen oder diffamierenden Situationen gezeigt werden. Dies kann das Vertrauen der Öffentlichkeit in die Wahrheit und die Integrität von Medien und Nachrichten untergraben.
  2. Fake News:
    Deep Fakes sind eine potenzielle Waffe in der Verbreitung von Fake News. Indem sie glaubwürdige Gesichter und Stimmen verwenden, können sie falsche Geschichten und Ereignisse glaubhaft darstellen und so die Öffentlichkeit in die Irre führen. Dies kann erhebliche Auswirkungen auf die politische Stabilität und die soziale Ordnung haben.
  3. Verletzungen der Privatsphäre:
    Die Technologie hinter Deep Fakes ermöglicht es, Menschen in intimen oder kompromittierenden Situationen darzustellen, ohne dass diese jemals dort gewesen sind. Dies stellt eine erhebliche Verletzung der Privatsphäre dar und kann das Leben der Betroffenen nachhaltig beeinflussen.
  4. Betrug und Identitätsdiebstahl:
    Deep Fakes können für betrügerische Zwecke eingesetzt werden. Cyber-Kriminelle könnten gefälschte Videos oder Audioaufnahmen verwenden, um sich als jemand anderes auszugeben und Zugang zu sensiblen Informationen zu erlangen oder finanzielle Schäden anzurichten.
  5. Politische Instabilität:
    Deep Fakes könnten auch politische Instabilität verstärken, da sie dazu verwendet werden können, politische Führer zu diskreditieren und die öffentliche Meinung zu beeinflussen. Dies könnte zu Spannungen und Konflikten führen.
  6. Verlust von Vertrauen:
    Die Verbreitung von Deep Fakes kann das Vertrauen in Medien und digitale Inhalte erheblich untergraben. Menschen könnten skeptisch gegenüber allem werden, was sie online sehen und hören, was die Kommunikation und den Informationsaustausch erschwert. 

Weitere Informationen zu Deep Fakes

Informationsvideo des BSI:

https://www.youtube.com/watch?v=JEa4VPskOn0

Ein Beispiel für ein Deep Fake Video:

https://youtu.be/cQ54GDm1eL0

Mehr zum Thema auf //next

Deep Fakes: Mein digitaler Zwilling hält gerade meine Rede 

https://next.ergo.com/de/KI-Robotics/2022/Deepfake-Avatar-Deep-Fake-Digitaler-Zwilling-Mark-Klein.html

Deep Fake? Das Potenzial von synthetischen Medien

https://next.ergo.com/de/KI-Robotics/2021/Synthetische-Medien-Deep-Fake-Computer-Vision-Machine-Learning-GAN.html

Ihre Meinung

Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: next@ergo.de

Ähnliche Beiträge

Digitalisierung & Technologie 09.02.2022

Wie KI zu mehr Sicherheit verhelfen kann

Wie angreifbar IT-Systeme immer wieder sind, hat sich erst kürzlich gezeigt, als die Log4j-Lücke Mitte Dezember die Welt in Atem gehalten hat. Kann Künstliche Intelligenz (KI) im Bereich Cyber-Security künftig verstärkt unterstützen? Mehr dazu erzählt Cyber-Experte Marc Wilczek, Geschäftsführer bei Link11, im Interview.

Digitalisierung & Technologie 30.10.2023

Wie können wir KI-generierte Inhalte erkennen?

Im Zeitalter künstlicher Intelligenz sehen wir uns mit einer wachsenden Herausforderung konfrontiert: Wie unterscheiden wir Wahrheit von Fiktion, wenn Maschinen Inhalte erzeugen, die die Grenze zwischen Realität und Fälschung verschwimmen lassen?

Digitalisierung & Technologie 18.01.2023

Können wir künstlicher Intelligenz vertrauen?

Vor gut einem Jahr wurde in Berlin das Zentrum für vertrauenswürdige Künstliche Intelligenz (ZVKI) gegründet. Im Mittelpunkt seiner Arbeit steht der Schutz von Verbraucherinnen und Verbrauchern: Wie lässt sich sicherstellen, dass KI-Lösungen vertrauenswürdig sind? Wie lassen sich faire, verlässliche und transparente KI-Systeme erkennen und fördern? Die ZVKI-Mitarbeiterinnen Jaana Müller-Brehm (links) und Verena Till geben Antworten.