Securam Consulting Logo

Das große IT-Security-Glossar

Definition:

Deep Fakes


Was sind Deep Fakes?

Deep Fakes sind künstlich erzeugte oder manipulierte audiovisuelle Inhalte, die mithilfe von Künstlicher Intelligenz (KI), insbesondere Deep Learning, so realistisch erscheinen, dass sie für echte Aufnahmen gehalten werden können. Sie werden vor allem durch Generative Adversarial Networks (GANs) oder Transformer-basierte Modelle erstellt.

Typische Deep Fakes imitieren Gesichter, Stimmen oder Bewegungen von realen Personen und können in Form von Videos, Audio oder Bildern vorliegen. Aufgrund ihres täuschend echten Charakters stellen Deep Fakes eine erhebliche Gefahr für Informationssicherheit, Meinungsbildung und digitale Authentizität dar.


Wichtige Deep-Fake-Ressourcen

  • Generative Adversarial Networks (GANs)
    → Modellarchitektur zur Erzeugung realistischer Fake-Bilder oder ‑Videos.
  • Face Swapping & Lip Syncing
    → Techniken, um das Gesicht einer Person oder gesprochene Inhalte täuschend echt zu manipulieren.
  • Voice Cloning
    → Audio-Deep Fakes basierend auf wenigen Sekunden Originalstimme.
  • Deep Fake Detection Tools
    → Werkzeuge zur Identifizierung von Manipulationen (z. B. Deepware Scanner, Microsoft’s Video Authenticator).
  • Digital Watermarking & Provenance-Standards
    → Maßnahmen zur Nachverfolgbarkeit und Verifikation digitaler Inhalte (z. B. C2PA).

Anwendung in der Praxis

  • Cybercrime & Social Engineering: Einsatz von Deep Fakes in CEO-Fraud, Fake-Identitätsbetrug oder Fake-Videoanrufen.
  • Desinformation & Propaganda: Politische Manipulation durch täuschend echte Aussagen von Politikern oder Prominenten.
  • Identitätsdiebstahl: Missbrauch biometrischer Merkmale (z. B. Gesichtserkennung umgehen mit Video-Fälschung).
  • Forschung & Sicherheit: Entwicklung von Erkennungstechniken, Richtlinien und gesetzlichen Regulierungen.
  • Legitime Nutzung: In der Filmproduktion, Simulationstrainings oder Barrierefreiheit (z. B. Deep-Fake-Dubbing).

Verwandte Begriffe


Beispiel aus der Praxis

Ein Finanzunternehmen wird Opfer eines Social-Engineering-Angriffs, bei dem ein Mitarbeiter per Videocall von einem angeblich hochrangigen Vorstand angewiesen wird, eine Sofortüberweisung durchzuführen. Später stellt sich heraus: Das Gesicht und die Stimme des „Vorstands“ wurden mithilfe eines Deep-Fake-Videos erzeugt. Nach dem Vorfall werden Schulungen zur Deep-Fake-Erkennung sowie technische Authentifizierungsverfahren wie biometrisches Liveness-Checking eingeführt.