Securam Consulting Logo

Das große IT-Security-Glossar

Definition:

Evasion Attacks


Was sind Evasion Attacks?

Evasion Attacks sind eine Klasse von Angriffen auf Machine-Learning-Modelle – insbesondere im Kontext von klassifikationsbasierten Sicherheitssystemen wie Malware-Detektoren, Spamfiltern oder Intrusion Detection Systems (IDS). Ziel eines Evasion Attacks ist es, eine bösartige Eingabe gezielt so zu verändern, dass sie vom Modell fälschlich als harmlos eingestuft wird – ohne die bösartige Funktionalität zu verlieren.

Im Gegensatz zu Data Poisoning (Angriff auf das Training) oder Backdoor Attacks (Manipulation mit Triggern), erfolgt ein Evasion Attack in der Inferenzphase (Modell-Nutzung). Oft kommen Adversarial Techniques zum Einsatz, um durch minimale Änderungen ein anderes Vorhersageverhalten zu erzwingen.


Wichtige Evasion-Attack-Ressourcen

  • Adversarial Examples
    → Modifizierte Eingaben, die gezielt eine Fehlklassifikation des Modells verursachen.
  • Gradient-Based Evasion
    → Nutzung von Modell-Gradienten zur gezielten Anpassung von Eingabedaten, z. B. mit FGSM oder PGD.
  • Feature Manipulation
    → Veränderung einzelner Merkmale (Features) einer Eingabe, um unter die Detektionsschwelle zu fallen.
  • Surrogate Models
    → Nachbildung des Zielmodells zur Vorbereitung und Optimierung des Evasion-Angriffs in Black-Box-Szenarien.
  • Obfuskationstechniken (z. B. bei Malware)
    → Kodierung, Packing oder Permutationen, um bösartige Muster zu verschleiern.

Anwendung in der Praxis

  • Malware Detection: Angreifer verändern schädlichen Code minimal (z. B. durch No-Op-Instruktionen), um der Klassifikation als Malware zu entgehen.
  • Spamfilter: E-Mails werden durch absichtliche Schreibfehler oder Formatierungsmanipulationen unentdeckt weitergeleitet.
  • IDS/IPS-Systeme: Netzwerkpakete werden fragmentiert oder verschlüsselt übermittelt, um Signaturregeln zu umgehen.
  • Bildklassifikation: Visuelle Merkmale eines verbotenen Objekts (z. B. Waffe) werden so angepasst, dass sie als neutral eingestuft werden.
  • Verteidigungsstrategien: Robustheits-Training, Feature-Schutz, Ensemble-Modelle und Anomalieerkennung.

Verwandte Begriffe

  • Adversarial Examples
  • Detection & Response
  • Data Poisoning
  • Artificial Intelligence
  • Model Robustness

Beispiel aus der Praxis

Ein Machine-Learning-Modell klassifiziert Dateien in einem E-Mail-Anhang als sicher oder gefährlich. Ein Angreifer nutzt ein Tool, das gezielt Byte-Fragmente und Header-Informationen der Malware-Datei manipuliert – ohne die eigentliche Payload zu verändern. Das Modell erkennt die Datei nicht mehr als schädlich, obwohl sie bei Ausführung identisches Verhalten zeigt. Nach der Analyse des Vorfalls wird das Modell durch adversarial-robuste Klassifikationstechniken und Whitelist-basiertes Hashing ergänzt.