Die Bedrohungslage im digitalen Raum verändert sich rasant – und Künstliche Intelligenz spielt dabei eine zentrale Rolle. Während KI-Systeme wie ChatGPT, Bard oder Claude in Unternehmen und im Alltag längst etabliert sind, nutzen auch Cyberkriminelle diese Technologien für ihre Zwecke. Eine aktuelle Analyse von Microsofts Threat Intelligence Team zeigt, wie Angreifer KI einsetzen, um Phishing-Kampagnen zu tarnen und Sicherheitsmechanismen gezielt zu umgehen.
Besonders alarmierend: Die Angriffe basieren auf einem kompromittierten E-Mail-Konto eines kleinen Unternehmens. Von dort aus wurden täuschend echt gestaltete Nachrichten versendet, die angeblich von einem bekannten Filesharing-Dienst stammten. Der enthaltene Anhang – eine vermeintliche Dokumentdatei – führte die Empfänger auf eine gefälschte Webseite, die zur Abfrage von Zugangsdaten diente.
Laut Dr. Martin Krämer, Security Awareness Advocate bei KnowBe4, war die Raffinesse der Angreifer besonders hoch. Sie nutzten eine sogenannte „self-addressed“-Taktik: Absender- und Empfängeradresse waren identisch, während die tatsächlichen Zieladressen im BCC-Feld versteckt blieben. Diese Methode erschwert die Erkennung durch klassische Spamfilter erheblich.
Noch raffinierter war die Tarnung des Schadcodes. Statt in einer ausführbaren Datei war der Code in einer SVG-Datei versteckt – einem Format, das eigentlich für skalierbare Vektorgrafiken gedacht ist. SVGs basieren auf XML und können Skripte enthalten, was sie zu einem idealen Träger für Schadsoftware macht. Laut Cybersec Sentinel werden SVG-Dateien zunehmend als Einfallstor für Malware genutzt, da sie herkömmliche Filter umgehen können.
Die Analyse des Codes ergab eine sogenannte „synthetische Struktur“: Der Schadcode war ungewöhnlich umfangreich, inhaltlich sinnlos und gespickt mit Begriffen aus der Geschäftswelt. Ziel war es, Legitimität vorzutäuschen und automatisierte Prüfmechanismen zu überlisten. Microsoft betont, dass dieser Code „nichts ist, was ein Mensch typischerweise von Grund auf schreiben würde“ – zu komplex, zu ausschweifend, ohne praktischen Nutzen.
Damit zeigt sich eine neue Dimension der Bedrohung: Große Sprachmodelle (LLMs) wie ChatGPT können nicht nur zur Textproduktion, sondern auch zur Tarnung von Schadsoftware missbraucht werden. Die KI generiert Inhalte, die menschlich wirken, aber gezielt Sicherheitsmechanismen umgehen.
Für Unternehmen und Privatpersonen bedeutet diese Entwicklung: Wachsamkeit ist wichtiger denn je. Schulungen zur Erkennung von Phishing, wie sie KnowBe4 anbietet, sind ein zentraler Baustein der Prävention. Auch technische Maßnahmen wie die Filterung von SVG-Dateien oder die Analyse synthetischer Strukturen sollten in Betracht gezogen werden.
Die vollständige Analyse der Microsoft-Kampagne finden Sie unter ots.de/RRDoWV
Schreibe einen Kommentar