
Wenn in einem Unternehmen Ransomware entdeckt wird, geschieht das fast immer dort, wo der Schaden zuerst sichtbar wird: auf einem Fileserver, einem Terminalserver oder einem kritischen Fachsystem, das plötzlich nur noch verschlüsselte Daten enthält. In vielen Response‑Szenarien wird diese Maschine reflexartig als „Patient Zero“ behandelt und rigoros isoliert. Das klingt logisch, ist aber in den meisten Fällen nur teilweise hilfreich: Die Verschlüsselung ist meist der letzte Schritt einer bereits länger laufenden Kompromittierung.
Angreifende bewegen sich in der Regel zunächst lateral im Netzwerk, sammeln Berechtigungen, testen Zugriffspfade und bereiten ihre eigentliche Verschlüsselungsaktion strukturiert vor. Das bedeutet: Der wahre Spreader sitzt oft ganz woanders – zum Beispiel auf einem kompromittierten Administrationsaccount, einem unauffälligen Management‑Server oder einem Client mit hohen Rechten, der als Sprungbrett dient. Der sichtbare „Brandherd“ ist daher eher ein Symptom als die Ursache.
Natürlich ist es richtig und notwendig, ein verschlüsseltes System möglichst schnell vom Netz zu trennen. Ohne diese Maßnahme könnten laufende Verschlüsselungsprozesse weitere Shares, verbundene Laufwerke oder angebundene Systeme erfassen. Problematisch wird es aber, wenn die Incident‑Response sich damit zufriedengibt und die übrige Umgebung als „erstmal sicher“ betrachtet.
Solange der eigentliche Spreader – also das System, über das die Angreifenden die Ransomware verteilen und steuern – aktiv bleibt, kann jederzeit nachgeladen, neu verteilt oder eine zweite Verschlüsselungswelle ausgelöst werden. Besonders gefährlich ist die Kombination aus bestehenden Domänen‑Adminrechten, Skripten oder Group Policies, die bereits vorbereitet wurden, und einem guten Überblick der Angreifenden über die Backup‑Infrastruktur. In so einem Szenario kann ein „erstmal wiederhergestelltes“ System in kurzer Zeit erneut kompromittiert werden, weil die eigentliche Wurzel des Angriffs weiterhin im Netzwerk steckt.
In der Mehrzahl der großen Ransomware‑Fälle spielen Active‑Directory‑basierte Mechanismen eine zentrale Rolle für die Verteilung. Sobald Angreifende Domänen‑Adminrechte erlangt haben, stehen ihnen zahlreiche Werkzeuge offen: Group Policies, Anmeldeskripte, Softwareverteilungslösungen oder Remote‑Management‑Tools, die im Unternehmen eigentlich für legitime Zwecke gedacht sind. Diese werden dann missbraucht, um Verschlüsselungssoftware auf viele Systeme gleichzeitig auszurollen.
Dieser Ansatz ist für Angreifende attraktiv, weil er sich nahtlos in bestehende Verwaltungsprozesse einfügt und aus Logging‑Perspektive zunächst „normal“ aussieht. Statt exotischer Exploits nutzen sie damit genau die Tools, mit denen Administratoren täglich arbeiten. Für die Verteidiger bedeutet das: Wer in einem Ransomware‑Vorfall nur auf das verschlüsselte System starrt und nicht parallel die AD‑Infrastruktur und Admin‑Pfadabhängigkeiten untersucht, arbeitet praktisch mit verbundenen Augen.
Ein besonders verheerendes Szenario entsteht, wenn Angreifende die Virtualisierungsumgebung erreichen. Gelingt es ihnen, den Hypervisor oder die darunterliegenden VM‑Datenträger zu verschlüsseln, steht in kürzester Zeit nicht nur ein einzelner Server, sondern ein kompletter Service‑Stack still. Von außen sieht das dann häufig so aus, als wären „alle Server gleichzeitig betroffen“, weil sämtliche virtuellen Maschinen nicht mehr startbar sind oder nur noch verschlüsselte Datenspeicher sehen.
Gerade in mittelständischen Umgebungen sind Hypervisor‑Hosts oft Hochverfügbarkeits‑Inseln, auf denen sehr viele kritische Systeme konzentriert sind: Fileserver, Domain Controller, Applikationsserver, Datenbanken. Wenn hier die VM‑Datenträger verschlüsselt werden, ist die Wiederherstellung wesentlich komplexer – insbesondere, wenn Backups nicht sauber getrennt sind oder sogar ebenfalls auf derselben Storage‑Infrastruktur liegen. Die Angriffswirkung ist dann maximiert, während der technische Aufwand für die Angreifenden vergleichsweise gering ist.
Ein im Alltag oft unterschätzter, im Ernstfall aber entscheidender Faktor ist die logische und physische Trennung von Netzwerkspeichersystemen und Backup‑Infrastruktur. Wer im Incident‑Fall noch rechtzeitig bemerkt, dass ein Angriff läuft, hat mit isolierten Backups einen echten Rettungsanker. Viele erfolgreiche Ransomware‑Kampagnen zielen gezielt darauf ab, Backup‑Repositories zu löschen, zu verschlüsseln oder zu manipulieren, bevor die eigentliche Verschlüsselungswelle im Produktivnetz losrollt.
Unternehmen, die auf „Offline‑fähige“ Backups, Immutable‑Storage oder klar segmentierte Backup‑Netze setzen, haben in so einer Situation deutlich bessere Karten. Selbst wenn ein Teil der Infrastruktur fällt, bleiben funktionsfähige, unveränderliche Sicherungen erhalten, aus denen kontrolliert wiederhergestellt werden kann. Wer dagegen Backups wie ein weiteres Netzlaufwerk behandelt, das permanent voll angebunden und aus dem Produktionsnetz erreichbar ist, wird im Ernstfall häufig feststellen, dass nicht nur die Produktivsysteme, sondern auch die letzte Rettung bereits kompromittiert ist.
Viele Organisationen verfügen inzwischen über Playbooks oder Notfallpläne für Ransomware‑Angriffe. Häufig konzentrieren sich diese Pläne jedoch stark auf organisatorische Fragen: Kommunikation, Krisenstab, Kontakt zur Cyberversicherung oder zu Behörden. Technische Sofortmaßnahmen werden dagegen nur grob umrissen. Für ein wirksames Playbook sollten unter anderem folgende Punkte konkret ausgearbeitet sein:
Klare Heuristiken, um zwischen „erstem entdeckten Opfer“ und wahrscheinlichem Spreader zu unterscheiden, inklusive Checklisten für Log‑Analysen und Admin‑Account‑Prüfungen.
Vorgehen zur schnellen Trennung von Netzwerkspeichern und Backups, inklusive vorher getesteter Runbooks für das „harte Abklemmen“ von Storage‑Systemen.
Spezifische Szenarien für AD‑Missbrauch, etwa das kontrollierte Deaktivieren bestimmter Policies oder das temporäre Einschränken kritischer Administrationspfade.
Notfall‑Prozeduren für den Fall, dass Hypervisor oder zentrale Virtualisierungs‑Storage betroffen sind, inklusive Priorisierung, welche VMs aus welchen Backups als erstes wiederhergestellt werden.
Ein gutes Playbook ist nicht nur ein Dokument, sondern ein gelebter Prozess: Es muss regelmäßig geübt, angepasst und an neue Angriffsmuster sowie Infrastrukturänderungen im Unternehmen angeglichen werden.
Wer Ransomware‑Vorfälle ernst nimmt, sollte seine Denkmuster anpassen: Das erste verschlüsselte System ist in der Regel nicht der Täter, sondern bereits das Ergebnis einer längeren Angriffskette. Die wirkliche Kunst im Incident‑Response besteht darin, unter hohem Zeitdruck den Spreader zu identifizieren, AD‑basierte Verteilmechanismen zu neutralisieren, Hypervisor und Storage gezielt zu schützen und belastbare Backups zu sichern. Organisationen, die diesen Perspektivwechsel frühzeitig in ihre Playbooks und technischen Maßnahmen übersetzen, reduzieren nicht nur den potenziellen Schaden, sondern gewinnen im Ernstfall die wichtigste Ressource überhaupt: Zeit.