Opsio - Cloud and AI Solutions
Disaster Recovery11 min read· 2,614 words

Disaster Recovery & Business Continuity in der Cloud: Planungsleitfaden

Fredrik Karlsson
Fredrik Karlsson

Group COO & CISO

Published: ·Updated: ·Reviewed by Opsio Engineering Team

Quick Answer

Disaster Recovery & Business Continuity in der Cloud: Planungsleitfaden Die Planung von Disaster Recovery und Business Continuity (BCDR) entscheidet darüber,...

Disaster Recovery & Business Continuity in der Cloud: Planungsleitfaden

Die Planung von Disaster Recovery und Business Continuity (BCDR) entscheidet darüber, ob eine Organisation einen schwerwiegenden Ausfall übersteht — oder in ausgedehnten Stillstand, Datenverlust und regulatorische Sanktionen abrutscht. In Cloud-Umgebungen wandelt sich BCDR von teurer, brachliegender Hardware hin zu elastischer, softwaredefinierten Resilienz — allerdings nur bei rigoroser Planung. Dieser Leitfaden behandelt, wie Sie DR/BC über AWS, Azure und GCP hinweg konzipieren, implementieren und testen. Besonderes Augenmerk liegt auf den EU-regulatorischen Anforderungen (NIS2, DSGVO, BSI C5) und Multi-Region-Überlegungen für Organisationen mit Standorten in Deutschland und Europa.

Zentrale Erkenntnisse

  • Business Continuity ist der strategische Rahmen; Disaster Recovery ist die technische Teildisziplin, die IT-Systeme nach einem Ausfall wiederherstellt.
  • RTO und RPO sind die zwei Kennzahlen, die jede Architektur- und Budgetentscheidung in der DR-Planung bestimmen.
  • NIS2 und DSGVO setzen durchsetzbare Pflichten zu Incident-Response-Fristen und Datenresidenz durch, die das DR-Design für in der EU operierende Organisationen unmittelbar prägen.
  • Multi-Cloud-DR ist umsetzbar, aber operativ kostspielig — die meisten Organisationen erzielen bessere Resilienz durch Multi-Region innerhalb eines einzelnen Providers.
  • Ungetestete DR-Pläne scheitern. Vierteljährliche Game-Day-Übungen, die reale Ausfälle simulieren, sind die einzelne Investition mit dem höchsten Wert für die Resilienz.

Business Continuity vs. Disaster Recovery: Die Abgrenzung

Diese Begriffe werden häufig synonym verwendet — und genau das erzeugt im tatsächlichen Störfall echte Verwirrung. Hier die operationale Unterscheidung:

Business Continuity (BC) ist die organisatorische Strategie zur Aufrechterhaltung wesentlicher Funktionen während und nach einer Störung. Sie umfasst Personen (Nachfolgeregelungen, Remote-Work-Befähigung), Prozesse (manuelle Workarounds, alternative Lieferanten), Kommunikation (Stakeholder-Benachrichtigung, Krisenkommunikation) und Technologie.

Disaster Recovery (DR) ist der technische Ausführungsplan zur Wiederherstellung von IT-Systemen, Anwendungen und Daten. DR verhält sich zu BC wie der Motor zum Fahrzeug — kritisch, aber nicht das Ganze.

DimensionBusiness ContinuityDisaster Recovery
UmfangGesamte OrganisationIT-Infrastruktur und Daten
Primär verantwortlichGeschäftsleitung / RisikomanagementCTO / VP Infrastructure / DevOps-Leitung
Zentrale KennzahlMinimum Business Continuity Objective (MBCO)RTO und RPO
ErgebnisBusiness Continuity Plan (BCP)DR-Runbooks, Failover-Automatisierung
StandardsISO 22301, BSI 200-4ISO 27031, NIST SP 800-34, BSI C5
Regulatorische TreiberNIS2 Artikel 21, Corporate GovernanceDSGVO Artikel 32, NIS2, BSI-Grundschutz

Der häufigste Praxisfehler, den wir aus Opsios NOC-Betrieb kennen: Organisationen investieren massiv in DR-Tooling (Replikation, automatisiertes Failover), überspringen aber die BC-Ebene. Wenn ein Incident eintritt, recovern die Systeme in zwölf Minuten in eine sekundäre Region — und dann weiß niemand, wer den DNS-Cutover autorisiert, Kunden erhalten zwei Stunden lang kein Update auf der Statusseite, und die Finanzabteilung kann keine Zahlungen verarbeiten, weil der manuelle Workaround nie dokumentiert wurde. DR ohne BC ist ein halber Plan.

Kostenlose Expertenberatung

Brauchen Sie Hilfe mit cloud?

Buchen Sie ein kostenloses 30-Minuten-Gespräch mit einem unserer cloud-Spezialisten. Wir analysieren Ihren Bedarf und geben konkrete Empfehlungen — völlig unverbindlich.

Solution ArchitectKI-SpezialistSicherheitsexperteDevOps-Ingenieur
50+ zertifizierte Ingenieure4.9/5 Kundenbewertung24/7 Support
Völlig kostenlos — keine VerpflichtungAntwort innerhalb 24h

RTO, RPO und das Tier-Modell, das alles bestimmt

Jede BCDR-Architekturentscheidung leitet sich von zwei Kennzahlen ab:

  • Recovery Time Objective (RTO): Maximal akzeptable Ausfallzeit. Bei einem RTO von 15 Minuten benötigen Sie Hot Standby. Bei 24 Stunden genügt ein Pilot-Light- oder Backup-and-Restore-Ansatz.
  • Recovery Point Objective (RPO): Maximal akzeptabler Datenverlust, gemessen in Zeit. Ein RPO von null bedeutet synchrone Replikation. Ein RPO von einer Stunde bedeutet, dass Sie den Verlust der letzten Stunde an Transaktionen tolerieren können.

Tiering Ihrer Anwendungen

Nicht jedes System verdient das gleiche Investment. Wir empfehlen ein Vier-Tier-Modell:

TierRTORPOArchitekturBeispiel
Tier 1 — Geschäftskritisch< 15 Min.Nahezu nullMulti-Region Active-Active oder Hot StandbyZahlungsverkehr, Kern-SaaS-Plattform
Tier 2 — Unternehmenskritisch1–4 Std.< 1 Std.Warm Standby mit automatisiertem FailoverERP, CRM, interne APIs
Tier 3 — Wichtig12–24 Std.< 24 Std.Pilot Light oder Redeploy via Infrastructure-as-CodeStaging-Umgebungen, Reporting-Systeme
Tier 4 — Unkritisch48–72 Std.< 72 Std.Backup and Restore aus SnapshotsDev/Test, Archivierungssysteme

Der häufigste Budgetfehler: alles als Tier 1 klassifizieren. Opsios Cloud FinOps-Praxis stellt regelmäßig fest, dass Organisationen drei- bis fünfmal mehr als nötig für DR ausgeben, weil vor Jahren jemand bei einer Checklisten-Risikoanalyse bei jedem System „geschäftskritisch" angekreuzt hat. Überprüfen Sie die Tier-Einstufungen jährlich anhand aktueller Business-Impact-Daten.

Cloud-DR-Architekturen: Was jeder Provider bietet

AWS

AWS bietet das ausgereifteste native DR-Tooling. Zentrale Services:

  • AWS Elastic Disaster Recovery (AWS DRS): Kontinuierliche blocklevelbasierte Replikation von On-Premises- oder Cloud-Servern in einen Staging-Bereich in einer Ziel-AWS-Region. Startet Recovery-Instanzen innerhalb von Minuten. Dieser Service hat CloudEndure Disaster Recovery abgelöst und ist die Standard-Empfehlung für Lift-and-Shift-DR.
  • S3 Cross-Region Replication (CRR): Asynchrone Objekt-Replikation für die Datenschicht-DR.
  • Aurora Global Database: Sub-Sekunden-Replikation über bis zu fünf Regionen mit verwalteten Failover für relationale Workloads.
  • Route 53 Health Checks + Failover Routing: DNS-basierte Traffic-Umleitung bei regionalen Ausfällen.

Der Reliability Pillar des AWS Well-Architected Framework definiert vier DR-Strategien explizit — Backup & Restore, Pilot Light, Warm Standby und Multi-Site Active-Active — und ordnet sie RTO/RPO-Bereichen zu. Dies ist das beste vom Anbieter bereitgestellte DR-Referenzdokument und sollte Pflichtlektüre für jeden DR-Architekten sein.

Für Organisationen in Deutschland ist eu-central-1 (Frankfurt) die primäre Region, mit eu-central-2 (Zürich) als idealer DR-Zielregion innerhalb des deutschsprachigen Raums.

Azure

  • Azure Site Recovery (ASR): VM-Replikation zwischen Azure-Regionen oder von On-Premises nach Azure. Unterstützt orchestrierte Recovery Plans mit sequenziertem Startup.
  • Azure Paired Regions: Microsoft definiert Regions-Paare (z. B. Germany West Central ↔ Germany North) mit garantiert sequenziellen Updates und priorisierter Wiederherstellung.
  • Cosmos DB Multi-Region Writes: Active-Active auf der Datenschicht mit konfigurierbaren Konsistenzebenen.
  • Azure Front Door: Globales Load Balancing mit automatischem Failover.

Ein operatives Detail: Die Replikationsverzögerung von ASR bei VMs mit großen Disks kann unter hoher I/O-Last die veröffentlichten Richtwerte überschreiten. Testen Sie stets mit produktionsrepräsentativen Workloads, nicht mit leeren VMs.

GCP

  • Cross-region Managed Instance Groups: Auto-Scaling über Regionen hinweg mit globalem HTTP(S) Load Balancing.
  • Cloud Spanner: Global verteilte relationale Datenbank mit synchroner Replikation — im Grunde eingebaute Tier-1-DR für die Datenschicht.
  • Backup and DR Service: Verwaltetes Backup für Compute Engine, GKE und Datenbanken mit orchestrierter Wiederherstellung.

GCPs Regionsanzahl ist kleiner als bei AWS oder Azure, was für die Datenresidenz relevant ist. Organisationen, die gemäß DSGVO reine EU-DR-Ziele benötigen, haben bei GCP weniger Optionen, obwohl sich die Lage mit den Regionen Zürich, Mailand und Berlin verbessert hat.

Managed Cloud Services

Regulatorischer Rahmen: NIS2, DSGVO, BSI C5 und deren Anforderungen

NIS2-Richtlinie (EU)

NIS2, die seit Oktober 2024 in den EU-Mitgliedstaaten durchsetzbar ist, schreibt Business-Continuity-Planung für wesentliche und wichtige Einrichtungen in 18 Sektoren explizit vor. Artikel 21 verlangt „Business Continuity, einschließlich Backup-Management und Disaster Recovery, sowie Krisenmanagement." Zentrale operative Auswirkungen:

  • Vorfallmeldung innerhalb von 24 Stunden nach Kenntnisnahme eines signifikanten Vorfalls (Frühwarnung), mit vollständiger Benachrichtigung innerhalb von 72 Stunden. Ihr DR-Plan muss automatisierte Erkennung und Eskalation enthalten, um diese Fristen einzuhalten.
  • Sicherheit der Lieferkette erstreckt sich auf Managed Service Provider. Wenn Opsio Ihre DR verwaltet, müssen unsere Prozesse ebenfalls konform sein — was sie im Rahmen unserer ISO 27001- und SOC 2-Zertifizierungen auch sind.
  • Verhältnismäßigkeit: Die Anforderungen skalieren mit Unternehmensgröße und Sektorkritikalität. Ein mittelständisches SaaS-Unternehmen hat andere Pflichten als ein Stromnetzbetreiber.

DSGVO Artikel 32

DSGVO Artikel 32 Absatz 1 Buchstabe c verlangt „die Fähigkeit, die Verfügbarkeit der personenbezogenen Daten und den Zugang zu ihnen bei einem physischen oder technischen Zwischenfall rasch wiederherzustellen." Dies ist eine DR-Anforderung, die direkt im Datenschutzrecht verankert ist. Die praktische Konsequenz: Wenn Ihr DR-Plan personenbezogene Daten nicht innerhalb Ihres definierten RTO wiederherstellen kann, haben Sie nicht nur ein operatives, sondern ein Compliance-Problem.

Aufgrund der Schrems-II-Entscheidung des EuGH gelten strenge Anforderungen an die Übermittlung personenbezogener Daten in Drittländer. Die Replikation von Daten EU-ansässiger Betroffener in eine DR-Region außerhalb des EWR erfordert angemessene Schutzmaßnahmen — Standardvertragsklauseln (SCCs), verbindliche interne Datenschutzvorschriften (BCRs) oder einen Angemessenheitsbeschluss. Idealerweise bleiben DR-Zielregionen für deutsche Organisationen innerhalb der EU — etwa eu-central-1 (Frankfurt) als Primärregion und eu-central-2 (Zürich) oder eu-west-1 (Irland) als DR-Ziel.

BSI C5 (Deutschland)

Der Cloud Computing Compliance Criteria Catalogue (C5) des Bundesamts für Sicherheit in der Informationstechnik (BSI) ist für die öffentliche Verwaltung und viele regulierte Branchen in Deutschland faktisch verpflichtend. C5 enthält explizite Anforderungen an die Betriebskontinuität (BCM-Domäne), darunter die Dokumentation von Recovery-Zielen, regelmäßige Tests der Wiederherstellungsprozesse und den Nachweis der Datenresidenz. Wenn Sie Cloud-Dienste für deutsche Behörden oder im Gesundheitswesen bereitstellen, sollte Ihr DR-Design die C5-Kriterien von Anfang an mitberücksichtigen.

Cloud Security

Das DR-Runbook erstellen: Vom Dokument zum ausführbaren Plan

Ein DR-Plan, der auf einer Confluence-Seite liegt, die seit der Erstellung niemand mehr gelesen hat, ist kein Plan. Er ist eine Haftungsquelle. Folgendes gehört in ein produktionsreifes DR-Runbook:

1. Geltungsbereich und Aktivierungskriterien

Definieren Sie exakt, welche Ereignisse die DR-Aktivierung auslösen. „Schwerer Ausfall" ist nicht spezifisch genug. Beispiel: „Vollständiger Verfügbarkeitsverlust in eu-central-1 für mehr als 15 Minuten, bestätigt durch CloudWatch Composite Alarms und PagerDuty-Incident." Legen Sie fest, wer die Aktivierung autorisiert (namentlich plus Vertretung), denn der schlechteste Zeitpunkt, um Zuständigkeiten zu diskutieren, ist mitten im Incident.

2. Kommunikationsplan

  • Intern: PagerDuty / Opsgenie Eskalationsrichtlinien, vorab erstellte Slack-War-Room-Channels (nicht erst während des Incidents anlegen), Bridge-Call-Details
  • Extern: Statusseiten-Aktualisierungsverfahren (Statuspage, Instatus), von der Rechtsabteilung vorab freigegebene Kunden-E-Mail-Templates, regulatorische Melde-Checkliste (NIS2-Frühwarnung 24 Stunden, DSGVO-Meldung einer Datenschutzverletzung 72 Stunden, BSI-Meldepflichten für KRITIS-Betreiber)

3. Wiederherstellungsverfahren — Schritt für Schritt

Jedes Tier-1- und Tier-2-System benötigt eine nummerierte Prozedur, keine Fließtext-Beschreibung. Enthalten sollte sein:

  • Pre-Failover-Validierungsprüfungen (Ist die Zielregion gesund? Sind die Replikate synchron?)
  • Failover-Ausführungsbefehle oder Automatisierungsreferenzen (Terraform Workspaces, AWS DRS Launch Templates, ASR Recovery Plans)
  • Post-Failover-Validierung (Smoke Tests, synthetisches Monitoring via Datadog oder Dynatrace, Datenbank-Integritätsprüfungen)
  • DNS-Cutover-Verfahren mit TTL-Berücksichtigung (TTLs vor geplanten Tests auf 60 Sekunden senken; aktuelle TTLs für ungeplante Ereignisse dokumentieren)

4. Failback-Verfahren

Alle planen das Failover. Fast niemand dokumentiert das Failback — den Prozess der Rückkehr zur Primärregion, sobald diese wieder funktionsfähig ist. Failback ist oft riskanter als Failover, da die Daten divergiert sind. Dokumentieren Sie die Umkehr der Replikation, Datenabgleichs-Schritte und die Kriterien, nach denen die Primärregion als „wiederhergestellt" deklariert wird.

5. Kontaktliste und Anbieter-Eskalation

Cloud-Provider-Supportpläne (AWS Enterprise Support, Azure Unified Support), Kontakte von Drittanbieter-SaaS-Diensten, DNS-Registrar-Notfallverfahren. Drucken Sie eine physische Kopie aus. Bei einem größeren Cloud-Ausfall ist möglicherweise auch Ihr Passwort-Manager nicht erreichbar.

Testen: Der Teil, den alle auslassen

Laut Flexera's State of the Cloud rangiert das Management der Cloud-Kosten durchgehend unter den größten Herausforderungen — aber das Management von DR-Tests fällt in die Kategorie dessen, was Organisationen schlicht zu wenig tun. Aus den Beobachtungen von Opsios NOC-Team über unsere Managed-Kunden hinweg: Organisationen, die DR vierteljährlich testen, haben im realen Störfall eine dramatisch niedrigere mediane Wiederherstellungszeit als solche, die jährlich oder gar nicht testen.

Arten von DR-Tests

TestartAufwandAuswirkung auf ProduktionNutzen
Tabletop-ÜbungGeringKeineValidiert Rollen, Kommunikation, Entscheidungsfindung
KomponententestMittelMinimalTestet einzelne Wiederherstellungsschritte (z. B. Restore einer einzelnen Datenbank)
Paralleler Recovery-TestMittel–HochKeine bis minimalHochfahren der vollständigen DR-Umgebung parallel zur Produktion
Vollständiger Failover-TestHochProduktions-Traffic wird umgeleitetDer einzige Test, der reale Wiederherstellung beweist; vierteljährlich für Tier 1 einplanen

Game-Day-Empfehlungen

  • Injizieren Sie reales Chaos: Nutzen Sie AWS Fault Injection Service, Azure Chaos Studio oder Gremlin, um AZ-Ausfälle, Netzwerk-Partitionen und Disk-Korruption zu simulieren.
  • Messen Sie die Zeit: Erfassen Sie tatsächliche RTO und RPO im Vergleich zu den Zielwerten. Verfolgen Sie Trends über Quartale hinweg.
  • Beziehen Sie nicht-technisches Personal ein: BC ist nicht nur IT. Lassen Sie die Finanzabteilung ihren manuellen Zahlungs-Workaround ausführen. Lassen Sie den Kundensupport die Krisenkommunikations-Templates verwenden.
  • Schreiben Sie ein Post-Mortem für den Test — nicht nur für reale Incidents. Jeder Test deckt Lücken auf. Dokumentieren Sie diese, weisen Sie Verantwortliche zu und beheben Sie sie vor dem nächsten Test.

Managed DevOps

Multi-Cloud-DR: Ehrliche Abwägungen

Die Idee, bei einem regionalen Ausfall von AWS zu Azure zu failovern, klingt auf dem Whiteboard resilient. In der Produktion ist sie außerordentlich komplex:

  • Identity und IAM müssen providerübergreifend funktionieren. Föderierte Identität via Entra ID oder Okta hilft, löst aber nicht die Autorisierung auf Service-Ebene.
  • Datenreplikation zwischen Providern erfordert Logik auf Applikationsebene oder Drittanbieter-Tools (z. B. Commvault, Cohesity). Native providerübergreifende Replikation existiert für die meisten Services nicht.
  • Infrastructure-as-Code divergiert. Terraform-Module für AWS und Azure sind strukturell verschieden. Die Parität aufrechtzuerhalten ist ein Vollzeitjob.
  • Netzwerkarchitektur (VPN-Tunnel, Peering, DNS) fügt Latenz und operative Angriffsfläche hinzu.

Opsios Position: Für die meisten Organisationen liefert Multi-Region-DR innerhalb eines einzelnen Cloud-Providers bessere Resilienz bei niedrigeren Kosten und geringerer Komplexität als Multi-Cloud-DR. Reservieren Sie echte Multi-Cloud-DR für Szenarien, in denen regulatorische Anforderungen dies vorschreiben (z. B. bestimmte Behörden-Workloads oder BSI-Vorgaben) oder in denen das Vendor-Lock-in-Risiko den operativen Mehraufwand rechtfertigt.

Die Ausnahme: DR auf Datenebene. Die Replikation verschlüsselter Backups zum Object Storage eines zweiten Providers (z. B. Produktion auf AWS, Backup-Kopien in Azure Blob Storage) ist unkompliziert, kostengünstig und schützt gegen katastrophales Versagen eines einzelnen Providers — ohne die Komplexität eines vollständigen applikationsseitigen Multi-Cloud-Failovers.

Cloud Migration

Was Opsios SOC/NOC in der Praxis sieht

Im 24/7-Betrieb über Europa hinweg zeigen sich wiederkehrende Muster:

  • DNS-TTL-Vernachlässigung ist die häufigste Ursache für verlängerte scheinbare Ausfallzeiten nach einem erfolgreichen Failover. Die Systeme recovern in 10 Minuten; Nutzer erleben 45 Minuten Störung, weil die TTLs auf 3600 Sekunden belassen wurden.
  • Abgelaufene Credentials in DR-Regionen. Service Accounts, Zertifikate und API-Keys, die in der Produktion rotiert werden, aber im Standby-Environment nie für die Rotation konfiguriert wurden. Erster Failover-Test nach sechs Monaten? Garantierte Authentifizierungsfehler.
  • Snapshot-basierte „DR" für Datenbanken. Nächtliche Snapshots ohne Replikation bedeuten ein RPO von bis zu 24 Stunden. Für viele Workloads ist das akzeptabel — aber nur wenn das Business dieses Datenverlust-Fenster explizit akzeptiert hat.
  • Kein Monitoring in der DR-Region. CloudWatch Alarms, Datadog Dashboards und PagerDuty-Integrationen, die nur in der Primärregion existieren. Nach dem Failover fliegen Sie blind.

Das sind keine exotischen Randfälle. Sie treten in der Mehrheit der Umgebungen auf, die wir onboarden. Ein gründliches Cloud-Security-Assessment erkennt sie, bevor ein Incident die Entdeckung erzwingt.

Erste Schritte: Eine pragmatische 90-Tage-Roadmap

Tage 1–30: Discovery und Business Impact Analysis

  • Inventarisierung aller Produktions-Workloads und Einstufung in Tiers
  • Aktuelle RTO/RPO für jedes Tier dokumentieren (selbst wenn die Antwort „wissen wir nicht" lautet)
  • Regulatorische Pflichten identifizieren (NIS2-Geltungsbereich, DSGVO-Datenflüsse, BSI-C5-Relevanz, KRITIS-Verordnung)

Tage 31–60: Architektur und Tooling

  • DR-Architektur pro Tier auswählen (Backup/Restore, Pilot Light, Warm Standby, Active-Active)
  • Replikation für Tier-1-Systeme implementieren (z. B. eu-central-1 Frankfurt → eu-central-2 Zürich)
  • Monitoring, Alerting und Runbook-Automatisierung in der DR-Region konfigurieren
  • DNS-TTLs für kritische Services senken

Tage 61–90: Runbook, Test, Iteration

  • Schritt-für-Schritt-Runbooks für Tier-1- und Tier-2-Failover und -Failback erstellen
  • Erste Tabletop-Übung mit allen Stakeholdern durchführen
  • Ersten parallelen Recovery-Test für Tier-1-Systeme ausführen
  • Lücken dokumentieren, Verantwortliche für die Behebung benennen, vierteljährliche Game Days terminieren

Dies ist kein einmaliges Projekt. BCDR ist eine kontinuierliche Praxis — wie Security. Der Plan veraltet jedes Mal, wenn sich die Infrastruktur ändert und das Runbook nicht aktualisiert wird.

Häufig gestellte Fragen

Umfasst Business Continuity auch Disaster Recovery?

Ja. Business Continuity ist die übergeordnete Disziplin, die Personen, Prozesse, Lieferketten und Kommunikation abdeckt. Disaster Recovery ist die IT-fokussierte Teildisziplin, die sich konkret mit der Wiederherstellung von Technologiesystemen, Daten und Infrastruktur nach einem Störungsereignis befasst. Ein BC-Plan ohne DR-Plan hat keine Möglichkeit, Systeme wiederherzustellen; ein DR-Plan ohne BC-Kontext stellt möglicherweise die falschen Systeme zuerst wieder her.

Was sind die 4 Phasen eines Business-Continuity-Plans im Bereich Disaster Recovery?

Die vier Phasen sind: (1) Risikoanalyse und Business Impact Analysis — Bedrohungen identifizieren und Systeme nach Kritikalität priorisieren; (2) Strategieentwicklung — RTOs, RPOs definieren und Recovery-Architekturen auswählen; (3) Planerstellung und Implementierung — Runbooks schreiben, Replikation konfigurieren, Rollen zuweisen; (4) Test, Pflege und kontinuierliche Verbesserung — Game Days durchführen, Dokumentation aktualisieren und nach jedem Vorfall oder jeder Infrastrukturänderung neu bewerten.

Was sind die 4 C's der Disaster Recovery?

Die 4 C's sind Communication (Kommunikation), Coordination (Koordination), Continuity (Kontinuität) und Compliance. Kommunikation stellt sicher, dass Stakeholder über vordefinierte Kanäle informiert werden. Koordination weist klare Rollen und Eskalationspfade zu. Kontinuität hält kritische Geschäftsfunktionen während der Wiederherstellung aufrecht. Compliance stellt sicher, dass Wiederherstellungsmaßnahmen regulatorische Pflichten erfüllen — etwa die DSGVO-Meldepflichten bei Datenschutzverletzungen oder die NIS2-Vorfallmeldung.

Deckt ISO 22301 auch Disaster Recovery ab?

ISO 22301 ist der internationale Standard für Business Continuity Management Systeme (BCMS). Er umfasst Disaster Recovery als Teil seines weiter gefassten Geltungsbereichs und verlangt von Organisationen, kritische Aktivitäten zu identifizieren, Wiederherstellungsziele festzulegen sowie Wiederherstellungsverfahren zu implementieren und zu testen. Er schreibt keine spezifischen technischen DR-Architekturen vor, verlangt aber, dass Wiederherstellungsfähigkeiten existieren, dokumentiert sind und regelmäßig geübt werden.

Was kostet Cloud-basierte Disaster Recovery im Vergleich zu traditioneller DR?

Cloud-DR kostet in der Regel einen Bruchteil einer traditionellen Hot-Site-DR, da Sie Standby-Compute nur bei Bedarf bezahlen. Eine Pilot-Light-Architektur auf AWS oder Azure kann 5–15 % der monatlichen Kosten der Produktionsumgebung ausmachen. Bei Warm- oder Hot-Standby steigen die Kosten deutlich an. Der größte verdeckte Kostenfaktor ist operativer Natur: Runbooks pflegen, Failover testen und Personal schulen.

Written By

Fredrik Karlsson
Fredrik Karlsson

Group COO & CISO at Opsio

Fredrik is the Group Chief Operating Officer and Chief Information Security Officer at Opsio. He focuses on operational excellence, governance, and information security, working closely with delivery and leadership teams to align technology, risk, and business outcomes in complex IT environments. He leads Opsio's security practice including SOC services, penetration testing, and compliance frameworks.

Editorial standards: Dieser Artikel wurde von Cloud-Praktikern verfasst und von unserem Ingenieurteam geprüft. Wir aktualisieren Inhalte vierteljährlich. Opsio wahrt redaktionelle Unabhängigkeit.