Opsio - Cloud and AI Solutions
9 min read· 2,023 words

Disaster Recovery Plan: 7 steg för svenska företag

Publicerad: ·Uppdaterad: ·Granskad av Opsios ingenjörsteam
Översatt från engelska och granskad av Opsios redaktion. Visa originalet →
Fredrik Karlsson

Group COO & CISO

Operational excellence, governance, and information security. Aligns technology, risk, and business outcomes in complex IT environments

Disaster Recovery Plan: 7 steg för svenska företag

Disaster Recovery Plan: 7 steg för svenska företag

En disaster recovery-plan (DRP) beskriver exakt hur er organisation återställer IT-system och data efter en allvarlig incident — oavsett om det handlar om ransomware, hårdvaruhaveri eller en översvämning i serverhallen. Planen definierar roller, prioriteringsordning, återställningsmål (RTO/RPO) och de tekniska mekanismer som gör att ni faktiskt kan komma tillbaka i drift. Utan en testad DRP spelar det ingen roll hur bra er infrastruktur är — ni vet inte om den håller förrän det är för sent.

Viktiga slutsatser

  • En disaster recovery-plan (DRP) är ingen pärm i hyllan — det är en levande process som kräver regelbunden testning för att fungera vid skarpt läge
  • RTO och RPO måste sättas utifrån affärskritikalitet, inte tekniska önskemål — börja med verksamhetsanalys (BIA)
  • Molnbaserad DR i eu-north-1 (Stockholm) eller Sweden Central ger svensk datasuveränitet och snabb failover utan egen hårdvara
  • NIS2-direktivet skärper kraven på incidentrapportering och DR-planering för allt fler svenska organisationer
  • En plan som aldrig testas är ingen plan — genomför tabletop-övningar kvartalsvis och fullskaliga DR-tester minst årligen

Vad är en disaster recovery-plan — och vad den inte är

En disaster recovery-plan är ett strukturerat dokument med tillhörande processer som definierar hur er organisation återställer kritisk IT-infrastruktur efter en störning. Den täcker system, data, nätverk och applikationer — det tekniska skiktet som driver er verksamhet.

Det en DRP inte är: en generell krishanteringsplan. Den täcker inte personalfrågor, alternativa kontorslokaler eller extern kriskommunikation. De delarna hör hemma i er business continuity-plan (BCP). I praktiken är DRP:n en teknisk delmängd av BCP:n, och de två måste utvecklas tillsammans.

Många organisationer vi möter har en DRP som skrevs för tre år sedan, godkändes av ledningsgruppen och sedan aldrig rördes igen. Det är inte en plan — det är en falsk trygghet. En fungerande DRP lever i takt med infrastrukturen och testas regelbundet.

DRP kontra BCP — en avgörande skillnad

AspektDisaster Recovery Plan (DRP)Business Continuity Plan (BCP)
FokusIT-system och teknisk infrastrukturHela verksamhetens fortlevnad
OmfattningData, applikationer, nätverk, servrarPersonal, lokaler, leverantörer, kommunikation
TidshorisontOmedelbar återställning (timmar–dagar)Långsiktig kontinuitet (veckor–månader)
ÄgareIT/infrastruktur/plattformsteamVerksamhetsledning/COO
NyckelaktiviteterBackup, replikering, failover, systemåterställningAlternativa arbetsplatser, resursomdisponering, kriskommunikation
MätvärdenRTO, RPOMTPD (Maximum Tolerable Period of Disruption)
Kostnadsfri experthjälp

Vill ni ha expertstöd med disaster recovery plan: 7 steg för svenska företag?

Våra molnarkitekter hjälper er med disaster recovery plan: 7 steg för svenska företag — från strategi till implementation. Boka ett kostnadsfritt 30-minuters rådgivningssamtal utan förpliktelse.

Solution ArchitectAI-specialistSäkerhetsexpertDevOps-ingenjör
50+ certifierade ingenjörerAWS Advanced Partner24/7 support
Helt kostnadsfritt — ingen förpliktelseSvar inom 24h

Steg 1: Genomför en affärskonsekvensanalys (BIA)

Allt börjar här. Innan ni diskuterar teknik, backup-frekvenser eller molnleverantörer behöver ni förstå vilka system som faktiskt är affärskritiska — och vad det kostar när de ligger nere.

En business impact analysis (BIA) kartlägger:

  • Kritiska affärsprocesser och vilka IT-system de är beroende av
  • Ekonomisk påverkan av stillestånd per timme och per dag (intäktsbortfall, avtalsviten, produktivitetsförlust)
  • Regulatoriska konsekvenser — rapporteringskrav enligt NIS2, GDPR artikel 33 (72-timmarsnotifiering vid personuppgiftsincident)
  • Beroendekedjor — vilka tredjepartstjänster, API:er och leverantörer som är single points of failure

Från Opsios SOC ser vi ett återkommande mönster: organisationer underskattar beroendet av stödsystem. E-handelsplattformen identifieras som kritisk, men DNS-tjänsten, autentiseringslösningen eller betalgateway:n glöms bort. När ett av dessa pekar nedåt spelar det ingen roll att webbservern lever.

Praktiskt tips: Samla representanter från varje affärsenhet — inte bara IT. Produktägaren för er mest intäktskritiska tjänst har sannolikt en helt annan syn på "acceptabelt stillestånd" än infrastrukturteamet.

Steg 2: Definiera RTO och RPO per tjänst

Recovery Time Objective (RTO) anger hur snabbt ett system måste vara tillbaka i drift. Recovery Point Objective (RPO) anger hur mycket data ni har råd att förlora, mätt i tid.

Dessa värden sätts per tjänst eller system, inte som ett enda tal för hela organisationen. Er kundnära betalningsplattform kräver sannolikt en RTO på under 1 timme och RPO på nära noll. Ert interna intranät kanske klarar 24 timmars RTO och 4 timmars RPO.

SystemRTORPODR-strategi
E-handelsplattform< 1 timme< 5 minuterAktiv-aktiv multi-AZ med databasreplikering
Betalningsgateway< 30 minuter0 (synkron replikering)Hot standby i sekundär region
ERP-system< 4 timmar< 1 timmePilot light med automatisk skalning
Intern e-post< 8 timmar< 4 timmarWarm standby
Utvecklingsmiljöer< 24 timmar< 24 timmarBackup & restore

Varje steg nedåt i RTO/RPO ökar kostnaden. Synkron replikering med noll dataförlust kostar mångfalt mer än dagliga backuper. Det är därför BIA:n är avgörande — den ger affärsmotiveringen för investeringen.

Steg 3: Kartlägg infrastrukturen och dess beroenden

Ni kan inte återställa det ni inte förstår. Steg tre handlar om att skapa en komplett bild av er infrastruktur:

  • Nätverkstopologi — VPC:er, subnät, brandväggsregler, VPN-tunnlar, DNS-konfiguration
  • Beräkningsresurser — servrar, containers, serverless-funktioner, deras konfigurationer
  • Datalagring — databaser (typ, storlek, replikering), filsystem, objektlagring
  • Tredjepartsintegrationer — SaaS-tjänster, API-beroenden, externa dataleverantörer
  • Hemlighetshantering — var lagras nycklar, certifikat och credentials?

Infrastructure as Code (IaC) med Terraform, Pulumi eller AWS CloudFormation är inte bara god praxis — det är en förutsättning för pålitlig DR. Om er infrastruktur definieras i kod kan den återskapas deterministiskt. Om den byggts manuellt via konsolklick har ni ett allvarligt problem.

Infrastructure as Code för DR

Från vår driftserfarenhet: de mest smärtsamma DR-incidenterna uppstår inte från det uppenbara haveriet utan från okända beroenden. En databasserver som replikeras perfekt hjälper föga om ingen dokumenterat att applikationen även kräver en specifik Redis-cache och en meddelandekö för att starta.

Steg 4: Välj DR-strategi per tjänstenivå

Det finns ett spektrum av DR-strategier, från enkel backup/restore till fullskalig aktiv-aktiv arkitektur. Valet styrs av era RTO/RPO-krav och budget.

De fyra klassiska DR-nivåerna

Backup & Restore — Billigast. Data säkerhetskopieras regelbundet. Vid incident återställs från backup till ny infrastruktur. RTO: timmar till dagar. Passar icke-kritiska system.

Pilot Light — Kärnkomponenter (databas, konfiguration) körs kontinuerligt i DR-miljön men i minimal skala. Vid failover skalas beräkningsresurser upp. RTO: 30 minuter–några timmar.

Warm Standby — En nedskalad men funktionell kopia av hela miljön körs i DR-regionen. Vid failover skalas den upp till full kapacitet. RTO: minuter–1 timme.

Aktiv-aktiv (Multi-site) — Full kapacitet i två eller flera regioner, med trafik som fördelas mellan dem. Vid failover i en region absorberar övriga trafiken. RTO: sekunder–minuter. Dyrast, men ger i princip noll märkbar nedtid.

För de flesta svenska medelstora företag landar den praktiska lösningen i en kombination: pilot light eller warm standby för affärskritiska system, backup/restore för resten.

Molnbaserad DR i Norden

AWS eu-north-1 (Stockholm) och Azure Sweden Central ger möjlighet att hålla data inom Sverige — avgörande för organisationer med krav på datasuveränitet. Tjänster som AWS Elastic Disaster Recovery och Azure Site Recovery automatiserar replikering och failover.

Molnbaserad disaster recovery

En vanlig arkitektur vi implementerar: primär drift i Stockholm-regionen med DR-replikering till en sekundär EU-region (t.ex. Frankfurt eller Dublin) för geografisk redundans. Data stannar inom EU, vilket förenklar GDPR-efterlevnad.

Steg 5: Dokumentera procedurer, roller och eskalering

En DR-plan utan tydliga roller är ett kaos väntande på att hända. Under en aktiv incident — klockan 03:00, med ledningen på telefon och kunder som klagar — är inte rätt tillfälle att fundera på vem som gör vad.

Dokumentera:

  • Incident Commander — vem leder insatsen? (Inte nödvändigtvis den mest seniora personen, utan den mest kompetenta för scenariot)
  • Kommunikationsansvarig — vem informerar ledning, kunder, myndigheter?
  • Tekniska teamledare per system — vem äger återställningen av databasen, applikationsskiktet, nätverket?
  • Eskaleringsvägar — exakta kontaktuppgifter, telefonnummer (inte bara Slack), med backup-kontakter
  • Extern support — kontaktuppgifter till er MSP, molnleverantörens support (enterprise-avtal), nätverksoperatörer

NIS2-kravet: Organisationer som klassas som väsentliga eller viktiga entiteter under NIS2-direktivet måste rapportera allvarliga incidenter till CSIRT (i Sverige: CERT-SE) inom 24 timmar med en tidig varning, följt av en fullständig rapport inom 72 timmar. Era DR-procedurer måste inkludera denna rapporteringskedja.

Säkerhetsövervakning och incidenthantering

Steg 6: Implementera och automatisera

Med strategi och dokumentation på plats är det dags att bygga. Här ser vi störst skillnad mellan organisationer som klarar en incident och de som inte gör det — graden av automatisering.

Vad bör automatiseras:

  • Backup-schemaläggning och verifiering — inte bara att backupen körs, utan att den är återställningsbar. Vi ser regelbundet organisationer som tryggt kört nattliga backuper i månader — bara för att upptäcka vid en incident att backuperna är korrupta.
  • Replikering och failover — databasreplikering, DNS-failover, lastbalanseringsomkoppling
  • Infrastrukturprovisionering — IaC-pipelines som kan spinna upp DR-miljön med ett kommando eller automatiskt vid trigger
  • Övervakningslarm — Opsios SOC/NOC övervakar 24/7 och kan trigga DR-procedurer automatiskt vid definierade tröskelvärden

Vad som inte bör automatiseras (ännu):

  • Beslutet att deklarera en katastrof och aktivera full DR — detta kräver mänsklig bedömning
  • Extern kommunikation med kunder och myndigheter
  • Tillbaka-failover (failback) till primär miljö — kräver verifiering att ursprungsmiljön är stabil

Managerade molntjänster med 24/7 SOC/NOC

Steg 7: Testa, testa, testa — och testa igen

Här faller de flesta organisationer. Planen finns. Tekniken är på plats. Men ingen har testat om det faktiskt fungerar ihop, under press, med riktiga människor.

Testtyper och frekvens

TesttypBeskrivningFrekvensKomplexitet
Tabletop-övningGenomgång av scenarion i mötesrum, ingen teknisk exekveringKvartalsvisLåg
KomponenttestVerifierar enskilda delar: backup-restore, DNS-failover, databasreplikeringMånatligenMedel
Simulerad failoverGenomför failover till DR-miljö utan att påverka produktionHalvårsvisHög
Fullskalig DR-testKör faktisk produktion från DR-miljön under en definierad periodÅrligenMycket hög

Varje test ska resultera i en rapport med:

1. Vad som fungerade

2. Vad som inte fungerade (det finns alltid något)

3. Uppmätt faktisk RTO och RPO jämfört med målet

4. Åtgärdslista med ansvarig och deadline

Enligt Flexeras State of the Cloud har kostnadshantering konsekvent rankats som organisationers främsta molnutmaning — och vi ser samma mönster i DR: organisationer investerar i verktyg men underinvesterar i den mänskliga processen kring testning och underhåll. Verktyget är värdelöst utan processen.

Regulatorisk kontext för svenska organisationer

NIS2-direktivet — Breddar kretsen av organisationer som omfattas av cybersäkerhetskrav markant jämfört med det tidigare NIS-direktivet. DR-planering är ett uttryckligt krav under riskhanteringsåtgärderna i artikel 21.

GDPR — Artikel 32 kräver "förmåga att återställa tillgängligheten och tillgången till personuppgifter i rimlig tid vid en fysisk eller teknisk incident". Er DR-plan är en del av GDPR-efterlevnaden. Integritetsskyddsmyndigheten (IMY) har utfärdat sanktionsavgifter för bristande tekniska och organisatoriska åtgärder.

SOC 2 / ISO 27001 — Båda ramverken kräver dokumenterad och testad DR-/BCP-planering. Om er organisation genomgår dessa revisioner är DR-planen en av de första sakerna revisorerna granskar.

Compliance och regelefterlevnad i molnet

Opsios perspektiv: vad vi ser i produktion

Från vårt SOC/NOC i Karlstad och Bangalore hanterar vi DR-scenarion löpande. Tre observationer:

1. Ransomware är det vanligaste DR-scenariot. Inte översvämningar, inte jordbävningar. Krypterad data och komprometterade system. Immutable backups (backuper som inte kan ändras eller raderas, inte ens av en administratör) är inte längre valfritt — det är en grundförutsättning.

2. DNS är den vanligaste förbisedda SPOF:en (single point of failure). Organisationer replikerar databaser och applikationer men glömmer att DNS-konfigurationen sitter hos en enda leverantör utan redundans. När den faller spelar resten ingen roll.

3. "Vi klarar oss med backup" räcker inte. Återställning från backup tar tid — ofta mycket längre tid än vad organisationen tror. Ett realistiskt test avslöjar nästan alltid att faktisk RTO överstiger målsatt RTO med faktor 2–5x.

Cloud FinOps — optimera DR-kostnader

Vanliga frågor

Vad är skillnaden mellan en disaster recovery-plan och en business continuity-plan?

En DRP fokuserar specifikt på att återställa IT-system, data och infrastruktur efter en incident. En BCP (business continuity plan) är bredare och täcker hela verksamheten — personal, lokaler, leverantörskedjor och kriskommunikation. DRP:n är en teknisk delmängd av BCP:n. I praktiken behöver ni båda, och de bör utvecklas parallellt.

Hur ofta bör vi testa vår disaster recovery-plan?

Tabletop-övningar (genomgångar vid bord) bör ske kvartalsvis. Tekniska failover-tester av kritiska system bör genomföras minst halvårsvis. Fullskaliga DR-tester där ni faktiskt kör produktion från er DR-miljö bör ske årligen. Varje infrastrukturändring utlöser dessutom en riktad verifiering av berörda delar.

Vilken RTO är rimlig för ett medelstort svenskt företag?

Det beror helt på verksamheten. E-handel och finanstjänster kräver ofta RTO under 1 timme för kundnära system. Interna stödsystem kan klara 4–24 timmar. Nyckeln är att utgå från affärskonsekvensanalysen — vad kostar varje timmes stillestånd i intäktsbortfall, avtalspåföljder och kundförtroende? Svaret styr investeringen.

Måste vi ha en disaster recovery-plan enligt NIS2?

NIS2-direktivet, som trädde i kraft i svensk lag 2025, ställer uttryckliga krav på riskhanteringsåtgärder inklusive incidenthantering, driftskontinuitet och katastrofåterställning. Organisationer som klassas som väsentliga eller viktiga entiteter — vilket inkluderar många fler sektorer än tidigare — omfattas. Bristande efterlevnad kan leda till kännbara sanktioner.

Kan vi köra disaster recovery helt i molnet utan egen hårdvara?

Ja. Tjänster som AWS Elastic Disaster Recovery, Azure Site Recovery och Google Cloud DR ger fullständig replikering och failover utan att ni äger en enda fysisk server. För svenska företag innebär det att DR-miljön kan ligga i Stockholm-regionen med automatisk failover. Opsio hanterar konfiguration, testning och övervakning via vårt SOC/NOC dygnet runt.

For hands-on delivery in India, see zero-downtime drift.

Om författaren

Fredrik Karlsson
Fredrik Karlsson

Group COO & CISO at Opsio

Operational excellence, governance, and information security. Aligns technology, risk, and business outcomes in complex IT environments

Editorial standards: This article was written by a certified practitioner and peer-reviewed by our engineering team. We update content quarterly to ensure technical accuracy. Opsio maintains editorial independence — we recommend solutions based on technical merit, not commercial relationships.