Notfallwiederherstellung oder Disaster Recovery sind seit Jahren präsent. Die Gründe, warum der Durchbruch nun endlich gelingt, erläutert Matthias Frühauf.
Foto: Veeam
Der Autor Matthias Frühauf ist als System Engineer für Veeam Software in der Region Central Europe tätig.
Es gibt keinen Grund mehr, nicht zu virtualisieren. Geschäftskritische Anwendungen zu virtualisieren, wurde vor nicht allzu langer Zeit noch sehr kritisch gesehen. Aktuell sollte es keine Hinderungsgründe mehr geben, denn Virtualisierungs-Guidelines von Software-Anbietern, Best-Practices zur Infrastruktur von VMware und Microsoft und eine starke Virtualisierungs-Community bieten genug Hilfestellung. Angesichts dieser Ressourcen spricht nichts mehr dagegen, neue Systeme von vornherein auf virtuellen Maschinen aufzusetzen.
Anwendungsstrukturen einfach anpassen.
Das größte Argument gegen Virtualisierung war bislang, dass Anwendungen damit oft schlechter zurechtkommen. Inzwischen haben Unternehmen allerdings genügend Argumente, um eine weitgreifende Anpassung einer Anwendung zugunsten der Virtualisierung und ihrer Vorteile zu fordern, wenn nicht gar ihren Ersatz. Zudem fördern die Trends wie mobile Applikationen und die Nachfrage nach Echtzeitinformationen zusätzlich einen Wandel auf Anwendungsebene. So manche veraltete Anwendung genügt den heutigen Ansprüchen schlicht nicht mehr. Virtualisierung und moderne Datensicherheit können den Verantwortlichen helfen.
Ein robustes Rechenzentrum mit modernster Virtualisierungs-, Networking- und Storage-Technologie auszustatten, ist dabei eine Sache. Eine ganz andere ist es, diese Infrastruktur umfassend zu schützen, die Daten zu sichern und sie für den Katastrophenfall an einem zweiten, sicheren Ort startbereit vorzuhalten. Pauschale Empfehlungen sind nicht angebracht, doch gilt durchaus die Regel, dass die Virtualisierung von Workloads ganz neue Möglichkeiten der Offsite-Sicherung mit sich bringt. Dazu gehört die Replikation von Storage und virtuellen Maschinen, effiziente Bandbreitennutzung bei Backup-Datentransfers, wirksamer Einsatz von Cloud Storage und Cloud Computing und auch die altbewährte Datensicherung auf Band. Es gibt viele Möglichkeiten. Aber was brauchen Anwender wirklich, um Daten extern zu sichern? Die komplette Virtualisierung ihrer Systeme wird ihnen die Entscheidungen leichter machen.
Storage-Technologien im Fokus.
Storage war für die Virtualisierung schon immer ein möglicher Engpass und wird in Zukunft sogar eine noch größere Rolle spielen wenn es darum geht, das ganze Potenzial einer virtuellen Infrastruktur zu nutzen. Im Bereich Storage stehen heute eine Fülle neuer Möglichkeiten zur Verfügung: Snapshot-Engines, Storage-Replizierung, Tiering, Nutzung von SSD und herkömmlichen Disks im Mix und mehr. Eine sinnvolle Kombination all dieser Möglichkeiten hat einen positiven Effekt auf virtuelle Infrastrukturen und kann Unternehmen dabei helfen, ihr Pflichtenheft im Bereich Disaster Recovery zu erfüllen.
Zudem wird sich das Geschäft stärker an der Technologie ausrichten. In der IT sind Prozesse und Kennzahlen wie Service Level Agreements (SLAs), Recovery Point Objectives (RPOs) oder Recovery Time Objectives (RTOs) fest definiert. Damit wird beschrieben, was die IT zu leisten hat, wenn etwas schief geht. Heutzutage sind die Erwartungen allerdings deutlich gestiegen: Unternehmen habe sich an die rasante Bereitstellung neuer Systeme in der Virtualisierung gewöhnt. Traditionelle Recovery-Modelle können hier aber nicht mithalten. Wenn Firmen innerhalb von 15 Minuten ein neues System bereitstellen können, warum sollten sie sich weiterhin mit 4 Stunden für die Wiederherstellung eines Systems zufrieden geben?
Heutzutage gibt es eine Vielzahl von Lösungen für Notfallwiederherstellung und Backup, die nur wenige Minuten für eine Wiederherstellung benötigen, und das selbst nach einem tiefgreifenden In-frastrukturausfall (etwa beim SAN). Es ist sogar möglich, die Wiederherstellung von Dateien an die Endanwender zu delegieren.