Über unsMediaKontaktImpressum
Stefan Bösner 08. September 2015

Ultraschnelle Backups für alle

Starkes Datenwachstum, immer längere Aufbewahrungsfristen, schnelle Wiederherstellung der Daten... – die Anforderungen an eine Datensicherung werden immer mehr und stellen den IT-Betrieb vor immer größere Herausforderungen. Doch was passiert, wenn diese Anforderungen und Erwartungen nicht erfüllt werden? Sehr schnell wird dann die Backup-Software als Übeltäter ausgemacht. Doch liegt es wirklich daran?

An einer Datensicherung sind immer mehrere Komponenten beteiligt: Die Backup-Quelle, das Backup-Ziel und der Übertragungsweg. Jede dieser Komponenten trägt zum Erfolg oder Misserfolg und der Laufzeit des Backups bei. Betrachten wir im Folgenden diese wesentlichen Komponenten etwas genauer. Anschließend erklären wir, wie sich die Backup-Laufzeit optimieren lässt, bis hin zur Realisierung von "ultraschnellen Backups".

Backup-Quelle:

Zunächst einmal ist wichtig zu wissen, wo die zu sichernden Daten liegen. Diesen Ort nennt man die Backup-Quelle. Die Daten können z. B auf einem Server, Client oder auch auf einem NAS-System liegen. Bei einer Datensicherung müssen die Daten von der Quelle eingelesen werden können. Die Geschwindigkeit, mit der diese Daten eingelesen werden ist eine der Komponenten, die die Laufzeit des Backups bestimmen. Je schneller die Daten gelesen werden, desto kürzer ist die Laufzeit. Für ein schnelles Backup muss also auch die Lesegeschwindigkeit optimiert werden. Deshalb stellt sich die Frage, ob mein Quellsystem überhaupt in der Lage ist, die gewünschte Lesegeschwindigkeit zu erreichen.

Backup-Ziel:

Wo werden die Daten abgelegt? Dieses sogenannte Backup-Ziel kann z. B ein Tape, eine Disk oder die Cloud sein. Auch das Backup-Ziel ist eine der Komponenten, die eine wichtige Rolle bei der Laufzeit spielen. Wie gut kann das Backup-Ziel mit vielen kleinen oder wenigen sehr großen Dateien umgehen? Wie viele Backup-Ziele werden verwendet? Liefert nur eine Quelle Datenströme oder mehrere? Für eine optimale Backup-Laufzeit gilt es, die Antworten auf diese Fragen zu kennen. Denn nicht nur die Backup-Quelle sondern auch das Backup-Ziel muss in der Lage sein, die angelieferten Datenmengen entsprechend zu verarbeiten.

Übertragungsweg:

Die dritte Komponente ist der Weg von der Backup-Quelle zum Backup-Ziel. Dieser sogenannte Übertragungsweg wird bei der Laufzeitbetrachtung häufig vernachlässigt. Dabei ist es sehr wichtig, den Übertragungsweg genau zu kennen. Die Daten müssen von der Quelle zum Ziel transportiert werden. Doch auf welchem Weg gelangen die Backup-Daten von der Quelle zum Backup-Ziel? Bei der Datenübertragung gibt es verschiedene Möglichkeiten, die unterschiedlich schnell sein können. Werden die Daten direkt von der Quelle zum Ziel übertragen? Oder ist z. B noch ein Medien-Server dazwischen geschaltet? Häufig wird als Übertragungsmedium ein Netzwerk verwendet. Bei der Datenübertragung über ein Netzwerk hängt die Laufzeit des Backup und des Restores von der bereitgestellten Bandbreite ab. Das gut abgestimmte Zusammenspiel dieser drei Komponenten wirkt sich daher direkt auf die Gesamtlaufzeit von Backup und Restore aus. Doch wie kann ich die Komponenten erfolgreich optimieren?

Optimierung

Optimierung der Backup-Quelle

Eine Grundregel lautet: Je schneller das Quellsystem die Daten liefern kann, desto zügiger können auch die Daten gesichert werden. Der limitierende Faktor ist hier die Hardware des Quell-Systems. Sind noch nicht alle Einstellungen des Storagecontrollers optimal konfiguriert, wie z. B. Lese-Cache oder Blockgrößen, so bleibt nur noch der Austausch durch leistungsfähigere Hardware.

Ein anderer möglicher Ansatz beschränkt sich beim Lesen der Daten auf der Backup-Quelle, in dem nur die Daten gelesen werden, die auch zur Wiederherstellung nötig sind. Technologien wie Change Block Tracking sorgen dafür, dass bei inkrementellen Blocksicherungen nicht mehr die kompletten Plattensysteme nach Änderungen durchsucht werden müssen. Bereits im regulären Betrieb wird mitprotokolliert, welche Datenblöcke sich verändert haben. Dieses Protokoll wird dann während des Backups abgearbeitet. Dabei werden nur Blöcke gelesen, die auch in der Liste protokolliert wurden. Dies führt zu einer deutlich reduzierten Leseaktivität auf den Quelldisken und damit letztendlich zu kürzeren Sicherungszeiten.

Doch was passiert mit gelöschten Daten? Falls dort vor dem Löschen noch Änderungen gemacht wurden, würden die entsprechenden Datenblöcke protokolliert und dann auch gesichert. Um auch diese unnötige Sicherung von gelöschten Datenblöcken zu verhindern, gibt es Technologien wie Active Block Mapping (ABM) von Dell Software. Bei der Nutzung von ABM werden nur die aktiven Blöcke gesichert. Hierbei werden Blöcke, die im Dateisystem als gelöscht markiert sind, während des Backups herausgefiltert. Dies gilt sogar für PageFiles und Hibernation-Files, die in der Regel sehr groß sind. Ein zusätzlicher positiver Nebeneffekt: Was nicht gesichert wird, muss auch nicht wiederhergestellt werden. Somit verkürzt sich auch die Zeit für die Wiederherstellung der Daten.

Ziel all dieser Methoden ist es, die Leseaktivitäten auf ein Minimum zu beschränken. In einer optimalen Backup-Strategie werden die beiden Technologien – Change Block Tracking und ABM – verknüpft, um die zu sichernde Datenmenge auf ein Minimum zu beschränken. Dies bietet beispielsweise die Backup-Software NetVault Backup oder VRanger von Dell.

Optimierung des Backup-Zieles und des Übertragungsweges

Seit vielen Jahren geht der Trend in der Backup-Strategie zur Sicherung der Backup-Daten auf Festplatte. Diese sind schnell und auch ideal für den nicht sequentiellen Zugriff geeignet. Dabei können die Datenmengen schnell sehr groß werden und so ganze Schränke an Festplatten füllen. Dies gilt vor allem, wenn eine längere Historie an Daten aufgehoben werden muss. Deswegen ist es wichtig, auch die Backup-Daten möglichst auf ein Minimum zu reduzieren. Die Lösung hierfür heißt Deduplizierung der Backup-Daten.

Ähnlich einem Spielzeughaus, das aus Bauklötzen besteht, setzt sich auch der Backup-Datenstrom aus Bauklötzen (sogenannte Chunks) zusammen. Bei der Deduplizierung wird jeder Chunk und jede Farbe nur einmal abgelegt. Dazu wird eine Stückliste und eine Bauanleitung gepflegt, mit der sich dann im Falle der Wiederherstellung aus den Chunks das Spielzeughaus (Backup-Datenstrom) wieder zusammenbauen lässt. Wie hilft das nun bei der Backupgeschwindigkeit?

Bei jedem Backup-Lauf muss der Datenstrom (Spielzeughaus) komplett zum Ziel übertragen werden. Das verursacht Last auf dem Netz und auf dem Backup-Ziel, wo es in Chunks zerlegt wird. Da jedes Bauteil sowieso nur ein einziges Mal auf Disk ablegt wird und sich diese immer wieder wiederholen, stellt sich die Frage, warum diese überhaupt initial übertragen werden sollten. Letztendlich sorgt dies ja nur für hohe Last auf dem Netz, zusätzliche Arbeit und damit langsamere Backups.

Genau dafür wurden spezielle Protokolle entwickelt. Ein Beispiel hierfür ist das Dell RDA (Rapid Data Access) Protokoll. Backup-Software wie Dell vRanger und Dell NetVault können dieses in Verbindung mit Dell DR Appliances nutzen. Hierbei werden seitens der Backup-Software nur noch Bauteile aufs Netz geschickt, die neu und der Dedupe Appliance noch unbekannt sind. Vorteil: Bis zu 95% reduzierter Netzwerkbandbreitenbedarf und Backup-Geschwindigkeiten von bis zu 25 TB/h.

Ultraschnelle Backups für alle

Die hier erwähnten Spezialprotokolle benötigen die korrekte Kombination aus Backup-Software und Backup-to-Disk-Appliance. Was kann man tun, wenn man diese Protokolle nicht hat? Gerade die bei Datenbankadministratoren beliebte Methode der DB-Dumpsicherung auf einen Share nutzt andere Protokolle. Doch genau für die großen Datenmengen bei Datenbanken wäre ein schnelleres Backup und Deduplizierung sehr wichtig.

Glücklicherweise gibt es auch hierfür eine Lösung: Das sogenannte Rapid-NFS- und Rapid-CIFS-Protokoll beschleunigt das Standard-NFS und -CIFS, sobald als Ziel eine Dell Dedupe Appliance eingesetzt wird. Technisch ist dies sehr einfach umzusetzen: Auf dem Quellsystem wird der entsprechende Rapid-CIFS-/-NFS-Treiber installiert. Baut das Quellsystem nun eine Verbindung per CIFS/NFS zum Zielstorage auf, so wird der Datentransfer optimiert. Es werden nur die neuen Chunks übertragen, aber keine Duplikate. Über diesen Ansatz kann also jedes Backup, jeder Dump und jede Kopie, die auf einen CIFS-/NFS-Share schreiben, optimiert und beschleunigt werden. Vorteil auch hier: Bis zu 95% reduzierter Netzwerkbandbreitenbedarf und Backup-Geschwindigkeiten von bis zu 25 TB/h.

Fazit

Die optimale Backup-Strategie hängt in erster Linie aber von den Anforderungen des Unternehmens ab. Welche Daten sind wie wichtig? Wie schnell müssen die Daten nach einem Ausfall wieder verfügbar sein? Diese Fragen müssen die IT-Verantwortlichen gemeinsam mit den Geschäftsbereichen klären. Grundvoraussetzung für eine Optimierung der Backup-Laufzeit ist eine genaue Analyse von Backup-Quelle, -Ziel und Übertragungsweg. Der Weg zum "ultraschnellen  Backup" führt über die Optimierung der Übertragung. Spezialprotokolle wie Rapid-CIFS, RAPID-NFS und Dell RDA können hier oftmals eine deutliche Reduzierung der Backup-Laufzeiten bewirken.

Autor
Das könnte Sie auch interessieren

Neuen Kommentar schreiben

Kommentare (0)