Datenrettung ist eine extrem komplexe Aufgabe für Experten

Man muss schon lange suchen, um jemanden zu finden, der noch nie einen Datenverlust zu beklagen hatte. Jeder kennt das flaue Gefühl, wenn ein Stromausfall oder ein Absturz des Computers das nicht-gespeicherte Word-Dokument ins Nirwana schickt oder wenn eine Internetverbindung abreißt und ein Formular auf einer Webseite plötzlich komplett leer ist.

Datenverlust ist aber auch eine Geißel der Geschäftswelt. Laut EMCs jüngstem Globalen Data Protection Index (1), der im vergangenen  Dezember veröffentlicht wurde, mussten Unternehmen allein 2014 als Folge von Datenverlust und Ausfallzeiten tief in die Tasche greifen: Auf 1,7 Billionen US-$ wird der Schaden geschätzt. Eine typische Firma verlor dabei rund 2,33 Terabyte an Daten - das Äquivalent von circa 24 Millionen E-Mails und eine Steigerung des Datenverlusts um 400 Prozent gegenüber dem Jahr 2012. Selbst wenn es sich hierbei um größere Firmen handelt, Datenverlust kann jeden treffen. Konzerne genauso wie kleine und mittelständische Firmen und Privatpersonen.

Richtiges Verhalten beim Datenverlust

Was also tun, wenn man von einem Datenverlust betroffen ist? In jedem Fall gilt: Nicht in Panik geraten und versuchen, ohne fundiertes Wissen die Daten selbständig wiederherzustellen. Je ruhiger man das Problem angeht und die möglichen Optionen durchdenkt, desto besser. Wenn man sich als Laie oder auch als fortgeschrittener Computernutzer an einer Datenrettung versucht, besteht das große Risiko, dass man die verlorenen Daten endgültig zerstört.

Versucht man als Nutzer beispielsweise eine Festplatte, die einen mechanischen Schaden durch Herunterfallen erlitten hat und dies durch laute Klick-Geräusche auch deutlich kundtut, immer wieder durch das Betriebssystem anzusprechen, macht man mit hoher Wahrscheinlichkeit die eigentliche Magnetscheibe  endgültig kaputt, da der defekteLese- und Schreibkopf immer wieder über die Platte schleift . Eine Rettung der Daten an dieser Stelle ist dann gänzlich ausgeschlossen. Das gleiche gilt, wenn Nutzer versuchen, mit kostenloser Rettungssoftware aus dem Internet verlorene Daten wiederherzustellen. Das kann zwar gut gehen, aber wenn nicht, dann sind die Daten auf jeden Fall verloren, denn die Software überschreibt oftmals die verlorenen Daten und diese sind dann nicht mehr wiederherzustellen.

Flash-NAND und SSDs – komplexe elektronische Speicherbausteine

In vielen Fällen können die Anwender die Daten selbst beim besten Willen und mit dem vorhandenen Knowhow nicht wiederherstellen. Das ist nicht nur bei mechanischen Defekten wie z.B. einem Headcrash einer Festplatte so – der Nutzer hat weder einen nach  ISO 5/Klasse 100 zertifizierten Reinraumarbeitsplatz und die notwendige Ausrüstung noch die passenden Ersatzteile zur Verfügung – sondern gerade auch bei den Flash-NAND-basierten Speichern. Hier zeigt unsere Erfahrung, dass die superschnellen Speicher eben nicht nur nach dem Ablauf ihrer Lebensdauer ausfallen, sondern vermehrt auch aufgrund defekter Controller. Diese wieder zum Laufen zu bringen und damit wieder auf Daten zugreifen zu können, erfordert großes Expertenwissen.

RAID-Systeme können ausfallen

Bei der Datenspeicherung auf Festplatten-basierten Server- oder Storage-Systemen hat sich seit längerem der Einsatz von RAID-Systemen durchgesetzt. Egal ob RAID 0, 1, 5 oder 6, der Einsatz der Technologie hat neben seinen unbestreitbaren Vorteilen – verbesserte Ausfallsicherheit und Auslastung des Speicherplatzes – auch seine Tücken. Nämlich dann, wenn das gesamte System doch mal ausfällt und wichtige unternehmenskritische Daten wiederhergestellt werden müssen. Das kann beispielsweise dann passieren, wenn ein RAID-Controller oder die immer populärer werdende rein Software basierte Variante ausfällt, der Festplatten-Verbund nach einem Server-Neustart durch fehlerhafte Initialisierung „verloren“ geht oder mehrere Festplatten gleichzeitig ausfallen. Diese Fälle  kommen nicht selten vor und der damit verbundene Aufwand, gespeicherte Dateien wiederherzustellen, ist alles andere als trivial.

Häufig werden von den Administratoren RAID-Recovery-Bordmittel zum falschen Zeitpunkt eingesetzt. So wird nach einem Plattenausfall das RAID versehentlich neu initialisiert, wo eigentlich ein Rebuild auf der Agenda stünde. Gefährlich ist die fehlerhafte Neuinitialisierung deshalb, weil die neue Parity unter Missachtung der alten Parity neu geschrieben wird, und das teilweise in einer anderen Reihenfolge, anstatt aus den verbliebenen guten Festplatten die fehlende Festplatte auf der neuen Ersatzfestplatte wieder aufzubauen. Denn unter einer Parity versteht man die sogenannte RAID-Fehlerkorrektur, mit der man den Inhalt einer oder mehrerer ausgefallener Festplatte wiederherstellen kann. Bei der Initialisierung werden die eigentlichen Nutzdatenbereiche zunächst überschrieben und die vorhandenen kostbaren Daten sind für immer verloren.

Virtuelle Systeme schützen auch nicht vor Datenverlust

Spannend wird es für Administratoren auch bei einem Ausfall einer oder mehrerer virtueller Systeme. Denn auch bei der Virtualisierung sind überwiegend RAIDs im Einsatz. Unabhängig von der Hardware verteilt diese Technologie die Informationen über viele Festplatten. Einzelfestplatten werden zu LUNs zusammengeschaltet und die Daten nach RAID Prinzipien darauf verteilt. Aber auch ein solcher hardwareunabhängiger RAID Verbund unterliegt dabei den allgemeinen Ausfallrisiken des RAID Prinzips. Diese Gefahr wird oft unterschätzt und Backups fehlen oft komplett oder befinden sich bei heutigen Backup to Disk Varianten auf dem gleichen Array und stehen im Ernstfall ebenfalls nicht zur Verfügung.

Und das Einsatzgebiet wird immer größer: So geht der neueste Trend dazu über auch Storage-Systeme zu virtualisieren.

Beim Einsatz der Virtualisierung wird die Komplexität nochmals deutlich verschärft: Bei einem Virtual Storage System wie beispielsweise einem VSAN System von VMware werden Applikationen oder Dateien, die in virtuellen Maschinen gespeichert wurden, in einem gemeinsam geclusterten Shared Storage Datastore zusammengefasst. Jeder angebundene Hostrechner mit seinen Festplatten ist Teil dieses gemeinsamen Datastores. Um die Ausfallsicherheit zu erhöhen, lässt sich auf der  Virtual Storage Ebene einstellen, wie die einzelnen Hostrechner abgesichert werden sollen. Abhängig von der Anzahl der eingesetzten Hosts werden von dem Original-Host und seinen Daten auf anderen Hosts sowohl komplette Kopien als auch Verweise (Witness) erstellt, aus denen sich bei einem Ausfall eines Hosts dieser wiederherstellen lässt. Dabei gilt: Je mehr Hosts desto mehr Original-Hosts können ausfallen.

Bei einem Datenverlust bedeutet das für unsere Datenrettungs-Ingenieure, dass sie sich neben den normalen virtuellen Maschinen und den darin eingebetteten Daten mit einer zusätzlichen Informationsebene beschäftigen müssen. Und die Praxis zeigt: Auch ein virtuelles Storage schützt die Verantwortlichen nicht vor Datenverlust, selbst wenn das die Werbung der Hersteller suggeriert.

Fazit: Im Falle von Datenverlust lieber gleich die Experten einschalten

Es zeigt sich: Je komplexer die eingesetzte Technologie, desto komplexer ist auch die spätere Datenrettung! Trotzdem sollte der Anwender, wenn er auf wichtige Daten scheinbar nicht mehr zurückgreifen kann, nicht in Panik auszubrechen. Wer das Problem mit professioneller Hilfe schnell angeht, kann sich gute Hoffnungen auf eine Wiederherstellung machen. Diese ist in mehr als Dreiviertel aller Fälle möglich. Wichtig ist nur, sich für einen professionellen Partner zu entscheiden, diesen zu beauftragen  und keine eigenen Selbstversuche zu starten. Im Falle von Datenverlusten bietet Kroll Ontrack dabei vor der eigentlichen Datenrettung eine Diagnose an. Der Fall wird hierbei analysiert und der Schaden evaluiert. Danach erhält der Kunde einen übersichtlichen Datei-Report (Verifile Report), der zeigt, welche Daten wiederherstellbar sind und welche nicht. Erst danach entscheidet er, ob er die Datenrettung beauftragt. Dadurch wird schnell und mit überschaubaren Kosten klar, ob sich eine Datenrettung auch wirklich lohnt.

Aber eines ist klar: Man hat bei der Datenrettung meist nur eine einzige Chance und diese sollte man den Profis überlassen.

Peter Böhret, Managing Director Kroll Ontrack GmbH