Go to Top

Neue Technologien in Windows Server 2016: Besser für die Datenrettung oder nicht? Teil 1

Windows Server

Microsoft hat gerade vor ein paar Wochen die finale Windows Server 2016 Version veröffentlicht. Diese ist in drei Geschmacksrichtungen erhältlich: Windows Server 2016 Standard für ein physisches (oder minimal virtualisiertes) Rechenzentrum, Windows Server 2016 Datacenter für ein extrem virtualisiertes Rechenzentrum und Cloud-Umgebungen sowie Windows Server 2016 Essentials für kleine Unternehmen mit maximal 25 Benutzern und 50 Geräten. Zusätzlich zu diesem Betriebssystem hat Microsoft auch zwei Versionen des Windows Storage Server 2016 auf den Markt gebracht. Allerdings sind diese Versionen ausschließlich für den Einsatz in ausgewählter Hardware gedacht und mit dieser „gebundelt“.

Microsoft behauptet, Windows Server 2016 sei die Grundlage einer Technologie für die Zukunft. Experten sagen außerdem, dass es viele Vorteile bietet, die Unternehmen davon überzeugen  könnten, zu dem neuen System zu wechseln. In Windows Server 2016 werden beispielsweise neue Sicherheitsschichten implementiert, die Bedrohungen für die vorhandene IT-Struktur besser erkennen und verteidigen sollen. Mehr Flexibilität und Stabilität wird durch die Bereitstellung virtueller Umgebungen auf Basis von HyperV versprochen. Mit einem neuen Network Stack bietet Windows Server 2016 eine vollständig integrierte Basis-Netzwerkfunktionalität sowie die SDN-Architektur von Microsoft Azure. Zusätzlich basiert das neue Server-Betriebssystem auf dem SDS-Konzept (Software defined Storage), das den Vorteil hat, dass der Speicherbedarf und neu benötigter Speicher einfach innerhalb der gesamten Serverstruktur festgelegt und hinzugefügt werden kann. Version 2016 bietet verschiedene Werkzeuge für das dynamische Management von Computern, Netzwerken, Speicher und Sicherheit. Und last but not least: Windows Server 2016 verspricht mit der neuen Version mehr Fehlertoleranz. Microsoft behauptet: “Wenn Hardware ausfällt, tauschen Sie sie einfach aus; Die Software heilt sich selbständig, ohne komplizierte Management-Schritte”.

Wenn also das Server-Betriebssystem so gut ist, warum sollte man überhaupt darüber nachdenken es nicht zu nutzen? Nun zumindest einige Punkte sollten vor einem Einsatz beachtet werden. Und weil wir von einer Datenrettungsperspektive auf das neue System schauen, wollen wir uns auf einige neue Technologien konzentrieren, die einen Einfluss auf Datenverlust und eine spätere erfolgreiche Datenrettung haben könnten: Dabei handelt es sich um das Resilient File System (ReFS) in seiner neuen Version 3 sowie das Konzept von Storage Spaces Direct – dem Nachfolger von Storage Spaces, der erstmals in Windows Server 2012 eingeführt wurde. Aber fangen wir erstmal mit ReFS an:

ReFS (Resilient File System): Verbesserung oder am Ende große Herausforderung?

Mit der neuen Version von Microsofts neuem Dateisystem – ReFS Version 3 – wird in Windows Server 2016 eine neue Herausforderung sowohl für die Anwender als auch für Datenrettungsexperten geschaffen: Es gibt nicht viele Experten weltweit, die das nötige Wissen haben, um verlorene Daten wiederherzustellen, die in diesem neuen Dateisystem gespeichert sind. ReFS – oder Resilient File System – ist eine proprietäre Technologie, was bedeutet, dass Microsoft die Spezifikationen von ReFS nicht offengelegt hat und dass es somit eine Menge Reverse Engineering durchzuführen ist, um das Dateisystem zu analysieren und geeignete Werkzeuge für die Wiederherstellung der darin enthaltenen Daten zu entwickeln.

ReFS wurde eingeführt, um große Datenmengen zu sichern zu speichern. Denken Sie daran: Es ist ein Dateisystem, um Daten zu speichern, nicht, um ein Betriebssystem darauf laufen zu lassen. Es ist für den Einsatz in Systemen mit großen Datensätzen ausgelegt und sorgt so für eine effiziente Skalierbarkeit und Verfügbarkeit im Vergleich zu dem Vorgänger NTFS (New Technology File System). Datenintegrität ist dabei eine der wichtigsten Funktionen, die der neuen Technologie hinzugefügt wurde, so dass geschäftskritische Daten vor gängigen Fehlern, die Datenverlust verursachen können, geschützt werden. Wenn ein Systemfehler auftritt, kann sich ReFS ohne Risiko von Datenverlust und auch ohne Beeinträchtigung der Volumenverfügbarkeit wieder erholen. Ein weiteres Problem, das mit dieser Technologie adressiert wurde, ist Mediendegradation, damit kann Datenverlust verhindert weren, wenn ein Datenträger verschleißt.

Einer der Hauptvorteile bei der Verwendung von ReFS in Windows Server 2016 ist, dass das System automatisch Prüfsummen (checksums) für die Metadaten erstellt, die auf einem Volume erstellt wurden. Jegliche Unterschiede bei den Prüfsummen führen zu einer automatischen Reparatur der Metadaten. Ein weiteres richtig nützliches Feature ist, dass Nutzer-Daten gegen Ausfall ebenfalls durch die Kombination mit Prüfsummen-Abfragen geschützt werden können. Wenn eine falsche Prüfsumme gefunden wird, wird die Datei repariert. Diese Funktion heißt Integrity Stream. Diese Sicherheitsfunktion kann für das gesamte Volume, für einen bestimmten Ordner oder für einzelne Dateien aktiviert werden.

Microsoft behauptet, dass “Wenn ReFS in Verbindung mit einem „Mirror“ oder einem „Parity“ (siehe unten) verwendet wird, können erkannte Korrumpierungen – sowohl Metadaten als auch Benutzerdaten, wenn Integritätsströme aktiviert werden – automatisch mit der alternativen Kopie, die von den Speicherbereichen / Storage Spaces bereitgestellt wird, repariert werden.” Und Microsoft fügt hinzu: “Wenn Korrumpierungen auftreten, kann mit ReFS der Reparaturprozess sowohl auf den lokalen Bereich angewendet, als auch online durchgeführt werden und erfordert keine Ausfallzeiten. Wenn ein Volume beschädigt wird oder kein Mirror oder Parity verwendet wurde, implementiert ReFS Salvage – eine Funktion, die die beschädigten Daten aus dem Namespace eines Live-Volumes entfernt und sicherstellt, dass „gute“ Daten nicht durch nicht reparierbare korrumpierte Daten beeinträchtigt werden.” Was Microsoft also damit meint, ist nichts anderes, als dass sie hiermit eine Selbst-Heilungsfunktion für korrumpierte Daten und Dateien integriert haben.

Die Struktur, die verwendet wird, funktioniert wie eine Datenbank, so dass es im Falle einer Datenrettung völlig anders ist, als eine NTFS-Wiederherstellung, die eine flache Metadaten-Tabelle verwendet. Um Daten zu finden, müssen Datenrettungsexperten ReFS wie eine Datenbank durchforsten, Tabellen öffnen, die einen anderen Satz Tabellen enthalten.

Ein weiteres Problem, das ziemlich schwierig sein kann, wenn es um Datenrettung geht, sind die neuen ReFS-Datei- und Volume-Größen. Eine einzelne Datei auf einem Volume kann 16 Exabyte (das sind 16 Millionen Terabyte!!!) haben und ein ReFS-Volume kann ein Yottabyte (ja, das ist eine Billion Terabyte) groß werden. Wenn man das bedenkt, wird es ganz klar, dass dieser enorme Speicherplatz auch die Gefahr dieser Technologie ist, wenn es um eine spätere Datenrettung geht. Stellen Sie sich nur eine einzige beschädigte Datei vor, die 16 Millionen Terabyte groß ist, die wiederhergestellt werden soll. Oder das gesamte Dateisystem ist kaputt gegangen und es enthält „Tonnen“ dieser großen Volumes, dann wird offensichtlich, dass  eine Datenrettung nicht nur schwierig wird, sondern auch sehr, sehr zeitaufwändig.

Nachdem wir nun die Auswirkungen von ReFS auf die Datenstruktur in Windows Server und Datenrettung erläutert haben, werden wir uns im zweiten Teil dieses Artikels auf die zweite wichtige technologische Weiterentwicklung des neuen Betriebssystems – Storage Spaces Direct – konzentrieren.

Bildnachweis: Screenshot Microsoft Windows Server 2016