Go to Top

Wer kann´s besser? SSD oder magnetische Festplatte?

Der direkte Vergleich zwischen magnetischen Festplatten (HDD) und Solid State Disks (SSD) ergibt einen klaren Sieger: die neue SSD, die ohne bewegliche Bauteile sehr viel schneller zu Werke geht. Wer aber Ausfallwahrscheinlichkeit, Lebensdauer die Möglichkeit der Datenrettung nach einem Ausfall ansieht, bekommt ein anderes Bild.

Die erste magnetische Festplatte wurde schon 1956 gebaut, wog eine Tonne und hatte eine Speicherkapazität von gerade 5 MB – die Entwicklung ist hier klar zu erkennen. Die Anforderungen stiegen, die Kapazität wuchs und die Größe schrumpfte. Die Zuverlässigkeit der HDD ist heutzutage als sehr hoch anzusehen.

Die Geschichte der SSD beginnt in den Neunzigern als militärisches Produkt, zur Marktreife gelangte das Speichermedium erst 2006/2007. Die heutigen Kapazitäten liegen bei mehr als 2 TB, die Preise allerdings sind immer noch deutlich höher als bei mechanischen Festplatten.

Die Architektur beider Festplattensysteme unterscheidet sich stark voneinander. Mechanische Festplatten speichern die Daten auf ein bis fünf Magnetscheiben (Stack). Diese werden von Schreib-Leseköpfen ausgelesen oder beschrieben. Die Rotationsgeschwindigkeit des Stack liegt heute bei 7.200 Umdrehungen pro Minute, bei Servern können es sogar 15.000 Umdrehungen pro Minute sein. Durch die Rotation der Magnetscheiben wird ein dünnes Luftpolster gebildet, auf dem die Schreib-/Leseköpfe schweben. Daher können Stürze oder Erschütterungen schwere Schäden an den Datenträgern verursachen. Sogar Luftdruckveränderungen können negative Auswirkungen auf das dünne Polster aus Luft haben; im Hochgebirge kann es vorkommen, dass das Polster nicht mehr ausreicht und die Köpfe auf den Datenträger aufschlagen. Der klassische Headcrash ist die Auswirkung.

Hier könnte die SSD als probates Hilfsmittel zum Einsatz kommen, ohne bewegliche Komponenten ist ein Headcrash ausgeschlossen. Aber die nicht vorhandene Mechanik einer SSD garantiert längst keine Ausfallsicherheit.

Die wichtigsten Komponenten einer SSD sind der Controller und die Speichereinheiten (NAND-Flash), wobei es gibt eine große Zahl an Anbietern von Controllern und NAND-Bausteinen gibt. Unterschiedliche Controller verwenden aber auch unterschiedliche Algorithmen – und SSD-Hersteller wechseln während des Produktionszyklus nicht selten Controller und Speicherbausteine. Bei der HDD sind die exakt baugleichen Komponenten innerhalb einer Modellreihe der Garant für hohe Erfolgsraten bei der Datenrettung, bei der SSD kann der Rettungsversuch aufgrund der fehlenden Konsequenz im Einsatz der installierten Bauteile fehlschlagen, da in der Regel auch keine Dokumentation über die eingesetzten Algorithmen vorhanden ist.

Die zweite wesentliche Komponente einer SSD sind die Speicherbausteine, von denen bis zu 64 Stück verbaut sind. Die Kombination und die Qualität der Controller und der Speicherbausteine sind mit verantwortlich für die Geschwindigkeit der SSD – und für ihre Zuverlässigkeit. In Forschung und Entwicklung investieren Datenretter daher eine Menge Zeit, vor allem ins Reverse Engineering, der „Nachkonstruktion“ der Algorithmen von am Markt gehandelten Controllern. Auch der Aufbau der verwendeten Speicherchips wird genauestens untersucht. Für die physikalische Datenrettung bedeutet das, dass der Aufwand bei herkömmlichen Festplatten normalerweise deutlich geringer ist als bei SSDs.

Die logische Datenrettung zeigt ebenfalls große Unterschiede zwischen herkömmlichen Festplatten und SSDs, wobei auch hier die SSD schlechter abschneidet. Denn mit dem Auslesen der Daten ist es nicht getan, da bei der SSD die Daten wie Puzzlestücke vorliegen. Das korrekte Zusammenbauen des Datenpuzzles ist extrem zeitaufwendig.

Aus forensischer Sicht gesehen ist die SSD allerdings im Vorteil. Vollständiges Löschen der Daten ist deutlich schwieriger als bei herkömmlichen Festplatten. Aufgrund des eingesetzten Wear-Leveling-Algorithmus kann es sein, dass vor allem die aktuellsten Daten trotz mehrmaliger Versuche nicht gelöscht werden.

Eine große Problematik für den professionellen Datenretter ergibt sich aus der inzwischen häufig eingesetzten selbstständigen Verschlüsselung der Rohdaten auf der SSD. Häufig erfolgt die vom Controller durchgeführte Verschlüsselung ohne Wissen oder Zutun des Anwenders – er wird nicht einmal der Einrichtung eines Passwortschutzes gefragt. Ohne Passwort kann aber jeder die Daten auslesen. Bei Problemen mit der Festplatte – Beschädigung des Controllers oder Firmwarefehler – gibt es dagegen unter Umständen keine Möglichkeit mehr, an die Daten zu gelangen – und nicht einmal professionelle Datenretter können helfen. Warum die Plattenhersteller mehr und mehr auf diese Art der Verschlüsselung zurückgreifen, ist deren Geheimnis, ein wirklicher Nutzen ist momentan nicht zu erkennen.

Ein Datenverlust kann immer passieren – sowohl mit einer herkömmlichen Festplatte als auch mit einer SSD. Pluspunkte kann die SSD aufgrund ihrer Unempfindlichkeit gegen Erschütterungen, schwankenden Luftverhältnissen oder permanenten Vibrationen sammeln. Der Aufwand für die Rekonstruktion der Daten nach einem Notfall ist allerdings viel höher als bei klassischen Festplatten – vor allem, wenn in der SSD viele Speicherchips verbaut sind. Die Algorithmen heutiger SSD-Controllern besitzen eine hohe Fehleranfälligkeit, daher müssen sich IT-Entscheider genau überlegen, wo SSDs vernünftig eingesetzt werden können und wo (noch) der guten alten mechanischen Festplatte der Vorzug gegeben werden sollte. Und er sollte sich immer um ein funktionsfähiges Backup bemühen.

Bildquelle: Rochellesinger / wikipedia