SSD oder Festplatte

Wo sind meine Daten sicherer?

Speicherplatten sollen schnell sein und große Mengen an Daten aufnehmen. Große Speicher sind für Datenverluste anfälliger.

Die Datendichte von Festplatten steigt immer weiter an. Erst im Februar 2016 präsentierte Hersteller Seagate mit der ST2000LM009 die erste 2.5-Zoll-Festplatte mit nur 7 mm Bauhöhe und einer Datendichte von 1 TB pro Magnetscheibe.

Betrachtet man die Entwicklung der stetig steigenden Datendichte bei Festplatten über die letzten Jahre genauer, so wird ersichtlich, dass man es erfolgreich geschafft hat, Spuren und Sektoren stärker zu miniaturisieren, sie beispielsweise im Rahmen von Shingled Magnetic Recording enger anzuordnen.

Was dabei leider häufig übersehen wird, ist die Tatsache, dass sich das Verhältnis der Datendichte zur physikalischen Größe bzw. Fläche einer Schreib-Leseeinheit ungleich proportional entwickelt hat. Dies hat Folgen, denn bei einem Headcrash der Festplatte - also einer Berührung der über den Magnetscheiben schwebenden Köpfe mit der rotierenden Oberfläche - wird dadurch eine höhere Anzahl von Sektoren beschädigt als es bei einer geringeren Datendichte der Fall wäre.

Glaubt man einer Studie zu helium-befüllten Festplatten des Herstellers Hitachi / HGST aus dem Jahr 2013/ 2014, dann besteht eine Korrelation zwischen den unterschiedlichen Bauformen von Festplatten wie 5.25 Zoll / 3.5 Zoll / 2.5 Zoll und der durchschnittlichen Lebensdauer, die sich in den letzten Jahren gemäß dieser Studie immer weiter verkürzt haben soll.

Lässt sich daraus ableiten, dass eine SSD die bessere Wahl wäre?

Anwender sollten sich stets vor Augen halten, dass Festplatten mit einer hohen Speicherkapazität immer anfälliger für potentielle Datenverluste werden, sei es aufgrund von Erschütterungen oder aufgrund von Materialverschleiß oder durch im Zuge der Zeit entstehende defekte Sektoren.

Nur wenige Anwender sind dabei in der Regel von einem direkten Datenverlust betroffen, etwa dass die Festplatte von einem Tag auf den anderen nicht mehr erkannt wird oder die Platte versehentlich vom Tisch fällt und danach nicht mehr funktioniert.

Die meisten Anwender sehen sich mit sehr viel allgemeineren Problemen mit Festplatten konfrontiert, beispielsweise Symptomen, die vor einem Festplattenausfall auftreten können:

Im direkten Vergleich zu Solid-State-Disks ist dies ein Vorteil, denn so hat der Nutzer oft noch ausreichend Zeit für Maßnahmen, die dazu beitragen, die wichtigsten Daten vom angeschlagenen Datenträger herunterzukopieren.

Bei SSDs treten solche oder ähnliche Symptome kaum auf, da SSDs ein grundsätzlich anderes Speicherprinzip verfolgen. Hier passieren Ausfälle oftmals von jetzt auf gleich. "Gestern Abend lief mein Ultrabook noch, und als ich es heute morgen angeschaltet habe, erschien die Meldung "No Boot device found." Dies sind exemplarische Fehlerbeschreibungen von SSD-Ausfällen, mit denen wir uns bei unserer Arbeit sehr häufig konfrontiert sehen.


Sind also Festplatten sicherer als SSD?

Betrachtet man die Worst-Case-Szenarien eines Ausfalls und durch welche Symptome sich diese im Vorfeld ankündigen, spricht vieles eher für eine konventionelle Festplatte als für eine SSD. Ändert man die Perspektive hingegen in Richtung Performance und Handling, spricht vieles für eine SSD, da sie schneller ist und keine mechanischen Bauteile hat. Jedoch sind gerade diese vermeintlichen Vorteile bei Ausfallsymptomen von SSDs im Vorfeld auch nachteilig.

Was ist also besser? Darauf gibt es leider keine universelle Antwort. Um gar nicht erst in die Verlegenheit zu kommen, sich darüber großartig Gedanken machen zu müssen, sollte man eine persönliche Backup-Strategie entwickeln, die die eigenen Bedürfnisse bestmöglich abdeckt. Die Möglichkeiten, dies komplett zu automatisieren und mit Cloud-Speichern, externen Festplatten oder Netzlaufwerken zu synchronisieren, sind so vielfältig wie nie zuvor. Dies lässt sich sowohl kommerziell als auch kostenlos bewerkstelligen. Die Möglichkeiten stehen jedem zur Verfügung, doch nicht jeder nutzt sie.

Vielleicht liegt das in der Natur des Menschen, denn er will glauben und dem vertrauen, was man ihm verspricht. Hersteller versprechen viel, manchmal auch zu viel, und nur zu häufig werden unsere Interessen hierbei falsch fokussiert:

Das passt nicht zusammen. Die Dinge sind in den letzten Jahren oberflächlich vielleicht einfacher geworden sind, technologisch jedoch wesentlich komplizierter. So liegen Daten beispielsweise hardwareverschlüsselt in NAND-Flash-Speichern von SSDs, Speicherkarten und USB-Sticks - ohne dass der Nutzer es weiß oder je eine Verschlüsselung gesetzt hat. Es ist eine technologische Zwangsläufigkeit des Produkts.

Warum ist das so und wieso sind bei einigen SSD-Herstellern nach einem Ausfall die Daten zu retten, bei anderen wiederum nicht? Wieso werden Daten von SSD-Controllern AES 256 Bit verschlüsselt im NAND abgelegt, sind dabei im funktionellen Zustand problemlos einsehbar, im defekten Zustand aber nicht zu retten, weil der Schlüssel einzigartig ist und nur im ausgefallenen Controller liegt?

Verschlüsselung ist kein Spaß, sondern bedeutet Verantwortung

Was damit angedeutet werden soll: Je sicherer wir uns fühlen, desto stärker laufen wir Gefahr, unsere Daten innerhalb von Worst-Case-Szenarien - gerade aufgrund dieser Sicherheit - komplett zu verlieren. Eine verschlüsselte True-Crypt- oder Vera-Crypt-Partition / Container, die / der auf einer heruntergefallenen Festplatte liegt, bedingt eines für die Rettung: möglichst komplette Unversehrtheit aller Sektoren, auf denen sich diese(r) Partition / Container befindet, sonst wird es schwierig bis unmöglich, diese Daten zu rekonstruieren.

Jeder sollte selbst entscheiden, ob er seine Daten verschlüsseln will oder nicht. Er sollte sich aber auch die Konsequenzen bei einem Ausfall des Datenspeichers vor Augen halten. Insbesondere verschlüsselte Daten sollten regelmäßig gesichert werden. Gerade im Hinblick auf die stetig zunehmende Datendichte in den kommenden Jahren wird dies immer wichtiger.

(Macwelt/ad)