HDD, SSD, RAID, Datenrettung

Trügerische Storage-Sicherheit - wo die Fallen lauern

13.11.2012 von Doris Loster
Speichersysteme aus Festplatte oder SSD sind trotz Technologien wie RAID oder Fehlerkorrektur nicht unfehlbar und die Risiken eines Defektes vielfältig. Tritt ein Schaden auf und ein Backup fehlt, ist eine schnelle Lösung erforderlich. In solchen Fällen sind professionelle Datenretter mit Expertise gefragt.

Treten in einem Unternehmen Defekte an Speichermedien auf, wird es ernst. In solchen Fällen sind die Administratoren der IT-Systeme zu konsultieren, um schnell eine Lösung zu finden und einen drohenden Datenverlust zu verhindern. Denn schon wenn wichtige Daten nur für eine kurze Zeit nicht abrufbar sind, kann dies für Unternehmen einen Imageverlust und wirtschaftliche Schäden nach sich ziehen. Im schlimmsten Fall kann der Verlust wichtiger Daten sogar zum Konkurs der Firma führen.

Bildgalerie: Datenrettung
Datenrettung
Notebook heruntergefallen.
Datenrettung
Notebook nach Brandschaden.
Datenrettung
Reinraum in der Praxis.
Datenrettung
Analyse einer Festplatte.
Datenrettung
Reinraum mit Messtechnik.
Datenrettung
Geöffnete Festplatte
Datenrettung
Festplatte unter Wasser.
Datenrettung
Crash einer Festplatte.
Datenrettung
Details einer beschädigten Festplatte.
Datenrettung
Details einer beschädigten Festplatte.
Datenrettung
Festplattenköpfe.
Datenrettung
Headcrash nach Wasserschaden.
Datenrettung
Festplatte nach Brandschaden.
Datenrettung
Entfernen eiens Festplattenchips.
Datenrettung
Notebook nach Brandschaden
Datenrettung
Defektes Notebook.
Datenrettung
Ersatzteillager.
Datenrettung
Wenn die Festplatte zu heiß wird.
Datenrettung
Die Analyse einer Festplatte erfolgt im Reinraum mit entsprechnden Werkzeugen..

Weitere Konsequenzen drohen von juristischer Seite, da für Unternehmen die rechtliche Pflicht besteht, bestimmte Daten aufzubewahren. Deshalb müssen Administratoren bei technischen Problemen besonnen vorgehen und "Schnellschüsse" vermeiden. Im Notfall sollten sie einen Experten für Datenrettung konsultieren. Wir erklären, wo bei Speichersystemen wie etwa SSD und RAID die Fallen lauern und wie professionelle Hilfe durch Datenretter aussehen sollte.

Sichere Storage-Systeme gibt es nicht

Es gibt kein Speichersystem, das hundertprozentig vor Datenverlust schützt. Egal, ob ein Unternehmen seine Daten auf herkömmlichen Festplatten oder auf den modernen Solid State Disks (SSDs) sichert - beide haben ihre Schwachstellen. Festplatten sind beispielsweise besonders empfindlich, da sie aus vielen mechanischen Einzelteilen bestehen. Durch Erschütterungen etwa kann es passieren, dass der Lese- und Schreibkopf die Oberfläche der Magnetscheibe berührt und den Datenträger dabei beschädigt.

Innereien: Wenn eine Festplatte im Inneren so aussieht, ist eine herkömmliche Datenrettung nicht mehr möglich.
Foto: Attingo

SSDs bieten im Vergleich dazu den Vorteil, dass sie kompakter gebaut sind. Sie bestehen nicht aus beweglichen Teilen, sondern aus Flash-Speicherbausteinen. Deshalb verbrauchen sie auch weniger Strom und arbeiten lautlos. Defekte werden durch diese Bauweise allerdings nicht ausgeschlossen: Bei SSD können Haarrisse in Platinen zum Beispiel durch heftige Erschütterungen entstehen. Auch die Kontakte sind empfindlich und werden bei einem Sturz leicht beschädigt. Vor äußeren Einflüssen ist zudem kein Speichersystem gefeit. Durch Überhitzung durch Blitzschlag oder Eindringen von Wasser können beispielsweise bei Speichermedien aller Art schwere Schäden entstehen; mit herkömmlichen Mitteln (Tools) lassen sich die gespeicherten Daten nicht mehr retten.

Geringe Haltbarkeit bei Flash-Speichern

Ein weiteres Problem besonders bei SSDs ist die begrenzte Lebensdauer der eingebauten Flash-Speichereinheiten. Diese beträgt, je nach Herstellerangaben und Speicherzellen-Typ (MLC oder SLC), zwischen 10.000 und 100.000 Schreibvorgängen. Um Verschleiß vorzubeugen und so die Lebensdauer zu verlängern, verwenden SSDs das "Wear-Levelling"-Verfahren. Dabei verteilt der SSD-Controller die Daten gleichmäßig auf alle Speicherzellen des Mediums. Dies verhindert, dass etwa einzelne Speicherblöcke durch häufiges Löschen und Wiederbeschreiben zu stark beansprucht werden und dadurch schneller verschleißen.

Zusätzlich stehen noch Reserveblöcke zur Verfügung, auf die bei Ausfall einzelner Speicherzellen zunächst zurückgegriffen wird. Trotz dieser lebensverlängernden Maßnahmen können SSD mit Flash-Speicherbausteine eine geringere Haltbarkeit haben als etwa moderne Festplatten. Dies macht sie für Datenverlust anfällig.

RAID-Systeme sind nicht unfehlbar

Auch in einem RAID-System, also einem Verbund aus mehreren Speichermedien, können schwere Defekte auftreten. RAID-Systeme bieten im Allgemeinen den großen Vorteil, dass Unternehmen damit bei relativ geringen Kosten eine hohe Speicherkapazität erreichen. Die meisten RAID-Systeme, mit Ausnahme von RAID-0, speichern außerdem redundante Daten. Dies erhöht die Wahrscheinlichkeit, dass bei Defekten auf einzelnen Festplatten im Verbund die Daten gerettet werden können. Das weitverbreitete RAID-5-Verfahren beispielsweise ermöglicht die Wiederherstellung von Daten auch dann, wenn eine der Festplatten im Verbund komplett ausfällt. Für den Rebuild, also den Wiederherstellungsvorgang, werden vom RAID-Controller sogenannte Parity-Daten beansprucht. Diese sind in einem RAID-5-System auf mehreren Speichermedien verteilt. Bei einem Defekt auf einer einzelnen Festplatte ist der Rebuild also nicht unmittelbar gefährdet.

Doch RAID-Systeme haben ebenfalls ihre Tücken und schützen die Anwender nicht grundsätzlich davor, dass Daten verloren gehen. Physikalische Schäden können auch auf mehreren Festplatten gleichzeitig auftreten, beispielsweise durch Blitzschlag. Auch das RAID-6-Verfahren, das sogar den Ausfall von zwei Festplatten verkraftet, ist davor nicht sicher. Um die Daten in solchen Fällen noch zu retten, bedarf es der Hilfe von Experten. Denn gerade der Rebuild-Vorgang birgt besondere Risiken. Der RAID-Controller muss dabei die Rohdaten aus allen vorhandenen Festplatten auslesen. Treten in diesem Zeitraum neue Defekte auf oder fallen weitere Platten aus, kann es sein, dass der Rebuild abbricht. Auf das gesamte Speichersystem ist dann kein Zugriff mehr möglich.

Backups sind Pflicht - aber kein Allheilmittel

Es spielt also keine Rolle, wo und wie ein Unternehmen seine Daten speichert - das Anlegen von Sicherungskopien ist immer Pflicht. Denn vorübergehende Probleme mit Festplatten oder SSD können mithilfe regelmäßig angelegter Backups leicht überbrückt werden. Erst wenn es Probleme mit den Speichermedien selbst gibt, wird es wirklich knifflig.

Bei Network Attached Storage (NAS) beispielsweise liegt die Ursache dafür oft in den Updates der Firmware, also der hardwarenahen Basissoftware. Solche Aktualisierungen verändern häufig die Dateiablage in ihrer logischen Struktur, sodass der Administrator auf die gesicherten Daten nicht mehr zugreifen kann. In Fällen wie diesen befindet er sich in einer prekären Lage: Er muss einerseits schnell handeln, um eine Lösung zeitnah herbeizuführen. Andererseits darf aber nicht durch falsche Entscheidungen und "Experimente" die Situation verschlimmern.

Zwar findet man viele Anleitungen und auch Datenrettungssoftware im Internet. Doch in aller Regel löst man damit keine schwerwiegenden Probleme. Datenrettungsversuche von Administratoren ohne professionelle Kenntnisse auf diesem Gebiet haben fast zwangsläufig zur Folge, dass die Lage nur noch aussichtsloser wird. Denn für eine erfolgreiche Datenrettung müssen zunächst die entsprechenden Voraussetzungen geschaffen werden. Zu diesen Voraussetzungen zählt beispielsweise ein Reinraumlabor. Da die Festplatten sehr empfindlich sind, sollten sie nur von Experten in solch einer partikelfreien Umgebung geöffnet werden. Wer das außer Acht lässt, geht ein unnötig hohes Risiko ein.

Professionelle Datenrettung

Wer sich auf die Suche nach professioneller Hilfe begibt, sollte trotz der brisanten Lage sehr genau hinschauen. Peter Franck ist Chef der Datenrettungsspezialisten bei Attingo in Hamburg, Wien und Amsterdam. Er nennt einige Kriterien, die ein professioneller Anbieter aus seiner Sicht erfüllen sollte:

"Wichtig ist, dass der Dienstleister im ersten Schritt eine genaue Analyse des Systems und der eventuellen Defekte durchführt. Dann muss er den Kunden über den entstandenen Schaden informieren und ihm die Möglichkeiten aufzeigen, wie man ihn in Grenzen halten und Unternehmensdaten retten kann. Das schafft Transparenz und bildet die Grundlage für eine vertrauensvolle Zusammenarbeit. Erst dann sollte das Unternehmen eine Entscheidung fällen, ob und wie die Experten den Datenrettungsvorgang durchführen sollen."

Vertrauen ist bei einer solchen Zusammenarbeit extrem wichtig. Schließlich geht es um sensible Unternehmensdaten, die nicht an Dritte weitergegeben werden dürfen. Der Anbieter sollte daher auch offenlegen, wer beim Datenrettungsverfahren Einsicht in die Unternehmensdaten hat und wo sie gespeichert werden. Bei der Wahl eines Datenretters spielen immer auch die Kosten eine Rolle. Dabei ist Vorsicht geboten: Es gibt Anbieter, die die Notlage von Unternehmen durch überteuerte Serviceleistungen ausnutzen. "Transparenz ist auch bei der Kostenfrage wichtig", wie Peter Franck betont. "Wir können meist nicht exakt vorhersagen, wie lange ein Wiederherstellungsprozess dauert. Aber der Preis für eine solche Leistung sollte sich immer in einem vorher festgelegten Rahmen bewegen. So kann der Kunde die Kosten zumindest ungefähr abschätzen."

Damit man an einen wirklich zuverlässigen Datenrettungsexperten gerät, empfiehlt sich daher eine gute Recherche. Sinnvoll ist auch der Austausch mit anderen Administratoren, die eventuell schon einmal vor einem ähnlichen Problem standen. Möglicherweise haben sie mit einem professionellen Anbieter bereits gute Erfahrungen gemacht. (hal)