Grundlagen: Festplattentechnik

18.06.2003 von Hermann Strass
Die Entwicklung bei Festplatten drückt die Preise und steigert die Datenraten auf bis zu 80 MByte/s. Wir werfen einen Blick in das Innere der rotierenden Massenspeicher und zeigen, warum sich die Technik so rasant entwickelt hat.

Die Entwicklung der Festplattentechnologie geht weiterhin in Riesenschritten voran. Waren noch vor sieben Jahren Größen von 1,6 GByte das Maß aller Dinge, beginnen heutige Modelle mit der 100fachen Kapazität. Aber nicht nur die Kapazitäten steigen. Die Produkte sind auch technisch ausgefeilter und zuverlässiger und werden darüber hinaus immer günstiger (bezogen auf den Preis pro MByte).

Warum ist das so? Der technische Erfindergeist wird von keinerlei Vorschriften gebremst. Eine Festplatte hat eine bestimmte geometrische Form und wenige spezifizierte Schnittstellen. Die eigentliche Technik aber sitzt unsichtbar für den Anwender im Inneren des Gehäuses und ist in ihren Parametern Leistung, Stromverbrauch und Preis von Interesse. Die Hersteller können also die Festplatten nach Belieben verbessern und optimieren.

Wir werfen einen Blick in das Innere der rotierenden Massenspeicher und zeigen, warum sich die Festplattentechnik so rasant entwickelt hat. Ein Ende dieser Entwicklungen ist auch mittelfristig nicht abzusehen. Soweit nicht anders angegeben, gelten Aussagen und Parameter für 3,5-Zoll-Laufwerke.

Geschichte

Bereits im Jahr 1878 versuchte der Amerikaner Oberlin Smith elektrische Daten auf einem magnetisierten Draht zu speichern. Im Jahre 1888 entschied er sich, seine Erfindung nicht zu patentieren, sondern der Öffentlichkeit zu schenken. Etwa zur gleichen Zeit hatte Valdemar Poulsen in Dänemark die Idee, Daten magnetisch aufzuzeichnen. Daraus wurde ein um eine Trommel gewickelter Stahldraht, der schon 1889 als Telefonanrufbeantworter diente. Danach konzentrierten sich die Entwickler lange Zeit auf die serielle Aufzeichnung mit Drähten und später auf Band. Bereits in den fünfziger Jahren des 20. Jahrhunderts gab es dann vereinzelt Trommelspeicher.

Doch die eigentliche Geburtsstunde der Festplatte wird auf den 13. September 1956 datiert. An diesem Tag hat IBM die erste Festplatte mit der Bezeichnung 305 RAMAC und einer Kapazität von 5 MByte vorgestellt. Diese Kapazität verteilte sich auf 50 Scheiben mit je 24 Zoll (60 cm) Durchmesser. Der Mietpreis betrug 150 US-Dollar je Monat und MByte. Ein Jahr später führte IBM das Konzept "breit schreiben, schmal lesen" ein, wie es heutzutage bei den MR- und GMR -Techniken eingesetzt wird.

Seagate baute im Jahr 1979 die erste Festplatte im 5,25-Zoll-Format. 1981 kam SCSI , und 1982 gab es die ST506-Schnittstelle von Seagate, aus der sich IDE, E-IDE , ATA und ATAPI entwickelt haben. Das Seagate-ST506-Laufwerk, nach dem die Schnittstelle benannt wurde, hatte wie das RAMAC-Laufwerk aus dem Jahre 1956 eine Kapazität von 5 MByte. Die Fibre-Channel-Entwicklung begann 1988.

Seagate hat 1996 mit der Cheetah-Serie erste Festplatten mit 10.000 U/min präsentiert. 1998 bot die Barracuda-Serie von Seagate eine Maximalkapazität von 50 GByte. Und nur zwei Jahre später waren es schon 183 GByte. Dies übertraf die bis dahin übliche Steigerung von 60 Prozent in einem Jahr oder die Verdoppelung innerhalb von 18 Monaten bei weitem. Zwischen 1957 und 1990 lag die Steigerungsrate noch bei etwa 25 Prozent im Jahr.

Die Flächendichte auf den Festplattenscheiben stieg von 2000 Bit/inch2 im Jahr 1957 auf über 1 GBit/inch2 in den Jahren 1995 bis 1997. Heutige Werte liegen bei 30 bis 60 GBit/inch2. Werte von 100 GBit/inch2 sind in naher Zukunft auch für Serienlaufwerke zu erwarten.

Festplattenaufbau

Festplatten unterscheiden sich äußerlich meist nur durch ihre Bauform, wobei meist die Frontbreite und die unteren sowie seitlichen Befestigungspunkte definiert sind. Die Bauhöhe kann variieren. Die Gehäusetiefe ist auf eine maximale Größe begrenzt. Die Art und geometrische Position der Schnittstellensteckverbinder (E-IDE oder SCSI ) ist spezifiziert. Teilweise gilt das auch für die Stromversorgungssteckverbinder, soweit sie nicht in die Schnittstellensteckverbinder integriert sind. Der innere Aufbau und die technische Ausstattung sind hingegen in keiner Weise festgelegt. Das gilt zum Beispiel für die Größe oder die logische Funktion der Zwischenspeicher (Cache) im Laufwerk. So können die Hersteller im Laufe der Zeit auch optische Technologien in diese vorwiegend elektromagnetisch arbeitenden Geräte integrieren.

Festplatten enthalten fest eingebaute, rotierende Platten, deren elektromagnetisch präparierte Oberfläche als Datenspeicher dient. Elektromagnetische Effekte wie Induktion oder magnetische Flusswechsel entstehen durch die relative Bewegung zwischen elektrischen und magnetischen Komponenten. Dies geschieht am einfachsten mit einer rotierenden Bewegung, wobei gilt: je schneller, desto effektiver. Denn je schneller eine magnetische Flussänderung beispielsweise in einer Spule erfolgt, desto größer der induzierte Strom und damit auch das Signal.

Beengte Verhältnisse

Im Inneren einer Festplatte dreht ein Elektromotor eine oder mehrere Scheiben (bis zu zwölf) auf einer Achse (Spindel) mit möglichst hohen Drehzahlen. 5400, 7200, 10.000 und sogar 15.000 U/min sind üblich. Die Hersteller testen bereits höhere Drehzahlen. Die Scheiben sind mit einer magnetischen Oberfläche versehen. Darüber schweben die Schreib-/Leseköpfe an Armen, die diese zwischen dem inneren und äußeren nutzbaren Durchmesser über die jeweils aktuelle Spur positionieren. Der Platz für den Motor im Festplattengehäuse ist eng begrenzt. Daher muss die zu bewegende Masse der Scheiben möglichst gering sein.

Scheiben und Köpfe befinden sich in einer hermetisch versiegelten Kammer.Das schützt vor Verunreinigungen und Feuchtigkeit. Diese Anordnung ist früher als Winchester-Technik bezeichnet worden.

Ein besonderes Problem bei Festplatten ist die Abfuhr der entstehenden Wärme. Temperaturänderungen zwischen Ruhephasen und Volllastbetrieb sorgen für Längenänderung im Material. Dadurch wird die geometrische Position des Kopfes am Arm (Aktuator ) verändert. Das heißt, der Kopf schreibt eine Spur neben der Ideallinie oder er wird beim Lesen neben die geschriebene Spur positioniert. Daher sind alle Hersteller bemüht, mit neuesten Herstellungstechnologien den Strombedarf von Motor und Chips möglichst gering zu halten. Auch die Lager erfahren eine Weiterentwicklung, um Reibungsverluste zu verringern.

Anordnung der Daten

Die Spuren sind als konzentrische Kreise auf den Plattern angeordnet. Jeder Kreis ist in mehrere Sektoren, auch Blöcke genannt, unterteilt. Die Sektoren/Blöcke sind in PC-Anwendungen meist für 512 Datenbyte eingerichtet. In Unix- oder Mainframe-Systemen sind die Blöcke auch größer. Dabei ist in einem Sektor noch zusätzlicher Platz für Verwaltungsinformationen erforderlich.

Schreiben und Lesen geschieht immer nur auf einem ganzen Sektor, auch wenn lediglich ein Teil der darauf befindlichen Daten tatsächlich genutzt wird. Zur leichteren Adressierung fasst man häufig mehrere Sektoren logisch zu so genannten Clustern zusammen.

Bei Festplatten mit mehreren Plattern bilden die geometrisch übereinander liegenden Spuren einen Zylinder. Dabei werden die Köpfe gemeinsam auf die jeweils anzusprechende Spur positioniert. Beim Schreiben großer Datenmengen hat dies den Vorteil, dass diese nicht nacheinander auf verschiedene Spuren einer Platte gespeichert werden, sondern gleichzeitig auf die jeweils gleichen Spuren der unterschiedlichen Scheiben. Da die elektrischen Umschaltzeiten zur Ansteuerung der Köpfe wesentlich kürzer sind als die für eine mechanische Neupositionierung, sind auf diese Weise höhere Übertragungsraten möglich.

Die Länge der konzentrischen Spuren ist in der Nähe der Achse kürzer als in den Außenbereichen. Damit nimmt auch die relative Geschwindigkeit zwischen Kopf und Spur nach außen zu. Wären die Sektoren hingegen Segmente gleichen Winkels, hätte dies eine Verschwendung von Speicherkapazität in den äußeren Spuren zur Folge. Daher befinden sich auf den längeren, äußeren Spuren mehr Sektoren als auf den inneren.

So entstehen Zonen mit jeweils gleich vielen Sektoren je Spur. Denn eine neue Zone lässt sich frühestens dann einrichten, wenn eine Spur mindestens so viel länger ist, dass ein weiterer kompletter Sektor für 512 Datenbyte Platz findet. Bei einer solchen Zoneneinteilung entstehen Strukturen, die wie Ausschnitte aus spiralförmigen Kurven aussehen und alle vom Mittelpunkt der Achse ausgehen. In der Regel besteht eine Plattenoberfläche aus 15 bis 25 Zonen.

Derzeit liegen die Bitdichten zwischen 30 und 60 GBit/inch2. Bei diesen Dichten werden etwa 30.000 bis 70.000 tpi geschrieben. Innerhalb der Spur werden 400 bis 600 KBit/Zoll aufgezeichnet. In Schreib-/Leserichtung sind die Bits daher sehr kurz, aber besonders breit. Das sieht dann so aus, als hätte man Streichhölzer quer zur Flugrichtung auf die Spur gelegt, wobei die Nord-/Süd-Orientierung in Bewegungsrichtung auch die Bitwertigkeit EINS oder NULL symbolisiert.

Schreib-/Leseköpfe im Tiefflug

Derzeit sind Kapazitäten von 40 bis 80 GByte je Magnetscheibe üblich. Daher gibt es kaum noch Laufwerke mit geringeren Kapazitäten. Bei Zwischengrößen wird entweder ein Kopf eingespart oder nicht genutzt, wenn dieser defekt ist.

Die Kopfeinheiten sind extrem kleine, komplexe Gebilde am Ende des Aktuators . Dieser und die Kopfplattform sind nach aerodynamischen Kriterien geformt. Die Köpfe müssen im Betrieb in einer Flughöhe von etwa 25 nm ohne Berührung und Flattern über der sich drehenden Scheibe schweben. Es wird versucht, die Flughöhe so niedrig wie möglich zu halten, weil der Kopf damit stärkere Signale lesen und schreiben kann. Die bislang niedrigste erreichte Flughöhe liegt bei 15 nm - allerdings nur für kurze Strecken.

Das so genannte Contact Recording, also das Schleifen des Kopfes auf der Oberfläche, wie es bei Floppy-Laufwerken eingesetzt wird, konnte sich bisher nicht durchsetzen. Dazu bedarf es besonderer Oberflächenschutzschichten auf dem Medium und am Kopf. Bei den um mehrere Potenzen niedrigeren Drehzahlen im Floppy-Laufwerk ist dies wesentlich leichter zu bewerkstelligen als bei schnell drehenden Festplatten.

Vergleicht man Flughöhen und Drehgeschwindigkeit mit realen Größen, so entspricht dies einem Jumbojet, der mit mehrfacher Schallgeschwindigkeit im Abstand von etwa 1 bis 2 Metern über den Erdboden rast.

Das Innere eines Laufwerks ist Betriebsgeheimnis des Herstellers. Deshalb gibt es über Kopfgrößen und Formen nur Vermutungen. Statt mit Abmessungen kennzeichnet man Kopfgrößen mit einem Prozentwert. Die Referenz (100 Prozent) bezieht sich auf einen Kopf einer IBM-Festplatte aus dem Jahre 1983. Dieser hatte die Abmessungen (4 x 3,2 x 0,86) mm³. Heute sind Kopfgrößen von 30 Prozent und weniger üblich.

Wegen der heutzutage üblichen hohen Bitdichte und den daraus resultierenden kleinen Signalen entstehen hohe Rauschanteile sowie Überlagerungen der Einzelsignale. Damit ist die früher übliche Einzelerkennung eines Bits (peak detection) nicht mehr möglich. Stattdessen wird der Bitstrom so kodiert, dass die Bits beim Lesen auch dann noch erkannt werden, wenn sie faktisch lediglich den gleichen Signalpegel erzeugen wie das Rauschen. Diese PRML-Technik erkennt aus der Regelmäßigkeit von Flankenwechseln, ob gemäß dem bekannten Bitmuster an einer bestimmten Stelle ein signifikantes Bit oder Rauschen detektiert wurde. Letzteres wird dann ausgefiltert.

MR- und GMR-Technologien

Eine Kopfeinheit besteht heute aus zwei Teilen. Der Induktiv-Kopf zum Schreiben hat eine Spule mit einigen Windungen aus einer Leiterbahn auf einem Halbleiterplättchen. Bis vor vier Jahren waren bei Datendichten von 700 MBit/inch2 zum Teil auch für den Lesekanal noch Induktiv-Technologien üblich, obwohl bereits 1996 die ersten Festplatten mit MR-Leseköpfen erhältlich waren. Dies wird verständlich, wenn man bedenkt, dass die Entwicklungszeit eigener MR-Technologien bis zu zehn Jahre in Anspruch nimmt. Western Digital hat beispielsweise erst 1998 im Zuge eines Abkommens mit IBM auf die MR-Technologie umgestellt und dabei die Köpfe von IBM bezogen.

Der Induktiv-Kopf schreibt eine breite kräftige Spur. Der schmalere MR- oder GMR-Kopf liest zuverlässig auch noch schwache Signale in der Mitte der geschriebenen Spur, die einen großen Rauschanteil aufweist.

Standard-MR-Köpfe sind für Datendichten bis 1500 Mbit/inch2 geeignet. Die heutigen weiterentwickelten GMR -Leseelemente kommen mit Datendichten bis 20 Gbit/inch2 zurecht.

Der MR- oder GMR-Kopf zum Lesen besteht aus mehreren übereinander gelegten Schichten mit unmagnetischen Zwischenlagen. Er macht sich zunutze, dass sich der Widerstand von bestimmten Materialien wie Nickel-Eisen-Verbindungen im Magnetfeld ändert. Der Widerstand ist direkt abhängig von der Stärke des Magnetfelds, für ein Signal ist keine zeitlich abhängige Flussänderung wie bei Induktiv-Köpfen erforderlich.

Die magnetischen Lagen des MR-Kopfes sind unterschiedlich vormagnetisiert. Ein magnetischer Impuls (Bitsignal von der Scheibenoberfläche) kippt je nach 0- oder 1-Orientierung die erste magnetische Schicht und erzeugt dadurch mit der Magnetschicht in der nächsten Lage zusammen ein relativ kräftiges Signal. Ein Auslösesignal von halber Stärke genügt also für ein kräftiges Vollsignal. Weitere Effekte wie geringeres Grundrauschen und eine kleine Bauform sind zusätzliche positive Eigenschaften dieser Technik.

GMR-Technik im Detail

GMR-Köpfe sind noch effektiver und nutzen Quanteneffekte der Elektronen. Das magneto-resistive Element besteht aus mehreren, zum Teil nur wenige Atomlagen (5 bis 15) dicken Schichten, die folgende Bezeichnungen tragen: Sensing Layer, Conducting Spacer, Pinned Layer und Exchange Layer (siehe Abbildung unten). Die ersten drei Schichten sind dabei so dünn, dass sich die Leitungselektronen über den Conducting Spacer ungehindert zwischen den einzelnen Schichten bewegen können. Die magnetische Vorzugsrichtung des Pinned Layer ist dabei fest vorgegeben und wird durch den im Bild nicht eingezeichneten Exchange Layer gefestigt. Je nachdem, wie die Magnetfelder der Speicherzellen orientiert sind, gibt es zwei Zustände im GMR-Element. Wenn das gesamte GMR-Element einheitlich magnetisiert ist, können beispielsweise Elektronen mit positivem Spin ungehindert das Element passieren. Elektronen mit einem negativen Spin werden im Pinned Layer und im Sensing Layer so abgelenkt, dass diese nicht zum Stromfluss beitragen.

Weisen bei einem Flusswechsel die beiden Layer eine unterschiedliche Magnetisierung auf, tragen weder die Elektronen mit positivem noch mit negativem Spin zum Stromfluss bei. Alle Leitungselektronen können sich in beiden Schichten befinden und gestreut werden. Das GMR-Element besitzt in diesem Fall einen sehr hohen Widerstand.

Den GMR-Effekt entdeckten Ende der 1980er Jahre unabhängig voneinander Peter Grünberg an der KFA in Jülich und Albert Fert an der Universität in Paris. Bei beiden Entdeckungen wurden extrem niedrige Temperaturen und starke magnetische Felder zur Erzeugung des Effekts benötigt. Einige Zeit nach diesen Arbeiten begannen Stuart Parkin und andere Forscher im Almaden-Forschungszentrum von IBM in San Jose, Kalifornien, mit dem Versuch, den Effekt bei Normaltemperatur und mit weniger exotischen Materialzusammensetzungen für die Massenfertigung weiterzuentwickeln. Sie benötigten dazu viele Jahre und erforschten mehr als 30.000 unterschiedliche Multilayer-Materialkombinationen. 1997 erhielten die drei genannten Forscher gemeinsam den EuroPhysik-Preis für die GMR-Entwicklung.

Das Plattenmaterial

Die Scheiben mit der magnetischen Oberfläche bestehen auch heutzutage noch aus Aluminium. Stabilere Materialien wie beispielsweise Glas oder Keramik konnten sich im Massenmarkt noch nicht durchsetzen, weil sie zu teuer sind und ungelöste technische Probleme bereiten. Scheiben aus Glas wurden zunächst hauptsächlich für kleine Platten in mobilen Systemen eingesetzt. In den kommenden Jahren soll allerdings der Übergang von Aluminium auf Glas und Glaskeramik erfolgen.

Die Aluminiumscheiben sind so dünn (etwa 1 Millimeter), dass bei hohen Drehzahlen durch die Fliehkräfte eine Materialwanderung und damit eine geometrische Verzerrung entstehen kann. Bei schnell drehenden Festplatten ist daher der Scheibendurchmesser meist kleiner als der dem Gehäuse entsprechende Formfaktor, um Verformungen durch die Fliehkraft zu vermeiden. So weisen die Scheiben der mit 15.000 Touren drehenden Seagate Cheetah X15 lediglich einen Durchmesser von 2,5 Zoll auf, befinden sich aber in einem Gehäuse im 3,5-Zoll-Formfaktor.

Dies hat nicht nur Kapazitätseinbußen zur Folge. Auch die maximalen Datenraten in den Außenbereichen sind geringer als bei einer Platte mit größerem Durchmesser. Hier müssen die Hersteller abwiegen, ob eine erhöhte Drehzahl dennoch höhere Datenraten bietet. Zumindest sinkt durch die hohe Drehzahl die Zugriffszeit. Sie verkürzt die so genannte Latency, also die Zeit, die im Mittel für eine halbe Umdrehung erforderlich ist.

Bei Aluminiumscheiben befindet sich die Magnetschicht von etwa 15 nm Dicke direkt auf dem Aluminium. Kommen Glasscheiben zum Einsatz, ist noch eine Zwischenschicht erforderlich. Über der Magnetschicht liegt ein Überzug (zirka 2 bis 5 nm) sowie eine Gleitschicht (0,5 bis 1,5 nm). Die Oberflächenrauheit sollte dabei nicht mehr als 0,2 bis 0,3 nm betragen. Bei heutigen Festplatten liegt diese noch etwa doppelt so hoch.

Montage und Oberfläche der Plattern

Eine weitere Herausforderung bei hohen Drehzahlen und den geringen Flughöhen der Köpfe ist die Montage der Scheiben auf die Motorachse. Jede eintretende Verformung führt zu Unwucht und zu einer möglichen Kopf-Platte-Berührung, die wiederum zu einem Head-Crash führt.

Zudem muss die Oberfläche der Scheiben besonders eben sein, da Höhenunterschiede die Aerodynamik zwischen Kopf und Scheibenoberfläche beeinträchtigen. Allerdings durfte bisher die Oberfläche nicht ganz glatt sein. Sie wurde texturiert, das heißt gezielt aufgeraut, und zwar unterschiedlich für den Datenbereich und für die Landezone. Bei zu glatter Oberfläche würden die Köpfe in der Landezone auf Grund der Adhäsion an der Oberfläche "kleben". Der Motor könnte dann nicht anlaufen. Heute beherrschen die Hersteller die Technik mit glatten Oberflächen, die nur noch eine Rauheit etwa in der Dicke eines Atoms aufweisen.

Bei den geringen Flughöhen der Köpfe von etwa 25 nm ist die Stoßsicherung des Laufwerks beim Transport und im Betrieb besonders wichtig. Infolge von Stößen oder Vibrationen können zum Beispiel winzige Teilchen im Inneren des Laufwerks abbrechen. Bei der geringsten Berührung am MR- oder GMR -Kopf erwärmt sich dieser. Dadurch entsteht eine besonders große und langdauernde Widerstands- und somit Signaländerung im Lesekanal. Eine derartige Störung kann die Elektronik nicht mehr korrigieren.

Die Köpfe werden im Bereich nahe der Drehachse geparkt. Sie landen bei niedrigen Drehzahlen sanft auf der Oberfläche. Außerdem wird der Kopfarm automatisch blockiert, wenn der Strom abgeschaltet ist. Damit wird er gegen mechanische Beschädigungen beim Transport gesichert.

IBM und andere Hersteller nutzen heute bei einigen Modellen eine Rampe, die im ausgeschalteten Zustand als sicherer mechanischer Ankerplatz für die Kopfarme dient. Die Köpfe und der Kopfarm werden dabei über den äußeren Plattenrand hinaus auf die Rampe positioniert und dort festgehalten. So wird ein Head-Crash im Ruhezustand grundsätzlich vermieden.

Geräusche vermindern

Bei den hohen Drehzahlen gelten die Lager als besonders kritische Bauteile. Es gibt verschiedene Ansätze, das Problem zu lösen. Seagate verwendet bei einigen Modellen einen Motor mit einem Lager in FDB -Technik, und zwar bereits in der dritten Generation seit 1996. Dadurch werden die Laufgeräusche und Vibrationen reduziert und die Lebensdauer sowie die Stoßfestigkeit erhöht. Kugellager mit Metall- oder Keramikkugeln sind preisgünstiger als Flüssigkeitslager, aber lauter - insbesondere mit Metallkugeln, da diese nie ideal rund sind.

Mit der Optimierung von Suchalgorithmen versuchen die Hersteller, die deutlich lauteren Geräusche bei Kopfbewegungen zu reduzieren. Durch dieses Akustik-Management sollen die Kopfarme so auf "sanfte" Bewegungsabläufe programmiert werden.

Ein intelligenter Suchalgorithmus verkürzt auch die effektiven Zugriffs- und Latenzzeiten. Gehen viele Lese- oder Schreibanforderungen ein, dann wird von der internen Software ermittelt, welche Kopfbewegungen mit dem geringsten Zeitaufwand ausgeführt werden können. Früher waren feste Sequenzen üblich. Da gab es Paternoster-Bewegungen (erst sämtliche Bewegungen zum Beispiel von außen nach innen und dann wieder zurück) oder Butterfly-Sequenzen, das heißt, abwechselnd die nächste angeforderte Spur rechts und dann die nächste links vom Ausgangsort anfahren. Weniger und kürzere Bewegungsvorgänge verringern den Strombedarf und damit die Wärmeentwicklung. Auch ist auf diese Weise ein niedrigerer Geräuschpegel garantiert.

Vom Medium auf den Bus

Die Datenrate zwischen Medium und dem ersten Pufferspeicher beträgt heute zwischen 500 und 800 MBit/s, entsprechend einem tatsächlichen Bitstrom von mehr als einer Milliarde Bits je Sekunde. An der Schnittstelle nach außen können Daten mit etwa 100 MByte/s (UltraDMA/100, 1000er Basis) bis 320 MByte/s (Ultra320-SCSI) übertragen werden. Die mittlere Zugriffszeit auf die Daten beträgt zirka 3,5 bis 10 ms. Diese sind als Mittelwert zusammengesetzt aus Zeiten für den Spurwechsel und für die durchschnittliche Wartezeit innerhalb der Spur.

Das Laufwerk puffert die Daten vom Rechner zunächst, um diese dann so schnell wie möglich auf die Platte zu schreiben. Beim Lesen werden üblicherweise mehr Daten gelesen als angefordert wurden. Denn es ist anzunehmen, dass benachbarte Daten nach kurzer Zeit ebenfalls benötigt werden.

Ist der Kopf beim Lesevorgang auf der gewünschten Spur angekommen, beginnt er sofort mit dem Lesen, auch wenn der gewünschte Sektor innerhalb der Spur noch nicht erreicht wurde. Die gelesenen Daten landen zunächst im Cache und werden dann in der richtigen Reihenfolge auf den Bus geschrieben. So vermeiden die Hersteller die Wartezeit für eine ganze Umdrehung, wenn zudem Daten auf der gleichen Spur benötigt werden, die jedoch in Bewegungsrichtung vor dem zunächst angeforderten Sektor liegen.

Datenverwaltung

Die großen Speichermengen auf den Festplatten müssen verwaltet werden. Dazu gehören Zugriffsmethoden und -optimierungen, Suchwegoptimierung, intelligente Verwaltung des Pufferspeichers, die Kommunikation über E-IDE -, SCSI - oder Fibre-Channel-Schnittstellen.

Die Verteilung der Kapazität des Cache auf Lesen und Schreiben sowie das Vorauslesen passt die Elektronik bedarfsgerecht im laufenden Betrieb ständig an. Die Größen der Pufferspeicher liegen inzwischen für Standardfestplatten bei 512 KByte, schneller drehenden Platten kommen mit 2 MByte. High-End-SCSI-Geräte sind mit bis zu 16 MByte großen Cache-Speichern ausgestattet.

Das früher übliche Interleave wird nicht mehr benötigt beziehungsweise auf 1:1 gesetzt. Heute kann die Elektronik schnell genug zwischen den Sektoren umschalten und sofort weiter Daten lesen oder schreiben. Früher mussten auf Grund der langen Umschaltzeiten zwangsweise ein oder mehrere Folgesektoren übersprungen werden, bis die Elektronik umgeschaltet hatte.

Für die Block- oder Sektor- und Spuradressen setzen manche Hersteller den so genannten Grey-Code ein. Bei diesem Code wechselt immer nur ein Bit bei einer sequentiellen Adressänderung. Damit wird ein kurzzeitiger Stromanstieg vermieden, wie er im Binärcode beim Wechsel von 7 (0111) auf 8 (1000) auftritt. In diesem Fall wechseln alle vier Bits gleichzeitig.

Fehlerkorrektur und Zuverlässigkeit

Sämtliche modernen Laufwerke sind in der Lage, fehlerhafte Sektoren automatisch auszublenden und Ersatzsektoren bereitzustellen. Die Fehlerkorrektur kann normalerweise Büschelfehler über etwa 200 bis 300 Bit hinweg im laufenden Betrieb korrigieren.

Moderne Laufwerke verwenden die so genannte SMART -Technik für die Fehleranalyse und -behebung sowie für Rückmeldungen an das Betriebssystem. Diese Technik wurde von Compaq eingeführt. Heute verwenden alle Hersteller sie. Beim Schrankeinbau und in RAID -Systemen benutzt man auch noch die SCSI Enclosure Services (SES). Dabei werden hauptsächlich Umweltparameter wie Temperatur, Feuchte, Lüfterdrehzahl oder Laufwerksausfall über den SCSI- oder FC-Kanal an das Betriebssystem gemeldet. SES ist Teil eines ANSI -Standards.

Die Firmware im Laufwerk kann meistens über die Schnittstelle geladen oder erneuert werden. So sind auch Parameter wie beispielsweise Blockgröße oder Fehlerstrategie dynamisch zu ändern.

Die Geschwindigkeit der Kopfbewegung wird entsprechend der Differenz zwischen dem Ausgangs- und dem Zielort automatisch angepasst (just-in-time seek). Es wird also Strom gespart, wenn die Bewegung lediglich so schnell erfolgt, dass der Kopf gerade noch rechtzeitig über dem gewünschten Zielpunkt (Spur/Sektor) zum Halten kommt.

Insgesamt sind moderne Festplatten nicht nur kleiner und bieten höhere Kapazitäten, sie sind auch zuverlässiger. Heute sind MTBF s von 1,2 Million Stunden üblich. Dies entspricht einem mehr als 100 Jahre andauernden Betrieb, ohne dass ein Fehler auftritt. Einen gesonderten Artikel zum Thema Zuverlässigkeit von Festplatten finden Sie hier.

Weitere Entwicklungen

Vor drei Jahren hat der Disk-Hersteller Komag mit einer preisgünstigen Scheibe aus Glas (LCG = Low Cost Glass Substrate) einen neuen Anlauf mit dieser Technik unternommen. Dabei wurden Datendichten von 50 GBit/inch2 mit Köpfen von Read-Rite geschrieben und gelesen. Diese Flächendichte erreichte man mit einer Spurdichte von knapp 91.000 tpi bei einer linearen Bitdichte von etwa 552 KByte/inch2. Komag rechnete damit, dass mit dieser Technik eine Flächendichte bis 100 Gbit/inch2 möglich ist. Dies ist bereits 2002 eingetroffen. Fernziel ist es, eine Flächendichte von 1 Tbit/ inch2 zu erreichen. Das müsste aus heutiger Sicht bei einer Spurdichte von 200.000 Spuren/cm (500.000 tpi) und 800.000 Bit/cm (2.000.000 bpi) der Fall sein. Die Flughöhe der Köpfe sollte dann nur 5 nm betragen.

Bei der GMR -Technik sollen "tunneling GMR"oder "spin-dependent tunneling GMR" weitere Verbesserungen bringen. Dazu werden andere Lagen in dem Multilayer-Kopf eingesetzt.

Optimierungen

Aus der Form der magnetischen Bitzellen, breit und kurz in Bewegungsrichtung (Verhältnis etwa 8:1), ist ersichtlich, dass bei der Spurbreite und dem Spurabstand noch erhebliche Verbesserungen möglich sein müssten. Dabei könnten optische statt magnetische Servospuren für die präzisere Spurführung zum Einsatz kommen. Werden die magnetischen Zellen senkrecht gestellt, dann passen mehr davon in eine gegebene Fläche. Seit vielen Jahren wird an "vertical recording" geforscht, jetzt scheint es deutliche Fortschritte bei dieser Technik zu geben. Bei schräg gestellten Magnetbits ist die benötigte Schreibenergie im Vergleich zu senkrechten um bis zu 50 Prozent geringer. Dadurch und mit HAMR -Unterstützung lassen sich die hart-magnetischen Materialien mit vertretbarem Aufwand beschreiben.

Die Kopfpositionierung über einen langen Arm wird in Zukunft nicht mehr genau genug sein. Daher sollen am Kopfarm-Ende in der Nähe der Köpfe Mikro-Aktuatoren für die Verbesserung der Feinpositionierung eingesetzt werden. Das könnten dann auch MEMS (Micro Electro Mechanical Systems) sein. Aktive Dämpfung, also die programmierte Anpassung der Kopfbewegungsgeschwindigkeit und Gegensteuerung sollen für leisere und genauere Positionierung sorgen. Positioniersysteme für 100.000 tpi sind bereits seit einiger Zeit verfügbar.

Die Versuche, die Flughöhe auf 3,5 nm zu reduzieren, laufen weiter, da dies wohl für das Ziel 1 Tbit/inch2 erforderlich sein wird. Die Deck- und Gleitschichten auf der Platte und auf dem Kopf dürfen dann nur noch etwa 1 nm dick sein.

Die Hersteller sind zuversichtlich, dass Kapazitätssteigerungen auch über die nächsten Jahre weiterhin möglich sind. Sehr oft wird das superparamagnetische Limit als Grenze für die Flächendichte genannt. Werden die Bitzellen immer kleiner, dann stehen nur noch wenige magnetische Partikel zur Verfügung. Durch die thermodynamische Bewegung verlieren im Laufe der Zeit einige Partikel spontan ihre magnetische Orientierung und das Bit löst sich selbst auf. Diesen Effekt gibt es bei jeder Bitzellengröße. Auf Grund der bisher zahlreich vorhandenen Magnetpartikel je Bitzelle würde dies aber Tausende von Jahren dauern.

Durch Materialauswahl, Herstellungsverfahren und andere physikalische Effekte wurde diese Grenze der Selbstauflösung immer wieder hinausgeschoben. Inzwischen gibt es Erkenntnisse, dass zum Beispiel durch Selbstorganisation der Materieteilchen (SOMA) diese vermeintliche Grenze zu überwinden ist. Einige dieser Technologien müssen in wenigen Jahren Serienreife erlangen, da mit der heutigen Technik die Erreichung der physikalischen Grenze absehbar ist. Für die horizontale und longitudinale Aufzeichnung steht diese Grenze bei etwa 100 bis 200 Gbit/ inch2 an.

Es wird zudem daran gearbeitet, in Zukunft möglichst viel Intelligenz in die Laufwerke zu integrieren. Objektorientierte Laufwerke sollen selbstständig das Inhaltsverzeichnis verwalten. Das Betriebssystem im Rechner könnte dadurch entlastet werden. Die Normierung dazu erfolgt im ANSI/SCSI-Komitee.

Zukünftige Speichertechnologien

Neben Festplatten gibt es auch Wechselplatten für kleinere Kapazitäten. Die Datenscheibe kann bei dieser Art von Datenspeicher zum Transport, zur Datensicherung oder zum Archivieren verwendet werden. Halbleiterspeicher, die wie Festplatten angesteuert werden, dienen zur Beschleunigung von Transaktionen beispielsweise in Flugreservierungssystemen.

In dem Versuch, höhere Speicherdichten zu erreichen, wurde schon öfter über optische Plattenlaufwerke als Ersatz für magnetische Festplatten nachgedacht. Bisher sind aber mit magnetischen Techniken höhere Dichten preiswerter zu erreichen. Darüber hinaus sind optische Medien zu langsam beim Zugriff und bei der Übertragung der Daten. Auf optischen Medien werden stoffliche Veränderungen (amorphe und kristalline Zustände wie bei einer CD-RW) genutzt, die unterschiedliche Reflexionswerte zur Folge haben. Diese reversiblen Zustandsänderungen dauern deutlich länger als eine Ummagnetisierung der Bitzellen auf einem magnetischen Medium.

Viel versprechend, aber noch lange nicht marktreif sind Bemühungen, holografische Effekte für die Speicherung zu nutzen. Damit könnte die Speicherdichte bei dreidimensionaler Speicherung erheblich erhöht werden. Hierzu gibt es immer wieder Meldungen über einzelne interessante Laborergebnisse. So berichtete IBM beispielsweise schon Ende 1999 von einer Zusammenarbeit mit Bayer auf dem Feld holografischer Speichertechnologien. Festplatten sollen damit bis zu 1024 GByte auf einer Scheibe fassen.

Aus den HP-Laboren kam im September 2002 die Nachricht eines gedruckten Speichers. Auf einem Siliziumchip befindet sich ein gekreuztes, in zwei Schichten gedrucktes Grabenmuster. An den Kreuzungspunkten dieser Platindrähte bilden ein oder mehrere Moleküle (derzeit sind es etwa 1000) das nicht flüchtige Datenbit. Der vorgestellte Chip vereinte 64 Speicherzellen auf einer Fläche von 1 µm. Bis aus den 64 Bit die heute üblichen 256 Mbit je Chip geworden sind, dürfte allerdings noch etwas Zeit verstreichen. (mje/fkh)

Der Autor

Hermann Strass ist Berater für neue Technologien, insbesondere für Bus-Architekturen, Massenspeicher und industrielle Netzwerke, Mitglied in nationalen und internationalen Normungsgremien, in der IEEE Computer Society sowie Technical Coordinator der VITA in Europa. Daneben ist er Autor von Büchern, Fachartikeln und organisiert Seminare.