Trends bei Festplatten & Co

08.04.2002 von Hermann Strass
Die Entwicklung der Festplatten schreitet auch mittelfristig weiter voran. Die physikalischen Grenzen der Speicherdichte werden durch optische, holografische und ferro-elektrische Verfahren erweitert.

Höhere Speicherdichten, schnellere Zugriffszeiten und Übertragungsraten bei ständig sinkenden Preisen pro GByte sind nichts Ungewöhnliches in der Festplattenentwicklung. Neben der Steigerung durch Verbesserung und Verfeinerung der bisherigen Techniken wurden auch neue Verfahren entwickelt, die im Laufe der Zeit in die Serienprodukte einfließen. In absehbarer Zeit ist daher nicht mit einer langsameren Gangart in dieser Branche zu rechnen.

Irgendwann werden die physikalischen Grenzen der klassischen Festplattentechnologie erreicht oder der Fortschritt zur Weiterentwicklung dieser Technologie zu teuer sein. Dann erfolgt der Wechsel zu optischen, holografischen und ferro-elektrischen Verfahren, die noch mehr Daten auf noch engerem Raum speichern können.

Die hohen Entwicklungskosten der neuen Technologien sowie geringe Margen bei den Produkten werden zu immer mehr Unternehmenszusammenschlüssen führen. Dies gilt sowohl für die Laufwerksproduzenten als auch für die Zulieferfirmen und Bauteile-Hersteller.

Status und kurzfristige Ziele

Die Kapazitäten bei gängigen Laufwerken liegen derzeit bei 15 bis 30 GByte je Magnetscheibe. Die Flughöhen der Schreib-/Leseköpfe liegen zum Teil unter 25 nm. Mit Testsystemen von Axsys können Köpfe bereits mit einer Genauigkeit von 0,5 µm bezüglich des Spurabstand getestet werden.

Das derzeit größte Serienlaufwerk, die Seagate Barracuda 180 fasst 180 GByte auf 12 Plattern bei einer Bauhöhe von 1,6 Zoll (ca. 40 mm). Eine einzelne Scheibe speichert 15 GByte, was einer Datendichte von etwa 20 GBit/in² entspricht. Die Spurdichte liegt bei 31.200 TPI (Tracks per Inch) und die Bitdichte bei 490.000 BPI (Bit per Inch).

Die maximalen Drehzahlen in Serienfestplatten reichen bis 15.000 U/min, wobei der maximale Plattern-Durchmesser bei diesen Drives kleiner ausfällt, als es die äußere Bauform im 3,5-Zoll-Formfaktor vermuten lässt. So werden Verformungen durch die enormen Fliehkräfte am äußeren Scheibenrand vermieden.

Die Drehzahlen lassen sich nach Meinung von Experten noch deutlich erhöhen. Dabei werden in Zukunft Gleitlager statt Kugellager eingesetzt, die Öl oder Luft als Schmiermittel verwenden. Was sich durchsetzen wird, ist derzeit noch nicht absehbar. Ein positiver Nebeneffekt von Gleitlagern ist ein leiserer Lauf gegenüber Laufwerken mit Kugellager.

Vor einigen Monaten hat eine US-Zeitschrift zusammen mit Platten- und Komponenten-Herstellern ein hypothetisches Laufwerk mit 50 GBit/in² Flächendichte konzipiert. Mit 12 Scheiben ergibt sich eine theoretische Kapazität von 900 GByte. Je Scheibe entspräche dies etwa 75 GByte bei 600.000 BPI und 84.000 TPI. Bei Drehzahlen von 10.000 U/min ließen sich Datenraten von fast 120 MByte/s erreichen. Die Autoren dieser Studie denken, dass ein solches Laufwerk in Kürze herstellbar wäre, allerdings zu einem inakzeptablen Preis.

Trotz dieser rasant fortschreitenden Entwicklung zeigt eine historische Analyse einen seit 1996 zunehmenden zeitlichen Abstand zwischen den Laborergebnissen und Produktionsgeräten. Offensichtlich wird es immer schwieriger, die Laborergebnisse in die Massenproduktion umzusetzen.

Größere Blöcke für mehr Kapazität

Ein relativ einfacher Weg, die Kapazität künftiger Laufwerke zu erhöhen, liegt in einer Anhebung der Blockgröße. Die meisten Laufwerke, wie sie in heutigen PCs zum Einsatz kommen, weisen eine Blockgröße von 512 Byte auf. In UNIX und Linux-Systemen kommen auch Blockgrößen von 1 KByte oder 2 KByte zum Einsatz.

Die kleine Stückelung erfordert intern viel Speicherplatz für die Verwaltung der Blöcke. Die Industrie berät daher derzeit darüber, die Blockgröße zunächst auf 4 KByte anzuheben. Allein durch diese Maßnahme kann die Speicherkapazität um etwa 25 Prozent steigen. Untersuchungen im Hinblick auf den Anteil von ECC-Code, Synchronisierbits und anderen Verwaltungsdaten ergeben folgende relative Kapazitäten:

Vergleich von Blockgrößen

Blockgröße

512 Byte

1 KByte

2 KByte

4 KByte

Code-Effizienz (%)

61,5

68,5

73,9

77,1

Relative Kapazität (%)

100

111

120

125

Bis zur flächendeckenden Einführung ist eine lange Übergangszeit geplant. Denn herkömmliche Betriebssysteme wie Windows können derzeit nur mit den kleinen Blockgrößen von 512 Byte arbeiten.

Datendichte verdoppelt sich jährlich

Daneben arbeiten die Hersteller auch weiter an der Anhebung der Datendichte auf den Magnetscheiben. Beginnend mit der ersten Festplatte (IBM RAMAC von 1956) wurde die Flächendichte von damals mit 1 KBit/in² fast linear auf über 1 MBit/in² im Jahr 1970 hochgeschraubt. In der Zeit von 1990 bis zum Jahr 2000 erhöhte sich die Datendichte von knapp 100 MBit/in² auf 10 GBit/in².

Anfang der neunziger Jahre lagen die jährlichen Zuwachsraten (CGR) der Flächendichten bei etwa 60 Prozent im Jahr. Seit etwa 1997 stieg die Zuwachsrate auf durchschnittlich 100 Prozent pro Jahr.

Die bislang immer wieder verschobene superparamagnetische Grenze sieht man derzeit bei etwa 100 GBit/in². In einer IBM-Veröffentlichung vom Mai 2000 wurde diese Grenze noch bei 40 GBit/in² gesehen. Sie sollte aber noch bis hinab zum einzelnen Elektronenspin verschiebbar sein.

Wo liegt die superparamagnetische Grenze?

Einer der Gründe für das Ende der magnetischen Aufzeichnung liegt im so genannten superparamagnetischen Limit, der oberen Grenze der möglichen Aufzeichnungsdichte. Thermische Instabilität gilt als Ursache für die superparamagnetische Grenze.

Die Speicherzellen auf der Magnetscheibenoberfläche bestehen aus vielen tausend elementaren Einzelmagneten. Diese werden beim Schreiben in eine bestimmte Richtung gezwungen (unterschiedlich für NULL oder EINS). Durch thermische Anregung kippen gelegentlich eines oder mehrere dieser magnetischen Partikel in die andere Richtung. Über einen längeren Zeitraum kann dadurch die gesamte Zelle unmagnetisch werden, wenn alle magnetischen Domänen in verschiedene Richtungen orientiert sind.

Diese physikalischen Vorgänge sind vom Material, der Temperatur, dem Herstellungsverfahren und den Bindemitteln abhängig. Damit ist die superparamagnetische Grenze keine feste physikalische Größe. Sie wurde bislang durch bessere Materialien und hochwertigere Herstellungsverfahren immer wieder weiter hinausgeschoben.

So hat IBM im Jahr 1999 den Dichterekord von zunächst 20 GBit/in² in nur 5 Monaten um 75 % auf 35 GBit/in² hochgeschraubt. Bei dieser Dichte passen rund 50 GByte auf eine Platter. Grund war die Verwendung einer verbesserten Metall-Legierung auf einem Glas-Substrat.

IBM erwartet, dass dieses Material in nur 18 Monaten (das wäre Mitte 2001) produktionsreif sein könnte. Besonders wichtig ist dabei, dass die thermische Stabilität der kleineren magnetischen Zellen bei der höheren Dichte zu- und nicht abgenommen hat.

Verringerung der Flughöhe

Wird die Aufzeichnungsdichte erhöht, müssen die Schreib-/Leseköpfe im Gegenzug niedriger über den rotierenden Scheiben fliegen. Nur so können starke Signale auf einer kleinen Fläche erzeugt werden. Wichtig ist dabei der effektive, magnetisch wirksame Abstand zwischen magnetischer Oberfläche und Kopf. Neben der Flughöhe als größtem Einzelwert müssen noch die Dicke der Schutzschichten auf der Oberfläche und der Rückversatz (Rezession) des Kopfes im Kopfträger berücksichtigt werden. In einer von der Veeco Metrology Group und der Universität von Arizona erstellten Tabelle werden folgende Abhängigkeiten genannt:

Flachendichte und Flughöhe

Flughöhe (nm)

Flächendichte (GBit/in²)

19,2

9,5

14,5

15,0

12,2

40,0

6,0

100,0

Die Reduzierung von derzeit 25 nm auf die Hälfte dieser Flughöhe in Serienlaufwerken erscheint in absehbarer Zeit möglich. Im Vergleich zu anderen Entwicklungen geht es bei den Flughöhen jedoch etwas langsamer voran.

Die Flughöhe 0, also das Schleifen des Kopfes auf der Oberfläche (Contact Recording), wird seit mehr als 20 Jahren untersucht. Die Reibungswärme und der mechanische Abrieb verhindern jedoch den Einsatz des Contact Recordings. Bisher blieben alle Versuche erfolglos, daraus eine produktionsreife Technik zu machen.

Kopf- und Medientechnologien

Der Vorverstärker für die Schreib-/Leseköpfe wandert immer näher an den eigentlichen Kopf heran, um die Leitungsverluste und Fremdstörungen gering zu halten. Noch 1990 waren diese Vorverstärker außerhalb der Laufwerkskammer positioniert. Heute befinden sie sich nur noch etwa 50 mm vom Kopf entfernt auf dem so genannten E-Block. Mit der COS-Technik (Chip-on-Suspension) wandert der Vorverstärker mit etwa 4 mm Abstand direkt an den Kopf. Die Chips werden bis auf eine Dicke von zirka 4 µm abgeschliffen, um die Masse möglichst gering zu halten. Solche Vorverstärker werden gegenwärtig im Labor für Datenraten von 1 GBit/s getestet.

Die Spurgenauigkeit wird durch ein ANN (Artificial Neural Network) erhöht. So können nichtlineare Effekte durch Lagerreibung und elektromechanische Eigenschaften in Echtzeit ausgeglichen werden. Dazu sind schnelle 32-Bit Mikroprozessoren erforderlich.

Für die Positionierung auf immer näher zusammenliegende Spuren reicht aber die Genauigkeit der heutigen Voice-Coil-Motoren (VCM) nicht mehr aus. Daher erhalten die Kopfarme in Zukunft am vorderen Ende des Kopfes eine Feinjustage-Vorrichtung aus Piezo-Elementen. Diese ändern je nach angelegter Spannung ihre Länge. Die Änderungen lassen sich in Schwenkbewegungen für die Feinpositionierung umsetzen.

Weitere Festplattenoptimierungen

Auch die Art der Signalkodierung hat Einfluss auf die erzielbare Speicherdichte. Eine effektivere Kodierung bedeutet, dass auch mit weniger Redundanzbits eine gute Fehlerkorrektur erzielt wird. Damit vergrößert sich die Anzahl der Nutzbits. Die möglichen Verbesserungen zeigt die folgende Tabelle.

Kanaltechnik und Flächendichte

Kanaltechnik

Vorgängertechnologie

Verbesserung

PRML

Einzelbit-Aufzeichnung

30 %

EPR4

PRML

18 %

E²PR

EPR4

3 %

Turbocode

E²PR

30 %

Die Verbesserung der Flächendichte in Prozent bezieht sich immer auf den Wert der Vorgängerkanaltechnik.

Seit 1997 ist EPR4 der Standard in Plattenlaufwerken und inzwischen auch bei Magnetbandlaufwerken. Die Ziffer 4 steht für vier Abtastwerte je magnetischem Signalwechsel. Der Turbocode ist eine Entwicklung aus der Nachrichtentechnik, ebenso wie die PRML-Kodierung. Turbocode wird bereits in Mobiltelefonen und bei der Datenübertragung mit Satelliten eingesetzt. Die Umsetzung von Turbocode in einem entsprechenden Chip für Festplatten ist jedoch sehr schwierig und teuer.

Nanatechnik zur Aufzeichnung

Mit der Nadelspitze eines Rastertunnel-Mikroskops (RTM) lassen sich einzelne Atome adressieren. Ist diese Spitze magnetisch, dann kann sie den Spin (Drehimpuls) einzelner Elektronen messen und somit deren magnetischen Zustand ermitteln. Das RTM ist jedoch für die Nutzung als Datenspeicher um viele Größenordnungen zu groß, zu teuer und zu langsam. Es wird jedoch daran gearbeitet, dieses Prinzip zumindest in Verbindung mit dem unlängst bei IBM entdeckten Phänomen der selbst organisierenden Speicherklümpchen (magnetische Körnchen) auszunutzen. Durch besondere Fertigungsmethoden organisieren sich in bestimmten Materialien kleine Gruppen von beispielsweise 4 nm Durchmesser in regelmäßigen Abständen zu magnetischen Zellen. Diese sind thermisch sehr stabil. Mit diesen kleinen Zellen könnte die Speicherdichte nach Meinung von IBM um den Faktor 1000 vergrößert werden.

Als Aufzeichnungs- und Lesemethode besser geeignet erscheint es, ein AFM (Atomic Force Microscope) in Chipform einzusetzen. Am Almaden-Forschungszentrum der IBM in San Jose, CA, wurden schon entsprechende nanomechanische Chips eingesetzt. Beim Einsatz auf CD-ROMs mit gepressten Scheiben konnten Datendichten von bis zu 60 GBit/in² gelesen werden. Im Schreibbetrieb wurden Datendichten bis zu 40 GBit/in² erreicht. Wegen der Nanomechanik kann derzeit nur relativ langsam mit etwa 10 MBit/s gelesen werden. Deshalb werden am IBM-Labor in Zürich Chips mit derzeit 1024 Nadelspitzen (32 x 32) in einem Raster von etwa 40 nm erprobt. Die entsprechende Datendichte liegt dann bei etwa 500 GBit/in². Durch die Parallelverarbeitung können Datenraten von einigen hundert MBit/s erreicht werden.

Insgesamt werden diese Einzel-Atom-Speicherverfahren auch als Contact Recording bezeichnet, da die Nadelspitze die Erhebungen (Speicherstellen) berührt. Im Durchschnitt bieten diese Verfahren etwa 300 GBit/in² Speicherdichte. Ferro-elektrische holografische optische Verfahren sollen noch höhere Speicherdichten erlauben.

DVD-Zukunft mit blauem Laser

Bei den rein optischen Scheiben wird derzeit von Philips und Sony, den Erfindern der CD-ROM, ein neues Aufzeichnungsverfahren vorgeschlagen. Ein bereits funktionierender Prototyp kann 22,5 GByte mit einer Datenrate von 35 MBit/s unter Einsatz einer Laserdiode für blaues Licht (400 nm) aufzeichnen.

Die DVR-Blue-Technology genannte Entwicklung soll so 2,5 Stunden Spielzeit bei Videos in MPEG-2-Qualität ermöglichen. Dies ist der erste Schritt zu einem vollwertigen Digital Video Recorder (DVR).

Die Technologie ist noch nicht ausgereizt. Die Grenze für den Spurabstand wird bei 0,3 µm gesehen, die Dicke der Deckschutzschicht bei 100 µm. So ließen sich zum Beispiel auch Streuverluste durch die Lichtdämpfung verringern. Zum Vergleich: Der Spurabstand bei einer CD-R beträgt 1,6 µm, bei einer 4,7 GByte DVD-R 0,74 µm.

Mit Nahfeldlinsen bei einer optischen Öffnung (numerische Apertur) größer als 1 sollen 100 GByte in einer Aufzeichnungsschicht möglich sein. Bei Scheiben in Multilayer-Architektur, bei der sich mehrere teiltransparente Schichten in einer Scheibe befinden, ist entsprechend ein Vielfaches an Kapazität in der vierten Gerätegeneration möglich.

Fluoreszierende Speicher

Die Firma C3D entwickelt eine so genannte "True 3D Volumetric Storage"-Technologie, die sich holografischer Effekte und mehrerer Speicherebenen bedient. Die Technik soll in FMCs (Fluorescent Multilayer Cards) und FMDs (Fluorescent Multilayer Disks) eingesetzt werden. Das Speichermaterial, Scheibe oder Chipkarte, ist vollständig durchsichtig. Die Pits (Vertiefungen im Material) sind mit einem fluoreszierenden Material gefüllt, das das Licht in alle Richtungen reflektiert. Dies so erzeugte nichtkohärente Licht verbessert die Unterscheidung zwischen Pit und Land gegenüber herkömmlichen Technologien, wie sie beispielsweise bei DVDs mit kohärentem Licht zum Einsatz kommen. Die Lese-Geschwindigkeit soll bei bis zu 1 GByte/s liegen.

Ein Speicher in Chipkartengröße soll in 20 internen Lagen bis zu 20 GByte aufnehmen. Eine FMD-ROM mit 120 mm Durchmesser mit 10 Lagen kann etwa 140 GByte speichern. Die Weiterentwicklung bis zu 1 TByte je Scheibe wird als möglich erachtet. Eine Scheibe oder eine Chipkarte soll zu einem Preis von 1 US-Dollar herstellbar sein. Die erste FMD soll mit 100 GByte Kapazität in diesem Jahr zur Serienreife entwickelt werden und nächstes Jahr auf den Markt kommen. Eine maßgeblich daran beteiligte Firma ist Lite-On.

Ferro-elektrische- und Bio-Speicher

Beim so genannten FE-Verfahren (z. B. in Ferroelectric-Holographic-Optical-Laufwerken) erfolgt das Schreiben der Daten mit blauem UV-Laserlicht und einem Spannungsübertrager. Das relativ hoch energetische Licht ist in der Lage, die Speicherzellen je nach angelegter Spannung zu polarisieren.

Die Photonen führen die ferroelektrischen Molekülen je nach Polarität der zusätzlich angelegten Spannung in verschiedenen stabile Zustände über. Diese unterscheiden sich durch eine um etwa 1,5 % verlängerte oder verkürzte Moleküllänge. Diese Längenänderung bleibt auch erhalten, wenn das Laserlicht nicht mehr leuchtet und die Spannung am Übertrager ausgeschaltet ist. Mit verschieden starken Laserstrahlen lassen sich bis zu vier statische Zustände je Molekül erzeugen

Das Auslesen geschieht ebenfalls optisch: Die unterschiedlich langen Moleküle unterscheiden sich in den Brechungseigenschaften. Ein nano-optischer Transistor oder ein MOSFET genannter "Nanofloating Gate" wertet diese Informationen aus und liefert die gespeicherten Daten zurück.

Bisher ist es noch sehr schwierig, die ferro-elektrischen Perovskite-Dipole in den nanokristallinen Speicherzellen zu beeinflussen. Professor Williams an der Keele-Universität in England hat dennoch ein Verfahren entwickelt, mit dem bei violettem Laserlicht bis zu 10 TByte auf den beiden Seiten einer kreditkartengroßen Speicherkarte gespeichert werden können. Auf eine Scheibe im CD-Format sollen 245 GByte beim Einsatz von rotem Laserlicht passen. Das patentierte Verfahren wurde in dreizehnjähriger Arbeit entwickelt. Einzelheiten zu diesem 3D-magneto-optischen Verfahren wurden bislang jedoch noch nicht veröffentlicht.

Als Ersatz für magnetische und Halbleiter-Speichertechnologien sind zudem Bio-Speicher von Interesse. Dabei handelt es sich um volumetrische Speicher aus Proteinen, Flüssigkristallen oder anderen Molekülen. Die Proteine sollen auf Licht bis zu 1000-mal schneller reagieren als heutige RAM-Speicherzellen. Bisher ist jedoch die Laseransteuerung der begrenzende Faktor für die Geschwindigkeit.

Ausblick

Die Erhöhung der Flächendichte bei Festplatten von heute etwa 50 GBit/in² im Labor auf das Doppelte scheint in absehbarer Zeit möglich zu sein. Die Spurdichte soll von jetzt 20.000 bis 30.000 TPI auf 100.000 TPI gebracht werden. Testgeräte dafür gibt es schon. Die Bitdichte von 500.000 BPI innerhalb der Spur wird als nächstes Ziel angesteuert. Heute werden Bitdichten von 300.000 BPI genutzt.

Bei dem Zusammenspiel von Kopf und Scheibenoberfläche scheint nach Meinung der Experten ebenfalls eine sehr schnelle Weiterentwicklung möglich zu sein. Dazu gehören magnetische Oberflächen mit einer höheren Koerzivität. Damit gehen kleinere magnetische Zellen wie auch eine höhere Datendichte einher.

Die Methode von IBM selbst organisierte Nanopartikel für die Speicherung zu verwenden, scheint ebenfalls sehr zukunftsträchtig. IBM erwartet Datendichten von bis zu 130 TBit/in² mit dieser Methode zu erreichen.

Das vorläufige Ende der magnetischen Aufzeichnung ist erreicht, wenn ein Bit als Information im Spin (Drehimpuls) eines Elektrons zuverlässig gespeichert werden kann. Messtechnisch wurde diese Funktion, ebenso wie bei Atomen oder Molekülen, schon erfasst. Das wäre dann die letzte superparamagnetische Grenze, sofern die Wissenschaftler nicht auch noch Quarks für die magnetische Speicherung nutzen können.

Bis rein optische, holografische oder auch auf Fluoreszenz basierende Speichertechniken die klassische Festplatte ersetzen, gehen noch einige Jahre ins Land: Der Umstieg auf eine komplett neue Technologie ist zunächst sehr viel teuer als die Weiterentwicklung einer bestehenden. (fkh)

Der Autor

Hermann Strass ist Berater für neue Technologien, insbesondere für Bus-Architekturen, Massenspeicher und industrielle Netzwerke, Mitglied in nationalen und internationalen Normungsgremien, in der IEEE Computer Society sowie Technical Coordinator der VITA in Europa. Daneben ist er Autor von Büchern, Zeitschriftenartikeln und organisiert Seminare.