Technologie-Trends bei Festplatten & Co

07.04.2003 von Hermann Strass
Die Entwicklung der Festplatten kommt auch mittelfristig nicht zum Halten, die Terabyte-Festplatte ist inzwischen machbar. Wir beschreiben die Verfahren, die die Grenzen der Speicherdichte stetig vorantreiben.

Höhere Speicherdichten, schnellere Zugriffszeiten und Übertragungsraten bei ständig sinkenden Preisen pro GByte sind nichts Ungewöhnliches in der Festplattenentwicklung. Neben der Steigerung durch Verbesserung und Verfeinerung der bisherigen Techniken wurden auch neue Verfahren entwickelt, die im Laufe der Zeit in die Serienprodukte einfließen. In absehbarer Zukunft ist daher nicht mit einer langsameren Gangart in dieser Branche zu rechnen.

Irgendwann werden die physikalischen Grenzen der klassischen Festplattentechnologie erreicht, oder die Weiterentwicklung dieser Technologie wird zu teuer sein. Dann erfolgt der Wechsel zu optischen, holografischen und ferro-elektrischen Verfahren, die noch mehr Daten auf noch engerem Raum speichern können.

Die hohen Entwicklungskosten der neuen Technologien sowie geringe Margen bei den Produkten führen zu immer mehr Unternehmenszusammenschlüssen. Dies gilt sowohl für die Laufwerksproduzenten als auch für die Zulieferfirmen und Bauteilehersteller.

Status und kurzfristige Ziele

Die Kapazitäten bei gängigen Laufwerken liegen derzeit bei 60 bis 80 GByte je Magnetscheibe. Die Flughöhen der Schreib-/Leseköpfe liegen zum Teil unter 25 nm. Testsysteme von Axsys können Köpfe bereits mit einer Genauigkeit von 0,3 µm bezüglich des Spurabstands überprüfen.

Die Seagate Barracuda 180 - bis Mitte 2002 das größte Serienlaufwerk - fasst 180 GByte auf zwölf Plattern bei einer Bauhöhe von 1,6 Zoll (zirka 40 mm). Eine einzelne Scheibe speichert 15 GByte, was einer Datendichte von etwa 20 Gbit/in² entspricht. Die Spurdichte liegt bei 31.200 tpi (tracks per inch), die Bitdichte bei 490.000 bpi (bit per inch). Neuere Laufwerke haben bei Kapazitäten bis 300 GByte nur noch vier Scheiben, also etwa 80 GByte pro Scheibe.

Die maximalen Drehzahlen in Serienfestplatten reichen bis 15.000 U/min, wobei der maximale Platter-Durchmesser bei diesen Drives mit 2,5 Zoll kleiner ausfällt, als es die äußere Bauform im 3,5-Zoll-Formfaktor vermuten lässt. Damit können Verformungen durch die enormen Fliehkräfte am äußeren Scheibenrand vermieden werden.

Die Drehzahlen lassen sich nach Meinung von Experten noch deutlich erhöhen. Dabei finden in Zukunft Gleitlager statt Kugellager Verwendung, die Öl oder Luft als Schmiermittel einsetzen. Inzwischen gibt es schon Laufwerke mit Flüssigkeits-Gleitlagern. Ein positiver Nebeneffekt von Gleitlagern ist ein leiserer Lauf gegenüber Laufwerken mit Kugellager.

Vor zwei Jahren hat eine US-Zeitschrift zusammen mit Platten- und Komponentenherstellern ein hypothetisches Laufwerk mit 50 Gbit/in² Flächendichte konzipiert. Mit zwölf Scheiben ergibt sich eine theoretische Kapazität von 900 GByte. Je Scheibe entspräche dies etwa 75 GByte bei 600.000 bpi und 84.000 tpi. Bei Drehzahlen von 10.000 U/min ließen sich Datenraten von fast 120 MByte/s erreichen. Die Autoren dieser Studie vermuteten, dass ein solches Laufwerk in Kürze herstellbar wäre, allerdings zu einem inakzeptablen Preis. Inzwischen sind Laufwerke mit 300 GByte Kapazität auf dem Markt, verteilt auf nur vier Scheiben. Plattenspeicher mit vielen Scheiben sind nicht nur teurer, sondern erfordern auch stärkere Motoren.

Trotz dieser rasant fortschreitenden Entwicklung zeigt eine historische Analyse einen seit 1996 zunehmenden zeitlichen Abstand zwischen den Laborergebnissen und Produktionsgeräten. Offensichtlich wird es immer schwieriger, die Laborergebnisse in die Massenproduktion umzusetzen.

Größere Blöcke für mehr Kapazität

Ein relativ einfacher Weg, die Kapazität künftiger Laufwerke zu erhöhen, liegt in einer Anhebung der Blockgröße. Die meisten Laufwerke, wie sie in heutigen PCs zum Einsatz kommen, weisen eine Blockgröße von 512 Byte auf. In UNIX- und Linux-Systemen kommen auch Blockgrößen von 1 KByte oder 2 KByte zum Einsatz.

Die kleine Stückelung erfordert intern viel Speicherplatz für die Verwaltung der Blöcke. Die Industrie berät daher derzeit, die Blockgröße zunächst auf 4 KByte anzuheben. Allein durch diese Maßnahme kann die Speicherkapazität um etwa 25 Prozent steigen. Untersuchungen im Hinblick auf den Anteil von ECC-Code, Synchronisierbits und anderen Verwaltungsdaten ergeben folgende relative Kapazitäten:

Vergleich von Blockgrößen

Blockgröße

512 Byte

1 KByte

2 KByte

4 KByte

Code-Effizienz (%)

61,5

68,5

73,9

77,1

Relative Kapazität (%)

100

111

120

125

Bis zur flächendeckenden Einführung ist eine lange Übergangszeit geplant. Denn herkömmliche Betriebssysteme wie Windows können derzeit nur mit den kleinen Blockgrößen von 512 Byte arbeiten.

Datendichte verdoppelt sich jährlich

Die Hersteller arbeiten weiter an der Anhebung der Datendichte auf den Magnetscheiben. Beginnend mit der ersten Festplatte (IBM RAMAC von 1956) wurde die Flächendichte von damals 1 Kbit/in² fast linear auf über 1 Mbit/in² im Jahr 1970 hochgeschraubt. In der Zeit von 1990 bis zum Jahr 2000 erhöhte sich die Datendichte von knapp 100 Mbit/in² auf 10 Gbit/in². Heute gibt es schon Labormuster mit 100 Gbit/in² für Lesen und Schreiben (Kopf und Scheibe). Fujitsu hat 2002 gemeldet, dass ein GMR-Kopf entwickelt wurde, der Daten mit einer Dichte von 300 Gbit/in² lesen kann. Bei dieser GMR-Technik fließt der Lesestrom quer zur Kopfebene (CPP = Current Perpendicular to Plane). Ein dazu passender Schreibkopf wurde noch nicht angekündigt.

Anfang der neunziger Jahre lagen die jährlichen Zuwachsraten (CGR) der Flächendichten bei rund 60 Prozent im Jahr. Seit etwa 1997 stieg die Zuwachsrate auf durchschnittlich 100 Prozent pro Jahr. Inzwischen hat sich diese Zuwachsrate allerdings wieder verlangsamt.

Die bislang immer wieder verschobene superparamagnetische Grenze sieht man derzeit bei etwa 1000 Gbit/in² (1 Tbit/ in²). In einer IBM-Veröffentlichung vom Mai 2000 wurde diese Grenze noch bei 40 Gbit/in² gesehen. Sie sollte aber noch bis hinab zum einzelnen Elektronenspin verschiebbar sein. Eine andere Beschreibung dieser vermeintlichen Grenze für die magnetische Aufzeichnung bezieht sich direkt auf die thermische Energie. Solange die magnetische Energie in einem Elementarmagnet mehr als 50 Mal größer ist als die thermische Energie bei Raumtemperatur, gilt ein solcher Elementarmagnet als stabil (für etwa zehn Jahre).

Wo liegt die superparamagnetische Grenze?

Einer der Gründe für das Ende der magnetischen Aufzeichnung liegt im so genannten superparamagnetischen Limit, der oberen Grenze der möglichen Aufzeichnungsdichte. Thermische Instabilität gilt als Ursache für die superparamagnetische Grenze.

Die Speicherzellen auf der Magnetscheibenoberfläche bestehen aus vielen tausend elementaren Einzelmagneten. Diese werden beim Schreiben in eine bestimmte Richtung gezwungen (unterschiedlich für NULL oder EINS). Durch thermische Anregung kippen gelegentlich eines oder mehrere dieser magnetischen Partikel in die andere Richtung. Über einen längeren Zeitraum kann dadurch die gesamte Zelle unmagnetisch werden, wenn alle magnetischen Domänen in verschiedene Richtungen orientiert sind. Als Zeitraum für den Datenerhalt gibt man zehn Jahre an, obwohl Festplatten üblicherweise nicht so lange im Einsatz sind.

Diese physikalischen Vorgänge sind vom Material, der Temperatur, dem Herstellungsverfahren und den Bindemitteln abhängig. Damit ist die superparamagnetische Grenze keine feste physikalische Größe. Sie wurde bislang durch bessere Materialien und hochwertigere Herstellungsverfahren immer wieder weiter hinausgeschoben.

So hat IBM im Jahr 1999 den Dichterekord von zunächst 20 Gbit/in² in nur fünf Monaten um 75 Prozent auf 35 Gbit/in² hochgeschraubt. Bei dieser Dichte passen rund 50 GByte auf eine Platter. Der Grund dafür ist die Verwendung einer verbesserten Metalllegierung auf einem Glassubstrat.

IBM erwartete damals, dass dieses Material in nur 18 Monaten (das wäre Mitte 2001 gewesen) produktionsreif sein könnte. Besonders wichtig ist dabei, dass die thermische Stabilität der kleineren magnetischen Zellen bei der höheren Dichte zu- und nicht abgenommen hat. Inzwischen sind Festplatten mit 80 GByte pro Platter erhältlich.

Verringerung der Flughöhe

Wird die Aufzeichnungsdichte erhöht, müssen die Schreib-/Leseköpfe im Gegenzug niedriger über den rotierenden Scheiben fliegen. Nur so lassen sich starke Signale auf einer kleinen Fläche erzeugen. Wichtig ist dabei der effektive, magnetisch wirksame Abstand zwischen magnetischer Oberfläche und Kopf. Neben der Flughöhe als größtem Einzelwert müssen noch die Dicke der Schutzschichten auf der Oberfläche und der Rückversatz (Rezession) des Kopfes im Kopfträger berücksichtigt werden. Die Veeco Metrology Group und die Universität von Arizona nennen folgende Abhängigkeiten:

Flächendichte und Flughöhe

Flughöhe (nm)

Flächendichte (Gbit/in²)

19,2

9,5

14,5

15,0

12,2

40,0

6,0

100,0

Die Reduzierung von derzeit 25 nm auf die Hälfte dieser Flughöhe in Serienlaufwerken wurde inzwischen erreicht. Im Vergleich zu anderen Entwicklungen geht es bei den Flughöhen jedoch etwas langsamer voran. Derzeit befinden sich Flughöhen von 3,5 bis 5 nm im Test. Ein großes Problem ist dabei die Stabilität der Flughöhe über die ganze Platte. Adhäsions- oder Van-der-Waals-Kräfte und die Rauheit der Oberfläche sind ebenfalls kritische Faktoren.

Die Flughöhe 0, also das Schleifen des Kopfes auf der Oberfläche (Contact Recording), wird seit mehr als 20 Jahren untersucht. Die Reibungswärme und der mechanische Abrieb verhindern jedoch den Einsatz des Contact Recording. Bisher blieben alle Versuche erfolglos, daraus eine produktionsreife Technik zu machen.

Kopf- und Medientechnologien

Der Vorverstärker für die Schreib-/Leseköpfe wandert immer näher an den eigentlichen Kopf heran, um die Leitungsverluste und Fremdstörungen gering zu halten. Noch 1990 waren diese Vorverstärker außerhalb der Laufwerkskammer positioniert. Heute befinden sie sich nur noch etwa 50 mm vom Kopf entfernt auf dem so genannten E-Block. Mit der COS-Technik (Chip-on-Suspension) wandert der Vorverstärker mit etwa 4 mm Abstand direkt an den Kopf. Um die Masse möglichst gering zu halten, schleift man die Chips bis auf eine Dicke von zirka 4 µm ab. Solche Vorverstärker befinden sich gegenwärtig im Labor für Datenraten von 1 Gbit/s im Test.

Die Spurgenauigkeit wird durch ein ANN (Artificial Neural Network) erhöht. Dies gleicht nicht lineare Effekte durch Lagerreibung und elektromechanische Eigenschaften in Echtzeit aus. Dazu sind schnelle 32-Bit-Mikroprozessoren erforderlich.

Für die Positionierung auf immer näher zusammenliegenden Spuren reicht die Genauigkeit der heutigen Voice-Coil-Motoren (VCM) jedoch nicht mehr aus. Daher erhalten die Kopfarme in Zukunft am vorderen Ende des Kopfes eine Feinjustage-Vorrichtung aus Piezo-Elementen. Diese ändern je nach angelegter Spannung ihre Länge. Die Änderungen lassen sich in Schwenkbewegungen für die Feinpositionierung umsetzen.

Weitere Festplattenoptimierungen

Auch die Art der Signalkodierung hat Einfluss auf die erzielbare Speicherdichte. Eine effektivere Kodierung bedeutet, dass auch mit weniger Redundanzbits eine gute Fehlerkorrektur erzielt wird. Damit vergrößert sich die Anzahl der Nutzbits. Die möglichen Verbesserungen zeigt die folgende Tabelle.

Kanaltechnik und Flächendichte

Kanaltechnik

Vorgängertechnologie

Verbesserung

PRML

Einzelbit-Aufzeichnung

30 %

EPR4

PRML

18 %

E²PR

EPR4

3 %

Turbo-Code

E²PR

30 %

Die Verbesserung der Flächendichte in Prozent bezieht sich immer auf den Wert der Vorgängerkanaltechnik.

Seit 1997 ist EPR4 der Standard in Plattenlaufwerken und inzwischen auch bei Magnetbandlaufwerken. Die Ziffer 4 steht für vier Abtastwerte je magnetischem Signalwechsel. Ein derzeit gängiges Laufwerk von Seagate (Barracuda Serial ATA V) verwendet zum Beispiel einen EPRML-16/17-Code für die Datenspeicherung auf der Plattenoberfläche. Der Turbo-Code ist eine Entwicklung aus der Nachrichtentechnik, ebenso wie die PRML-Codierung. Turbo-Code wird bereits in Mobiltelefonen und bei der Datenübertragung mit Satelliten eingesetzt. Die Umsetzung von Turbo-Code in einem entsprechenden Chip für Festplatten ist jedoch sehr schwierig und teuer.

Nanotechnik zur Aufzeichnung

Mit der Nadelspitze eines Rastertunnel-Mikroskops (RTM) lassen sich einzelne Atome adressieren. Ist diese Spitze magnetisch, kann sie den Spin (Drehimpuls) einzelner Elektronen messen und somit deren magnetischen Zustand ermitteln. Das RTM ist jedoch für die Nutzung als Datenspeicher ein Vielfaches zu groß, zu teuer und zu langsam. Es wird aber daran gearbeitet, dieses Prinzip zumindest in Verbindung mit dem unlängst bei IBM entdeckten Phänomen der selbst organisierenden Speicherklümpchen (magnetische Körnchen) auszunutzen. Durch besondere Fertigungsmethoden organisieren sich in bestimmten Materialien kleine Gruppen von beispielsweise 4 nm Durchmesser in regelmäßigen Abständen zu magnetischen Zellen. Diese sind thermisch sehr stabil. Mit diesen kleinen Zellen ließe sich die Speicherdichte nach Meinung von IBM um den Faktor 1000 vergrößern.

Als Aufzeichnungs- und Lesemethode sollte man besser ein AFM (Atomic Force Microscope) in Chipform einsetzen. Am Almaden-Forschungszentrum von IBM in San Jose, CA, wurden schon entsprechende nanomechanische Chips verwendet. Beim Einsatz auf CD-ROMs mit gepressten Scheiben ließen sich Datendichten von bis zu 60 Gbit/in² lesen. Im Schreibbetrieb wurden Datendichten bis zu 40 Gbit/in² erreicht. Die Nanomechanik erlaubt derzeit nur ein relativ langsames Lesen mit etwa 10 Mbit/s. Deshalb erprobt das IBM-Labor in Zürich Chips mit derzeit 1024 Nadelspitzen (32 x 32) in einem Raster von etwa 40 nm. Die entsprechende Datendichte liegt dann bei etwa 500 Gbit/in². Durch die Parallelverarbeitung sind Datenraten von einigen hundert Mbit/s erreichbar.

In abgewandelter Form wird diese Sondentechnik von Seagate als Kleinspeicher für mobile Geräte (PDAs, Mobiltelefone) vorgeschlagen. Über einen rechteckigen Chip wird eine Art elektromagnetischer Besen mit regelmäßigem Borstenabstand als Schreib-/Leseelement positioniert. Elektromagnetisch oder mit MEMS-Technik wird der Chip in X- und Y-Richtung bewegt. So lassen sich viele Bits simultan neben- und hintereinander schreiben und lesen. Seagate rechnet mit ersten Sondenspeicher-Produkten in den Jahren 2006/2007.

Übergreifend nennt man diese Einzel-Atom-Speicherverfahren auch Contact Recording, da die Nadelspitze die Erhebungen (Speicherstellen) berührt. Im Durchschnitt bieten diese Verfahren etwa 300 Gbit/in² Speicherdichte. Ferro-elektrische holografische optische Verfahren sollen noch höhere Speicherdichten erlauben.

Ferro-elektrische- und Bio-Speicher

Beim so genannten FE-Verfahren (beispielsweise in Ferro-electric-Holographic-Optical-Laufwerken) erfolgt das Schreiben der Daten mit blauem UV-Laserlicht und einem Spannungsübertrager. Das relativ hoch energetische Licht ist in der Lage, die Speicherzellen je nach angelegter Spannung zu polarisieren.

Die Photonen führen die ferro-elektrischen Moleküle je nach Polarität der zusätzlich angelegten Spannung in verschiedene stabile Zustände über. Diese unterscheiden sich durch eine um etwa 1,5 Prozent verlängerte oder verkürzte Moleküllänge. Diese Längenänderung bleibt auch erhalten, wenn das Laserlicht nicht mehr leuchtet und die Spannung am Übertrager ausgeschaltet ist. Mit verschieden starken Laserstrahlen lassen sich bis zu vier statische Zustände je Molekül erzeugen.

Das Auslesen geschieht ebenfalls optisch: Die verschieden langen Moleküle unterscheiden sich in den Brechungseigenschaften. Ein nano-optischer Transistor oder ein MOSFET genannter "Nanofloating Gate" wertet diese Informationen aus und liefert die gespeicherten Daten zurück.

Bisher ist es noch sehr schwierig, die ferro-elektrischen Perovskite-Dipole in den nanokristallinen Speicherzellen zu beeinflussen. Professor Williams von der Keele-Universität in England hat dennoch ein Verfahren entwickelt, mit dem sich bei violettem Laserlicht bis zu 10 TByte auf den beiden Seiten einer kreditkartengroßen Speicherkarte speichern lassen. Auf eine Scheibe im CD-Format sollen 245 GByte beim Einsatz von rotem Laserlicht passen. Das patentierte Verfahren wurde in dreizehnjähriger Arbeit entwickelt. Einzelheiten zu diesem 3D-magneto-optischen Verfahren wurden bislang jedoch noch nicht veröffentlicht. Ferro-magnetische RAMS (MRAMs) befinden sich teilweise schon in Versuchsanwendungen im Einsatz. Bis zur echten Serienreife wird allerdings noch einige Zeit vergehen.

Als Ersatz für magnetische und Halbleiter-Speichertechnologien sind zudem Biospeicher von Interesse. Dabei handelt es sich um volumetrische Speicher aus Proteinen, Flüssigkristallen oder anderen Molekülen. Die Proteine sollen auf Licht bis zu 1000 Mal schneller reagieren als heutige RAM-Speicherzellen. Bisher ist jedoch die Laseransteuerung der begrenzende Faktor für die Geschwindigkeit.

Ausblick

Im Jahr 2000 lag die Flächendichte bei Festplatten im Labortest bei etwa 50 Gbit/in². Inzwischen ist bereits das Doppelte erreicht. Seagate meldete einen Speicherdichte-Rekord von 101 Gbit/in² für horizontale Aufzeichnung Ende 2001 und etwa 111 Gbit/in² für vertikale Aufzeichnung ein Jahr später. Die Spurdichte der horizontalen Aufzeichnung lag bei 149.000 Spuren je Zoll (tpi). Die Bitdichte von 800.000 bpi innerhalb der Spur wird als nächstes Ziel angesteuert. Bei dem genannten Rekord wurde mit einer Bitdichte von 680.000 bpi aufgezeichnet. Die Bits waren nur noch 4,6 Mal so breit wie lang. Sie hatten also nur noch eine BAR (Bit Aspect Ratio) von 4,6:1. Andere Firmen haben kurz vor und nach Seagate ebenfalls Speicherdichte-Rekorde in ähnlicher Größe gemeldet. Die Read-Rite Corp, ein Hersteller von Festplattenköpfen, meldete vor einem Jahr schon 130 Gbit/in² bei einer Kopfflughöhe von 15 nm und 610.000 bpi sowie 213.000 tpi.

Bei dem Zusammenspiel von Kopf und Scheibenoberfläche scheint nach Meinung der Experten ebenfalls eine sehr schnelle Weiterentwicklung möglich zu sein. Dazu gehören magnetische Oberflächen mit einer höheren Koerzivität. Damit gehen kleinere magnetische Zellen wie auch eine höhere Datendichte einher. Für kleinere Bitzellen ist wegen deren Stabilität ein magnetisch härteres Material erforderlich. Dieses erlaubt kein direktes Beschreiben mit den kleinen Köpfen. Hierbei kommt die HAMR-Technik (Heat Assisted Magnetic Recording) zum Einsatz.

Die Methode, selbst organisierte Nanopartikel für die Speicherung zu verwenden, scheint ebenfalls sehr zukunftsträchtig. Diese SOMA-Technik (Self Organizing Magnetic Array) kann bisher nicht gleichmäßig auf einer größeren Fläche erzeugt werden. Es gibt daher immer nur sehr kleine quadratische Flächen mit SOMA-Struktur. Deshalb ist schon beim Schreiben der Kopf so zu führen, dass er möglichst immer auf SOMA-Flächen trifft. Dies bereitet noch erhebliche Schwierigkeiten. An der Universität von Wisconsin, USA, ist es gelungen, einzelne Atome als Bitspeicher zu nutzen. Einschließlich der schützenden Atome um das Speicherbit sind 20 Atome für ein Datenbit erforderlich.

Das vorläufige Ende der magnetischen Aufzeichnung ist erreicht, wenn ein Bit sich als Information im Spin (Drehimpuls) eines Elektrons zuverlässig speichern lässt. Messtechnisch wurde diese Funktion, ebenso wie bei Atomen oder Molekülen, schon erfasst. Das wäre dann die letzte superparamagnetische Grenze, sofern die Wissenschaftler nicht auch noch Quarks für die magnetische Speicherung nutzen können. Für die nächsten zehn Jahre sollte aus heutiger Sicht die magnetische Speichertechnik nicht ernsthaft gefährdet sein.

Bis rein optische, holografische oder auch auf Fluoreszenz basierende Speichertechniken die klassische Festplatte ersetzen, gehen noch einige Jahre ins Land: Der Umstieg auf eine komplett neue Technologie ist zunächst sehr viel teurer als die Weiterentwicklung einer bestehenden. (mje/fkh)

Der Autor

Hermann Strass ist Berater für neue Technologien, insbesondere für Busarchitekturen, Massenspeicher und industrielle Netzwerke, Mitglied in nationalen und internationalen Normungsgremien sowie in der IEEE Computer Society und Technical Coordinator der VITA in Europa. Daneben ist er Autor von Büchern und Fachartikeln und organisiert Seminare.