50 Jahre Festplatte: Vom lahmen Riesen zum flotten Winzling

13.09.2006 von Thomas Steudten
Am 13. September 1956 wurde die erste Festplatte vorgestellt. Seitdem hat sich die Performance um das Zehntausendfache und die Kapazität um den Faktor 100.000 erhöht. Lassen wir die rasante Entwicklung der Festplatte nochmals Revue passieren.

"640kB ought to be enough for anybody" – zu Deutsch: "640 KByte (RAM) sollten eigentlich genug für jeden sein" – wer kennt diese Aussage von Bill Gates aus dem Jahr 1981 nicht!

Wer vor längerer Zeit noch eine Abhandlung auf einer elektro-mechanischen Schreibmaschine verfassen durfte, der weiß, wie lange es dauert, eine DIN-A4-Seite damit zu füllen, und wie viele Zeichen darauf Platz haben – zwei Seiten entsprechen in etwa einem KByte an Daten.

Portable MP3-Player, USB-Memory-Sticks und die aktuellen Handygenerationen verfügen mittlerweile über Speicherkapazitäten, die einigen hundert Bildern oder Musikdateien Platz bieten. Die in diesen Geräten vorhandenen statischen Flash-Speicher werden durch Miniaturfestplatten im 0,85-Zoll-Formfaktor alternativ ersetzt. Bekannt sein dürfte der iPod der Firma Apple, der mit seiner 1,8 Zoll großen Festplatte – im iPod mini ein Zoll – bis 60 beziehungsweise 6 GByte an Daten speichern kann.

Aktuelle Festplatten nähern sich einem Terabyte (10^12) an Kapazität. Dies entspricht in etwa einem Faktor von einer Milliarde, also zirka zwei Milliarden DIN-A4-Seiten an Text. Musste man noch mit einem KByte Speicher wirtschaftlich umgehen, erlauben die heutigen Kapazitäten einen recht sorglosen Umgang mit gespeicherten Daten. Speicher in Form von magnetischer Aufzeichnung ist heute in großen Mengen kostengünstig verfügbar und stellt somit kaum noch einen Engpass dar.

Werfen wir einen Blick zurück auf die erste Festplatte, die ihren Siegeszug begann, den damaligen Band- und Trommelspeichern Konkurrenz zu machen. Außerdem beschreiben wir die Entwicklung der Festplatten in den letzten 50 Jahren.

So ging es los…

Am 13. September 1956 stellte IBM das Rechnersystem "RAMAC 305" (Random Access Method of Accounting and Control) zur Echtzeit-Datenverarbeitung vor. Es war aufgrund der damaligen Röhrentechnik und viel Mechanik eine große Anlage und mit dem "IBM 350"-Festplattenspeicher mit einer Kapazität von fünf MByte ausgestattet. Die IBM 350 gilt als die erste Festplatte im heutigen Sinne überhaupt.

Vor der ersten Festplatte gab es bereits die Trommelspeicher – zirka ab dem Jahr 1947/1948. Im Jahr 1957 bot der Trommelspeicher "Deuce Drum Store" eine Kapazität von 32 KByte, und Conrad Zuse stellte den Z22 mit Magnettrommel vor. Die Magnettrommel des Z22 rotierte mit 6000 U/min und bot 8192 Speicherplätze.

… IBM 350 mit fünf MByte

Das Speichervolumen von fünf MByte der 1956 vorgestellten IBM 350 verteilte sich beidseitig auf 50 mit Eisenoxyd beschichtete Scheiben, die jeweils einen Durchmesser von knapp 61 Zentimetern hatten. Zum Vergleich: Bei aktuellen Festplatten besitzen die Scheiben einen Durchmesser von zirka sechs Zentimetern.

Vor der Einführung dieses magnetischen Datenspeichers mit sequenziellem Zugriff konnte man nur den Hauptspeicher in Form von Ferritkernen, Bänder und Magnettrommeln zur Speicherung nutzen. Diese damals neue Technik wurde aus dem gleichen Grund entwickelt, wie dies heute geschieht: mehr Kapazität mit kleineren Abmessungen.

Die RAMAC 305 – zirka 1000-mal gefertigt bis zum Ende der Produktion im Jahre 1961 – war eines der letzten Systeme von IBM, die noch mit Vakuumröhren arbeitete. Der Aufbau des Festplattenspeichers IBM 350 erinnert in gewisser Weise an heutige Tape-Roboter mit ihren vertikalen Aufzügen und den sich bewegenden Greifsystemen.

1958 bot man als Option an, die IBM 305 um eine weitere IBM 350 und um jeweils zwei unabhängige Schreib-/Leseköpfe auf eine Kapazität von 20 MByte zu erweitern.

Von der IBM 350 gab es von September 1956 bis zum 12. Januar 1959 14 Modelle, bis zum Stopp am 18. August 1969. Es bestand aus den 50 Platten, dem Greifsystem, den elektrischen und pneumatischen Kontrollen dafür, und einem Luftdruckkompressor. Das Gehäuse der Festplatte war in etwa so groß wie zwei mannshohe Kühlschränke. Jede der 50 Platten war in 10.000 Sektoren mit je 100 Zeichen organisiert.

Wer damals das Wunderwerk der Technik käuflich erwerben oder doch zumindest benutzen wollte, musste sehr tief in die Tasche greifen: 250.000 Dollar nach heutiger Rechnung musste man pro Jahr an Leasing-Gebühren für das System berappen. Dafür erhielt man eine Technik, von der IT-Spezialisten in den 50er Jahren nur träumen konnten: Zum ersten Mal war es möglich, Daten nicht nur sequenziell abzuspeichern wie bei den bekannten Bandspeichern, sondern im Prinzip irgendwo auf dem Speichermedium.

Heute trägt man Speicher-Sticks am Schmuckhalsband, die ein Fassungsvermögen von mehreren GByte besitzen – eine Kapazität, die vor 20 Jahren reichte, um die Daten eines mittelständischen Unternehmens zu sichern.

Prinzip unverändert: Technik der Festplatte

Im Grunde hat sich an Aufbau und Funktionsweise moderner Festplatten seit damals kaum etwas geändert, es kommen heute modernere Aufzeichnungsverfahren und Materialien zum Einsatz.

Ein (ferro-) magnetisches Material auf der Oberfläche von Scheiben (Englisch: „Platter“) ist der eigentliche Datenträger. Die Scheiben bestehen meist aus formstabilen Aluminium-Legierungen oder Glassubstrat und sollten eine geringe elektrische Leitfähigkeit aufweisen, um die Wirbelströme gering zu halten. Diese Scheiben werden von einem Motor in Rotation versetzt. In Notebooks drehen diese meist mit 4200 oder 5400 U/min, anspruchsvolle Server-Systeme arbeiten mit 15.000er Festplatten.

Als Lager für die Scheiben kommen heute meist leise Flüssigkeitslager (Englisch: „fluid dynamic bearing“ – FDB) als Ersatz zu den bis zum Jahr 2000 verwendeten Kugellagern zum Einsatz. Die FDB-Technologie sorgt auch für eine längere Lebensdauer der Lager. Ein Linear- oder Steppermotor bewegt einen leichten stabilen Arm über die Scheiben, an dessen Ende der kleine Schreib-/Lesekopf befestigt ist. Eine Steuerelektronik für die Motoren, Leseverstärker und Interface ergänzen die Festplatte. Außerdem besitzen die Laufwerke eine Firmware, die recht leicht durch eine aktuellere Version ersetzt werden kann. Die Firmware beinhaltet Selbsttests und einen Algorithmus, um die Zugriffe auf das Medium – meist über einen Zwischenspeicher (Cache) bis 16 MByte – zu optimieren.

Je näher die Köpfe an das Medium herankommen – ohne jedoch Kontakt und damit Abrieb zu haben – und je kleiner die Köpfe sind, desto besser ist das Signal, welches der Lesekopf von der magnetisierten Stelle auf dem Medium erhält. Heutige Abstände zwischen Köpfen und Medium betragen meist nur 20 nm, dies im Gegensatz zur damaligen IBM 350 mit 20,32 µm. Mitte 1999 lagen diese Werte noch bei 50 nm. Durch die Rotation der Scheiben entsteht aufgrund der mitgezogenen Luft ein Luftpolster, auf dem der winzige Kopf schwebt. Ein Staubkorn oder ein Haar – Durchmesser zirka 50 µm – auf dem Medium wirkt bei diesen Winzigkeiten wie ein Berg und hätte fatale Folgen. Aus diesem Grund sind heutige Festplattengehäuse so abgeschlossen, dass Luft nur über eine winzige Öffnung durch einen Filter Zugang findet, damit die erwärmte Luft im Gehäuse zu keinem Überdruck führt. Moderne Festplatten werden daher in Reinräumen gefertigt, und ein Öffnen der Gehäuse unter normalen Bedingungen bedeutet in der Regel das Aus für die Platte.

Wo sind die Daten? Track, Sektor & Zylinder

Der Schreibkopf erzeugt durch Induktion ein winziges magnetisches Feld, welches die magnetisierbare Schicht auf den Scheiben je nach Bit 0/1 genau unter dem Kopf beeinflusst. Diese geänderte Magnetisierungsrichtung kann der Lesekopf dann wieder auswerten. Die magnetische Schicht auf den Scheiben hat eine steile Hysterese, wodurch diese Schicht nicht durch äußere, stets vorhandene Magnetfelder beeinflusst werden kann.

Aktuelle Magnetscheiben werden radial in Spuren (Tracks), die wiederum in Blöcke gegliedert sind, beschrieben. Der gleiche Track auf allen Scheiben wird auch als Zylinder, und die gleiche Winkelposition über alle Scheiben als Sektor bezeichnet. Ein Block hat meist die Größe von 512 Byte. Vor nicht allzu langer Zeit sprach man die Festplatte über den Zylinder, die Kopfnummer und den Sektor an (CHS). Moderne Betriebssysteme und Festplatten arbeiten mit logischer Sektoradressierung (LBA) über alle Sektoren, beginnend von außen mit Null bis zum maximalen Sektor auf der Innenspur der Scheibe.

So kann die Firmware der Festplatte bei einem defekten Sektor diesen als defekt markieren, in eine Defektliste eintragen und einen Reservesektor an die logische Sektornummer eintragen – das alles automatisch. Reservesektoren sind bei einer Festplatte durch die Firmware versteckt, und die Anzahl und Position variiert je nach Hersteller. Zusätzlich zu den 512 Daten-Bytes kommen noch Fehlererkennungs- (ED) und Fehlerkorrekturcode (ECC/FEC) hinzu.

Die Kodierungen der Daten über die Jahre waren und sind:

Mit den Kodierungen werden die Datenbits in Codefragmente übersetzt und so auf das Medium geschrieben, dass die Fehlerkorrektur greifen kann. Zum Teil kommt es dadurch auch zu einer Kompression der Daten.

Schrumpfkur: Von Ziegelsteinen zu Winzlingen

Während die IBM 350 noch das Ausmaß von zwei großen Kühlschränken hatte, gibt es heute Festplatten, die kleiner sind als eine Zündholzschachtel.

Die physikalischen Dimensionen von Festplatten werden traditionell in Zoll angegeben und sind keine absoluten Werte, sondern eher ein Formfaktor. Bei 3,5-Zoll-Festplatten haben die Scheiben meist diese Abmessung, das Gehäuse ist verständlicherweise größer. Festplatten in Desktop-PCs haben heute meist einen Formfaktor von 3,5 Zoll. In Notebooks arbeiten überwiegend 2,5-Zoll-Laufwerke und in MP3-Playern und Handys sind überwiegend 1-Zoll-Festplatten verbaut. Die Größen variieren von damals 8 Zoll bis hin zu aktuellen 0,85-Zoll-Festplatten. 1979 stellte Seagate beispielsweise die erste 5,25-Zoll-Platte vor.

Entwicklung

Ausgehend vom Grundprinzip lässt sich die Kapazität mit folgenden Maßnahmen vergrößern:

Die Zugriffsgeschwindigkeit und die mittlere Datentransferrate am Interface hängen ab von:

Frühe MFM-Festplatten – bis Mitte der 80er Jahre der Standard bei den PC-Festplatten – verwendeten das MFM-Verfahren, um Daten auf das Medium zu schreiben. Die Nachfolger waren die so genannten RLL-Platten. Von den Platten blieben bis heute nur noch die Aufzeichnungsverfahren MFM und RLL. Beiden gemeinsam war, dass die Elektronik aus einem externen Controller (S-100) bestand, der über zwei Kabel – 34-Pin-Kontroll- und 20-Pin-Datenkabel – mit der Festplatte verbunden wurde.

Mit ESDI (Enhanced Small Disk Interface) brachte Maxtor in den 80er Jahren – bis Mitte der 90er – mehr Logik vom Controller in die Festplattenelektronik, war aber gleichzeitig kompatibel zum ST506-Standard. Erste Platten mit integriertem Controller, so genannte IDE- (Integrated Drive Electronics) Platten, kamen von IBM und bildeten damit den IDE-Standard der Schnittstellen.

Schrumpfköpfe

Die Flächendichte auf den Festplattenscheiben stieg von 2000 Bit pro Quadratzoll im Jahr 1957 auf über ein GBit pro Quadratzoll in den Jahren 1995 bis 1997. Ab 1997 begann IBM damit, Festplatten mit Technik aus der Spintronik zu produzieren. Damit konnte die Kapazität gegenüber acht Jahren zuvor um den Faktor 40 gesteigert werden.

Mit optimierten Schreibverfahren und sensibleren Leseköpfen – in Verbindung mit einer speziellen Scheibe beziehungsweise Oberfläche – wurde die Kapazität über die Jahre gesteigert. Anfangs noch MR-Köpfe, dann Köpfe mit GMR (Giant Magnetoresistance) aus der Spintronik und das neue Aufzeichnungsverfahren "Perpendicular Recording" – seit 2004 von Toshiba und Hitachi entwickelt – haben ihren Anteil daran.

Die erste Festplatte (1,8 Zoll, 40 GByte, 4200 U/min) mit Perpendicular Recording wurde am 17. August 2005 von Toshiba auf den Markt gebracht. Die gegenwärtige Aufzeichnungsdichte liegt damit bei 132 GBit pro Quadratzoll.

Die liegenden Bits sind aufgestanden

Beim aktuellen Perpendicular Recording (PR) liegen die magnetischen Momente nicht parallel zur Drehrichtung der Scheibe – das so genannte Longitudinal Recording –, sondern senkrecht dazu. Damit lässt sich zum einen die Datendichte weiter erhöhen, und zum anderen steigen auch die pro Zeiteinheit bearbeiteten Bits. Ab 2007 werden Festplatten mit über einem TByte und Datendichten von 230 GBit pro Quadratzoll erhältlich sein – wobei diese Datendichten schon heute in den Laboren realisiert wurden. Die vertikalen Datenbits auf dem Medium erlauben damit eine größere Datendichte, benötigen aber auch einen geringeren Abstand von Kopf und Scheibe, um die einzelnen Bits zu lokalisieren. Laut Hitachi beträgt der Abstand 10 nm für 230 GBit pro Quadratzoll.

Für Pendicular Recording und den höheren Datendichten setzt Seagate anstelle der GMR- nun TMR-Köpfe (Tunneling Magnetoresistance) ein, die ihren Widerstand bei äußerem Magnetfeld stärker ändern und somit ein stärkeres Lesesignal liefern.

Außerdem hat Seagate bereits einen Nachfolger für Pendicular Recording in Arbeit, das so genannte Thermally- oder „Heat-Assisted Magnetic Recording“-Verfahren (HAMR). Dabei wird das Medium punktuell genau an der Stelle – beispielsweise mittels Laserstrahl – erwärmt, an der dann ein Bit geschrieben werden soll. Damit sollen zehnmal so hohe Speicherdichten wie heute möglich sein.

Festplatten in aktuellen Desktop-PCs verfügen meist über ein SATA-Interface, einen großen Cache (16 MByte), die S.M.A.R.T.-Funktion für Fehlerfrüherkennung, ein Akustik-Management (AAM), Energiesparfunktionen (Power-Management) und über Sicherheitsfunktionen mit Passwortschutz.

Vergleich der Extreme: Festplatte 1956 vs. 2006

Die Größte unter den Kleinsten ist derzeit das Modell MK4001MTD von Toshiba mit einem Formfaktor von 0,85 Zoll. Mit nur einer Scheibe und zwei Köpfen bietet das Leichtgewicht von 8,5 Gramm eine Kapazität von 4 GByte. Die Festplatte arbeitet mit lediglich 3 Volt als Betriebsspannung, rotiert die Scheibe mit 3600 U/min und bietet eine Transferrate von 12,5 MByte/s. Das Laufwerk findet dabei Platz unter einer Briefmarke.

Ob sich ein mechanisch-dynamisches Speichermedium gegenüber dem wachsenden Markt der Flash-Speicher in dieser Größe durchsetzen wird, muss die Zukunft allerdings noch zeigen. Inzwischen gibt es Flash-Speicherkarten mit Kapazitäten bis 8 GByte.

Seagate kündigte im April 2006 die neue Modellreihe Seagate Barracuda 7200.10 mit einer Kapazität von 750 GByte an. Damit hat der Hersteller die aktuell größte erhältliche Festplatte im Angebot. Einen Test der Barracuda 7200.10 können Sie bei tecCHANNEL im Artikel Schnell & riesig: SATA-II-Festplatten im Test nachlesen.

Vergleicht man die Features der IBM 350 aus dem Jahr 1956 mit aktuellen Festplatten, so gab es in allen Bereichen große Fortschritte:

Features der ersten Festplatte IBM 350 im Vergleich zu aktuellen Drives

 

IBM 350

Aktuell

Faktor

Kapazität

5 MByte

750 GByte

150.000

Scheibengröße

24 Zoll

0,85 Zoll

28

U/min

1200

15.000

12,5

Gewicht

1000 kg

8,5 g

117.647

Abstand Kopf-Scheibe

20,32 µm

10 nm

2032

Zugriffszeit

600 ms

3,5 ms

171

Transferrate

0,0088 MByte/s

zirka 125 MByte/s

14.000

Datendichte

2 KBit/inch²

132 GBit/inch²

69 Mio.

Zum Vergleich: Das menschliche Gehirn fasst bei einem mittleren Gewicht von 1,5 kg bei rund 30 Milliarden Nervenzellen über 4 Terabyte an Daten. Das ist genug Platz um ein ganzen Leben abzuspeichern.

Schnittstellen im Wandel

Stellte IBM bereits 1956 eine Festplatte mit fünf MByte vor, so folgte dem 1979 Seagate mit der ST506, welche im 5,25-Zoll-Formfaktor und voller Bauhöhe ebenfalls fünf MByte speichern konnte. Dieser Festplattentyp wurde ein Industriestandard und arbeitete seitdem in CP/M-Systemen und dem ersten IBM-PC.

Nur wenig später kam das Modell ST412 mit zehn MByte auf den Markt. Beide nutzten das MFM-Aufzeichnungsverfahren, das bereits bei Floppy-Disks (5,25 Zoll) genutzt wurde.

Mit dem Nachfolger RLL wurden die Geschwindigkeit und die Kapazität um 50 Prozent gesteigert. War die Intelligenz bei MFM-Festplatten noch vollständig auf einem externen Controller untergebracht, wanderte diese bald Richtung Festplatte. Die Schnittstellen waren also mit ein wichtiges Merkmal, um Daten schnell auszutauschen: IDE und SCSI wurden spezifiziert.

Über die Jahre wurden teilweise unterschiedliche Schnittstellen für den Datentransport von der Festplatte zum Computer spezifiziert. Wurden anfänglich die Daten noch parallel mit 8 (SCSI-I) beziehungsweise 16 Bit (Wide SCSI, IDE/ EIDE, ATA/ATAPI) über das Schnittstellenkabel transportiert, so folgte man in der letzten Zeit auch hier dem Trend zur seriellen Datenübertragung (SATA, SAS). Schon früh etablierte IBM die SAA (Serial Storage Architecture) im Storage-Bereich. Hochleistungsfestplatten kamen dann mit Fibre-Channel (FC-AL) als Schnittstelle.

Im SCSI-Bereich ist Ultra 320 der aktuelle Standard, der eine Übertragungsrate von 320 MByte/s von und zum Controller für alle 16 Geräte gemeinsam ermöglicht. In der parallelen und seriellen Datenübertragung wurden die Signalspannungen verringert und die Leitungspaare symmetrisch ausgelegt – die Übertragung erfolgte differenziell (LVD, SAS, SATA). Die Vorteile von SCSI – Abwärtskompatibilität, kombinierbar, auch für externe Geräte – wurden auch teilweise für SATA übernommen.

Nachfolgend finden Sie die verschiedenen Festplattenschnittstellen chronologisch aufgelistet:

Aussicht

Die Speicherkapazität wird bald auf ein TByte zugehen, und wer kennt nicht das Symptom: Je größer die Wohnung, umso mehr sammelt sich über die Zeit an – ob es gebraucht wird oder nicht.

Das Projekt Millipede von IBM geht einen anderen Weg der Datenspeicherung und kombiniert Nanomechanik mit nicht magnetischen Medien. Auch holografische Speicherlaufwerke sollen gemäß des Unternehmens Inphase noch 2006 auf den Markt kommen. Diese sollen 300 GByte auf einer Scheibe mit 13 cm Durchmesser und einer Transferrate von 20 MByte/s speichern.

Und wem 32 GByte im Formfaktor 1,8 Zoll reichen, der kann sich der Solid-State-Disk (SSD) mit Flash-Speicher-Chips bedienen, die wie eine herkömmliche Festplatte genutzt werden kann.

Das vergangene halbe Jahrhundert hat Neuerungen in diesem Bereich gebracht, die letzten zehn Jahre haben aber überproportional dazu beigetragen. Freuen wir uns auf die nächsten 50 Jahre mit riesigen Speichermengen und hoffentlich nicht mehr vorhandener Wartezeit für den Nutzer. (cvi)