Festplatten: Status quo und die Zukunft

20.10.2006 von Hans-Jürgen  Humbert
Festplattenkapazitäten von 750 GByte sind mittlerweile aktuell. Hybrid-Festplatten befinden sich bereits technologisch in den Startlöchern. Wo die Festplatte heute steht und wie die Entwicklung weitergeht, beantworten Experten im folgenden Gespräch.

Die Entwicklung der Festplatten in den letzten Jahren hat wohl kaum jemand in dieser Form voraussehen können. Seit der Vorstellung der ersten Festplatte im Jahre 1956 hat sich die Performance um das Zehntausendfache und die Kapazität um den Faktor 100.000 erhöht. Die vergangenen zehn Jahre haben überproportional zu der rasanten Entwicklung beigetragen.

In diesem Jahr werden weltweit rund 400 Millionen Festplatten verkauft, für das nächste Jahr wird mit einem Wachstum von 100 Prozent gerechnet. Festplatten kommen auch längst abseits der gewohnten IT-Umgebungen zum Einsatz und finden in MP3-Playern genauso Verwendungen wie in PVRs oder in PKWs.

Welche Kapazitätssprünge sind für die nähere Zukunft zu erwarten und wie unterscheiden sich Consumer- von Enterprise-Festplatten? Diese und viele andere Fragen klärt die Expertenrunde:

Die Fragen stellten Hans-Jürgen Humbert und Boris Böhles von unserer Schwesterzeitschrift ComputerPartner, der Fachzeitschrift für den ITK-Handel.

Wenn Sie sich für konkrete Produkte interessieren, werden Sie in folgenden Artikeln fündig: Schnell & riesig: SATA-II-Festplatten im Test sowie Flinke Zwerge: 2,5-Zoll-SATA-Festplatten im Test. Ausführliche Informationen zur Geschichte der Festplatte liefert Ihnen der Beitrag 50 Jahre Festplatte: Vom lahmen Riesen zum flotten Winzling.

TBytes in jedem Haushalt

Jetzt sind Platten mit bis zu 750 GByte aktuell. Welche Kapazitäten sind in Zukunft zu erwarten?

Kubsch: Wir gehen davon aus, dass in den nächsten drei Jahren irgendwo in jedem Haushalt ein Speicherplatzbedarf von zirka zwei TByte benötigt wird. Diese Kapazität wird jedoch im gesamten Haus verteilt sein. Ein gutes TByte befindet sich zentral gelagert im Netzwerk. Darüber hinaus werden Desktop-PCs Festplatten mit Kapazitäten um die 500 GByte haben. Der Rest verteilt sich auf MP3-Player, digitale Festplattenrekorder und Settopboxen.

Mauerhofer: Wir rechnen ungefähr mit 20 bis 25 Festplatten in jedem Haushalt in den nächsten Jahren.

Atzkern: Heutzutage befinden sich ja schon etwa fünf Festplatten im Haus, ohne dass sich der Anwender dessen bewusst ist. Fast jeder von uns hat zwei Computer – einen PC und ein Notebook. Dazu kommen ein oder zwei MP3-Player und ein digitaler Videorekorder. Das sind schon vier bis fünf Festplatten. Die Leute denken nicht daran, sondern nutzen die Platten einfach. Und je größer die Kapazitäten werden, desto seltener stoßen sie an ihre Grenzen. In Zukunft spielt aber nicht nur die Kapazität eine Rolle, für bestimmte Anwendungen kommen noch andere Kriterien, wie beispielsweise Temperaturbereich und Schockfestigkeit, hinzu.

Schuster: Der Automobilbereich ist dafür ein klassisches Beispiel. Es gibt bereits Festplatten, die von minus 20 bis plus 85 Grad Celsius arbeiten können. Das Automobil ist der klassische Einsatzbereich für die Festplatte der Zukunft. Die Automobilhersteller kommen mit ihren zugegeben recht hohen Anforderungen zu uns und wir versuchen, diese zu erfüllen. Hier wird sich in der nächsten Zeit noch einiges tun.

Formfaktor: Festplatten schrumpfen

Fujitsu ist einer der ersten Hersteller, der komplett auf 2,5-Zoll-Platten umgeschwenkt ist. Wie sieht der Formfaktor der Festplatte der Zukunft aus?

Hinteregger: Wenn man sich jetzt diese 400 Millionen anschaut, die verkauft werden, und die Prognose für die nächsten Jahre, so sieht man hauptsächlich das Wachstum im Bereich bei 2,5 und 1,8 Zoll.

Ergibt es denn Sinn, noch weiter zu schrumpfen, oder ist bald beim Formfaktor die Endgröße erreicht?

Hinteregger: Früher oder später sicherlich, wenn man dann die Speicherdichten noch weiter erhöht. Momentan sehe ich den Trend, dass gerade 1,8 Zoll die optimale Größe ist. Vor einigen Jahren wurde speziell die 1-Zoll-Platte stark favorisiert, doch die wurde vom Markt nicht angenommen, und es geht verstärkt auf 1,8 Zoll zurück. In Zukunft, wenn es darum geht, Festplatten in Handys einzubauen, könnte wieder ein anderer Formfaktor in Frage kommen.

Kubsch: Für den 1,8-Zoll-Bereich gibt es auch andere Technologien, die als Konkurrenz zur Festplatte zu sehen sind. Und da ist eben – Stand heute – ganz klar zu sagen, dass der Platzvorteil, den eine Compact-Flash-Lösung bietet, vorhanden ist und der Kapazitätsvorteil, den eine Festplatte bietet, zunehmend geringer wird. Stichwort ist vielleicht dann Perpendicular Recording, was die Sache ändern könnte, wenn man in letzter Konsequenz dann von Faktor 10 spricht.

Ausfälle und Garantie

Was geht bei einer Platte eher kaputt? Die Elektronik oder die Mechanik?

Atzkern: Ungefähr 30 bis 40 Prozent der Rückläufe sind mechanische Beschädigungen. Der Rest hat verschiedenste Ursachen. Dazu gehören beispielsweise Überspannungsschäden von defekten Netzteilen, die quasi die gesamte Elektronik zerstören. Weiterhin übersteigen die Mediendefekte die Elektronikdefekte noch um den Faktor 2, abgesehen von extern zugeführten Beschädigungen.

Schuster: Wir klassifizieren im OEM-Bereich auch Festplatten nach Ausfallgründen. Und da hat sich herausgestellt, dass ein Drittel der Rückläufer auf Fehler des Anwenders beziehungsweise des Assemblierers zurückzuführen ist, ein weiteres Drittel weist gar keine Fehler auf und der Rest sind tatsächlich Herstellerdefekte.

Vor ein paar Jahren ging ein großer Aufschrei durch die Presse, die Festplattenhersteller hatten ihre Garantiezeit auf ein Jahr gesenkt. Da war richtig was los. Und jetzt haben alle wieder die Garantiezeit auf mindestens drei Jahre angehoben.

Atzkern: Die Garantie müssen Hersteller mit Rückstellungen abdecken. Der Versuch, auf ein Jahr zu gehen, sollte die finanziellen Mittel, die durch Rückstellungen gebunden sind, für anderweitige Verwendungen freimachen. Der Markt in Deutschland hat natürlich mit 24 Monaten Gewährleistung diesen Aufschrei verursacht. Dabei ist aber noch zu unterscheiden zwischen Garantie und Gewährleistung, was viele im Markt draußen nicht verstanden haben. Das führt natürlich zu Streit zwischen dem Händler und dem Kunden und natürlich auch zwischen Händler und dem Lieferanten oder dem Hersteller. Darum ist man jetzt mit diesem Schritt auf drei Jahre einfach wieder aus dem Weg gegangen.

Kubsch: Letztendlich ist es ja so, dass der moralische Verschleiß einer Platte, also der Zeitpunkt, bis zu dem eine Platte vom Einsatz her interessant ist, halt sehr viel schneller geht, als typischerweise die Garantieleistungen heute auffangen. Wer wird heutzutage noch eine Festplatte reklamieren, die vor fünf Jahren gekauft wurde und eine Kapazität von 10 bis 20 GByte hat?

Sinnvolle Kapazitäten

Gibt es überhaupt noch solche Platten mit diesen kleinen Kapazitäten, und wer will die?

Mauerhofer: In Osteuropa gibt es noch vielfach Händler, die nach kleinen Platten fragen.

Ergibt es denn überhaupt Sinn, solche kleinen Platten zu bauen?

Schuster: Zumindest im Bereich 40 und 80 GByte kann man sagen, dass der preisliche Unterschied bei ein bis zwei Dollar liegt. Im Business-Bereich ist vielfach eben eine höhere Speicherkapazität nicht gewünscht. Das sind typischerweise Lösungen, bei denen die Daten in zentralen Netzwerken liegen. Höchstens noch das Betriebssystem und die Applikationen befinden sich auf der lokalen Platte. Und in dem Bereich kann man diese ein bis zwei Dollar in der Tat sparen.

Mauerhofer: Ich meine, heute bauen wir noch 160 GByte mit einer Platte. Insofern lohnt es sich nicht, 120 GByte zu bauen, weil man da zwei Platten mit mehr Köpfen braucht. Das kostet.

Atzkern: Gewisse Kapazitätspunkte haben keinen Sinn, weder technisch noch wirtschaftlich. Der Markt fordert aber immer noch diese Kapazitäten, und dem wird Rechnung getragen.

Das heißt, via Firmware wird die Platte bei 40 GByte geblockt?

Atzkern: Es geht ein wenig schneller in der Produktion. Man muss jetzt nicht die gesamte Scheibe formatieren, sondern nur einen Teilbereich. Wirtschaftlich ist das für Hersteller aber nicht interessant. Die volle Ausnutzung der eingebauten Komponenten ergibt Sinn. Man sieht es auch im Preis pro GByte. Eine 160-GByte-Platte ist sicherlich besser im Preis pro GByte als eine 40-GByte-Platte, obwohl in beiden Fällen nur eine Scheibe integriert ist.

Der nächste Kapazitätssprung

Wenn die Platten nur halb formatiert sind, müssten doch auch im Internet Anleitungen auftauchen wie beispielsweise „Machen Sie mehr aus Ihrer Platte! Von 40 auf 80 GByte mit drei Mausklicks.“

Atzkern: Das wird man beim Hersteller gut zu verhindern wissen. Wenn man nicht formatiert, können diese Herstellungsprozesse nicht vom Kunden verändert werden. Die kann selbst der Techniker bei Seagate nicht nachstellen. Ich kann daraus keine 120er machen. Das geht nicht. Weil die Platte dafür nicht ausgelegt worden ist. Sie ist nicht dafür gemacht worden.

Kubsch: Es geht eigentlich um Effizienzen in der Produktion. Wir sind unter starkem Kostendruck in diesem Bereich, weil kleinste Kapazitäten natürlich auch die geringste Marge hergeben. Man muss schauen, dass diese Produkte auch preiswert hergestellt werden können. Jede Sekunde, die in den Produktionszyklen gespart werden kann, wird genutzt.

Schuster: Und was das Aufbauen der Platte anbelangt: Selbst wenn es möglich wäre, und ich spare damit ein bis zwei Dollar – ist das der Aufwand wert? Ich glaube kaum. Beim Consumer-PC reden wir nicht von 40 oder 80 GB, da sind 160 Einstiegskapazität bis 400, 500 hoch. Da gelten andere Regeln.

Was wird der nächste Kapazitätssprung werden? Von 750 auf wie viel?

Kubsch: Es ist letztendlich die Frage, welche Technologie eingesetzt wird. Jetzt haben wir 160 GB auf einer Scheibe. Der nächste Schritt wird sein, dass man in Richtung 188 geht, 200, 250. Wenn wir dann die 250 GB mit vier Scheiben haben, dann haben wir auch das TByte. Das wird eine Geschichte sein, die in 2007 wahrscheinlich Realität wird.

Gerade im CE-Bereich, der laut Ihren Aussagen stark kommen soll, sind große Festplatten Pflicht. Mit welchen Kapazitäten und welchen Stückzahlen rechnen Sie?

Mauerhofer: Bis 2008 erwarten wir, zwei Drittel unseres Umsatzes außerhalb des klassischen Business zu machen. Wie viele Stückzahlen das exakt sind? Das kann ich nicht genau sagen, es wird von 750 Millionen Units bis Ende 2008 gesprochen. Das ist ziemlich realistisch.

Kubsch: Ich habe hier Zahlen vorliegen, die davon ausgehen, dass im Jahr 2008 der CE-Markt weltweit rund 210 Millionen Platten benötigen wird. Der Bedarf teilt sich auf Spielekonsolen, Mobile Phones, den Automotive-Bereich, Fest-plattenrekorder, MP3-Player und andere Dinge und natürlich externe Platten und Netzwerkplatten auf.

Flash vs. Festplatte oder Hybrid

Hundertprozentige Schockresistenz bei unabhängiger Einbaulage bieten Flashspeicher. Wird Flash die Festplatte über kurz oder lang verdrängen?

Hinteregger: Bei den heutigen Kosten pro GByte bei Flash gibt es keine Alternative zu Festplatten.

Atzkern: Vor allen Dingen bei größeren Kapazitäten, bei kleineren sehe ich doch schon erste Anlehnungspunkte.

Kubsch: Wenn man mit 2 GByte auskommt, ist keine Festplatte notwendig. Aber die Inhalte kommen in der Regel nur von Festplatten; das heißt, wer MP3-Player mit Flash verwendet, hat irgendwo im Hintergrund Festplatten. Im untersten Kapazitätsbereich ist Flash ganz klar im Vorteil.

Mauerhofer: Flash hat seine Berechtigung, das ist ganz klar. Es wird vielleicht in Mobiltelefonen gewinnen, aber das stört uns überhaupt nicht. Mobiltelefone sollen ja in Zukunft mit größeren Festplatten ausgestattet werden, weil man eben seine Datenbank im Telefon haben will. Und hier sind wieder Kapazitäten über 10 GByte gefragt.

Kubsch: Heute verdoppeln sich alle zehn bis zwölf Monate die Flash-Kapazitäten; Damit ist absehbar, dass Anwendungen mit bis zu 10 GByte in ein, zwei Jahren auch mit Flash realisierbar sein werden. Das Hauptunterscheidungsmerkmal ist die Anwendung, denn bei der mobilen Kommunikation ist Platz ein entscheidender Faktor ist, und hier ist Flash klar im Vorteil.

Hybrid-Festplatte

Samsung hat ja letztens eine Hybridplatte vorgestellt, die beide Welten miteinander verbinden soll.

Kubsch: Relevante Daten, die notwendig sind, um ein Betriebssystem zu booten, werden im Flash abgelegt, so der Grundgedanke einer Hybridplatte. Gleichzeitig sinkt der Stromverbrauch, weil die Spindelmotoren nur kurzfristig laufen müssen. Die Boot-Zeit verkürzt sich. Weiterhin sollen die Ausfallquoten geringer werden. Alle drei Faktoren prädestinieren Hybridplatten für den mobilen Bereich, und dort werden diese Platten auch zunächst eingesetzt werden.

Atzkern: Wie werden Hybridplatten erst mit Microsofts Windows Vista anbieten, denn erst Vista unterstützt diese Technologie. Das Betriebssystem managt nämlich die einzelnen Speicherbereiche. Um ein Word-Dokument zu speichern, muss die Platte nicht anlaufen, dazu reicht die Kapazität des Flashspeichers normalerweise aus. Das System muss aber die Platte erkennen und wissen, ob Flashspeicher vorhanden ist oder nicht. Erst das Betriebssystem bringt hier die Funktionalität.

Kubsch: Vom Prinzip her sind die Hybridplatten zwar transparent für das Betriebssystem, aber wir haben eine ganz herrliche Irritation bei Flashspeichern, das ist nämlich eine endliche Zahl von Schreibzkylen. Und genau das ist der entscheidende Punkt: Wenn ein Betriebssystem immer wieder eine Auslagerungsdatei in kurzen Zeiten neu schreibt, dann erreiche ich diese Grenzen, die ein Flashspeicher bietet, relativ schnell, und hier ist die Intelligenz des Betriebssystems gefordert.

Cachegröße bei Festplatten

Auch bei normalen Platten ist ein Cache eingebaut, dessen Inhalt allerdings bei Stromausfall verloren geht. Wird der in Zukunft noch vergrößert werden?

Kubsch: Das ist eine schwierige Frage. Ich habe die Erfahrung gemacht: Wenn es um den Verkauf der Festplatten geht, ist in vielen Bereichen die Größe des Caches kein wirkliches Argument. Hier muss man ganz klar den Markt unterscheiden in Platten, die in Consumer-PCs eingebaut sind, oder in externe Platten. Da ist, um ehrlich zu sein, keiner wirklich an der Cache-Größe interessiert. Es gibt sicherlich auch Anwendungsbereiche – Stichwort SCSI-Platten –, wo das schon ein gewichtiges Argument ist.

Mauerhofer: Der wirkliche Sprung war von 2 auf 8 MByte, aber die Steigerung auf 16 MByte spielt keine wirkliche Rolle. Cache ist ein Marketingargument. Man muss es einfach haben.

Schuster: Unter Umständen hat jedoch ein großer Cache seine Berechtigung. Zum Beispiel in automobilen Anwendungen, wenn es zu Schocks und Vibrationen kommt. Dann ist ein gewisser Teil der Daten im Cache eben gepuffert, und der Datenstrom reißt nicht ab.

Atzkern: Beim Thema Schockfestigkeit ist Cache schon wichtig, die meiste Zeit sollten eigentlich die Köpfe nicht über dem Medium sein. Das heißt, hier brauche ich Cache als Zwischenpuffer, der in Bruchteilen von Sekunden aufgefüllt ist. Danach fährt der Kopf wieder in seine Parkposition, und die Platte ist, wie Flash, schockresistent bis 1.500 G. Ein Cache von 16 MByte bringt schon einen Geschwindigkeitsvorteil. Aber das Management der Festplatten muss auch damit umgehen können. Einfach den Cache verdoppeln oder vervierfachen, ohne das Cache-Management zu verbessern, würde nichts bringen. Mehr Vorteile hätten allerdings neue Sektorengrößen von 512 Byte auf 1.024 oder 4.096 Byte pro Sektor. Das wäre die größte und beste Weiterentwicklung in den nächsten Jahren.

Enterprise- vs. Consumer-Festplatten

Was ist der Unterschied zwischen einer Enterprise- und einer Consumer-Platte?

Atzkern: Bei allen Unternehmensanwendungen ist es extrem wichtig, hoch zuverlässige und hoch leistungsfähige Platten einzusetzen. Dazu ein Beispiel: Um die gleichen Transaktionsleistungen zu schaffen wie eine High-End-Enterprise-Platte, braucht es drei Consumer-Platten. Man braucht viel größere Plattenfarmen, um den Transaktionsbedarf beispielsweise von Banken und Versicherungen abzudecken. Mit Enterprise-Laufwerken lässt sich die Zahl der Platten verringern und damit natürlich auch die Anzahl der Ausfälle insgesamt reduzieren, weil weniger Platten im Einsatz sind. In Enterprise-Platten sind zudem sehr viele technische Details implementiert, beispielsweise zwei Prozessoren im Vergleich zu einem bei den PC-Laufwerken, die eine erhöhte Datensicherheit gewährleisten. Diese Sicherheit-Features will jedoch kein Mensch bezahlen, weder im CE-Bereich noch in der normalen PC-Welt. Durch den höheren Preis zeigt sich auch, warum dieser Markt nicht extrem wächst. Der Kostendruck im gesamten Markt führt dazu, dass auch Consumer- oder normale S-ATA-Platten hier eingesetzt werden, obwohl Enterprise-Laufwerke Pflicht wären.

Diese Festplatten, die aus dem Consumer-Bereich kommen, die sind doch eigentlich nicht ausgelegt für einen Betrieb rund um die Uhr, oder?

Atzkern: Ich denke, dass Platten von jedem Hersteller 24/7-tauglich sind, das heißt: Diese Laufwerke können rund um die Uhr arbeiten. Aufgrund der höheren Zahl von Betriebsstunden werden natürlich auch ein paar Laufwerke mehr ausfallen. Die Statistiken sprechen einfach dagegen, das ist ähnlich wie beim Auto: Wenn Sie 100.000 Kilometer im Jahr fahren, müssen Sie öfter in die Werkstatt und zum Service gehen, Sie werden viel-leicht auch mehr Reparaturen haben, als wenn Sie nur 20.000 Kilometer fahren. Und genau dieses Prinzip gilt auch bei all diesen Geräten, und die Festplatte ist ein technisches Gerät.

Man kann Consumer-Platten überall einsetzen, nur Leistungsanforderungen wie Datenbanken sind ganz klar der Bereich, wo Enterprise-Server-Platten zum Einsatz kommen sollten beziehungsweise müssen, weil man sonst einfach ein sehr hohes Risiko eingeht. Wie vorher gesagt, werden wir bald mehrere TB über den Haushalt verteilt haben, wobei eine Platte permanent im Hintergrund im Netzwerk Musik und Videos aufnimmt. Auch diese Platte würde dann 24 Stunden an sieben Tagen laufen.

Kubsch: „24 Stunden sieben Tage“ ist heute kein Thema mehr. Das sind Spezifikationen, die auch für Consumer-Platten gelten. In Zukunft wird es jedoch S-ATA-Platten mit einem erweiterten MTBF-Bereich, gerade im Hinblick auf solche Anwendungen, geben.

Formfaktor und Drehzahl bei Server-Festplatten

Lassen Sie uns noch einmal über Serverplatten sprechen. Der Trend geht in Richtung 2,5 Zoll. Ich habe gehört, dass Assemblierer von diesem Formfaktor nicht begeistert sein sollen. Stimmt das?

Hinteregger: Nein, ganz im Gegenteil. 2,5 Zoll, auch Small Form Factor genannt und mit SAS-Interface ausgestattet, ist ein großer Markt. Wir glauben, dass das in Zukunft ein stark zunehmender Trend sein wird – auch im Serverbereich.

Atzkern: Man muss beachten, dass bei hohen Transaktionsleistungen die Anzahl der Laufwerke der skalierende Faktor ist. Und in einem bestehenden System lassen sich nun mal mehr 2,5-Zoll- als 3,5-Zoll-Platten unterbringen. Bei 2,5-Zoll bekomme ich die doppelte Leistung gegenüber 3,5-Zoll-Platten. Von der Kapazität dagegen bieten 3,5-Zoll-Laufwerken immer das Doppelte. Für die richtige Auswahl der Platten kommt es immer auf die Applikation an, die der Kunde anwendet. Ist es eine transaktionelle Anwendung, dann wird dieses System mit vielen 2,5-Zoll-Laufwerken ausgestattet werden. Wenn es um Kapazitäten geht und hohe Transaktionsleistungen benö-tigt werden, dann wird das System mit 3,5-Zoll-Platten ausgestattet. Wenn man aber nur Daten verwalten will, dann wird man diese Daten auf S-ATA- oder SCSI-Laufwerke auslagern. Nur als Hintergrund, bei Enterprise-Laufwerken, werden die mittleren Kapazitäten am meisten gewünscht. Die Laufwerke werden mit einer bis vier Scheiben gebaut, und die Zwei-Scheiben-Laufwerke gehen am besten. Laufwerke mit 10.000 Touren werden aussterben, da der Trend zu 15-k-Laufwerken geht.

Sind noch höhere Drehzahlen in Planung? Vor fünf Jahren war beispielsweise die Rede von 25.000 Touren.

Atzkern: Die Techniken waren vorhanden und sind dann wieder eingemottet worden, weil der Trend mehr in Richtung Transaktionsleistung geht – das heißt: mehr Platten. Die Leute wollen mehr Transaktionsleistung bei moderater Leistungsaufnahme.

Hinteregger: Der Trend ist ganz klar 15 k; 10 k ist nach wie vor dominant – sollte aussterben, hält sich aber. Darüber hinaus gibt es, glaube ich, momentan keine konkrete Planung.

Atzkern: Die Frage nach der Drehzahl stellt sich natürlich auch im PC-Bereich. Höhere Drehzahlen machen erst dann Sinn, wenn der Markt die oberste Drehzahlgrenze erreicht und akzeptiert hat. Die Hersteller bieten zurzeit schon sehr viele Produktvarianten an, logistisch wird es für Hersteller, Handel und auch für Kunden immer unüberschaubarer. Käme jetzt noch eine Vielzahl von Laufwerken mit unterschiedlichen Drehzahlen, aber ähnlichen Funktionen hinzu, würde das den Markt mehr verwirren, als es ihm gut tut. Im PC-Bereich sind Drehzahlen von 7.200 Standard bei 3,5-Zoll-Laufwerken. 5.400 Touren sterben bei 3,5-Zoll aus und werden bei 2,5-Zoll zum aktuellen Standard.

Hinteregger: Es gibt noch 4.200, aber auch hier geht der Trend ganz klar zu 5.400 Touren, selbst bei Standard-Notebooks. 2,5-Zoll, 5.400 Umdrehungen mit S-ATA-Interface, das sind die aktuellen Platten für Notebooks.

SATA dominiert

Wird sich am Interface in naher Zukunft etwas ändern?

Atzkern: Parallel-ATA bleibt aktuell. Bis so eine Schnittstelle komplett ausgestorben ist, dauert es ein bisschen länger.

Schuster: Bei Systemen, die heute gebaut werden, beträgt der Anteil von SATA schon 80 bis 90 Prozent.

Kubsch: Da gibt es auch ganz klare Bestrebungen in Richtung SATA, und ich gehe davon aus, dass 2007 SATA ein durchgängiges Thema auf der optischen Front sein wird. Es gibt mittlerweile erste Chipsätze für Boards, wo kein PATA mehr vorhanden ist. Dann gibt es auch für die optischen Laufwerke keine andere Lösung mehr als SATA. Der Umstieg auf SATA ist zunächst, wie immer, eine Kostenfrage. Auch bei den Festplatten ist es am Anfang so gewesen, dass SATA-Laufwerke teurer waren als solche mit P-ATA-Schnittstelle. Im Consumer-PC-Bereich zählt aber jeder Dollar. Letztendlich würde ein Laufwerk mit paralleler Schnittstelle im optischen Bereich noch deutlich länger verfügbar sein, wenn die Integrierer nicht dazu gezwungen würden, sich von dieser Schnittstelle zu verabschieden. In der Produktion bietet SATA aber auch gewaltige Vorteile, wesentlich dünnere Kabel und keine Master-Slave-Thematik. Aber mittlerweile ist ein Parallelkabel deutlich teurer als ein SATA-Kabel. Wir reden hier über Cents. (mje)

Dieser Beitrag basiert auf einem Artikel unserer Schwesterzeitschrift ComputerPartner, der Fachzeitschrift für den ITK-Handel.