Rambus im Detail

31.12.1999 von Christian Vilsbeck und Michael Eckert
Nach dem ersten Fiasko mit dem 820-Chipset ist es Intel geglückt, seine Plattform für Rambus-Speicher auf den Markt zu bringen. Wir zeigen die Technologie, die hinter RDRAM steckt und haben getestet, ob sich das Warten gelohnt hat.

Die ursprünglich für den 27. September 1999 geplante Premiere des 820-Chipsets und der damit ersten Plattform mit Rambus-Speicher (RDRAM) musste wegen Kompatibilitätsprobleme ins Wasser fallen. Nach dem Rückzieher und diversen Gerüchten ist die Lösung des Problems jetzt eher banal. Statt der problematischen Konfiguration mit drei RIMM-Sockeln schreibt Intel einfach eine Bestückung mit maximal zwei RIMMs pro Mainboard vor. Auch die Zwischenlösung mit MTH (Memory Translator Hub) und SDRAM muss mit maximal zwei Speichermodulen auskommen. Ein Mischbetrieb von RIMMs und SDRAM ist nicht mehr möglich.

Für die Mainboard-Hersteller hieß es daher, die schon fertig entwickelten Platinen neu aufzulegen. Technisch ändert sich nichts, außer dass statt der bisher möglichen 756 MByte RDRAM maximal 512 MByte bei Boards mit 820-Chipset möglich sind.

Damit wird die neue und teure Speichertechnologie auch für Highend-Anwender uninteressant. Viele Mainboard- und Speicherhersteller warten deshalb noch ab, wie sich die Lage entwickelt, Rambus-RIMMs sind noch immer knapp und vor allem sehr teuer.

Funktionsprinzip

Die im PC-Bereich eingesetzte Rambus-Technologie ist nicht neu. Bereits seit 1995 wird Rambus in Workstations von SGI verwendet, andere Beispiele sind die Nintendo-64-Videospielkonsolen und Grafikkarten mit dem Grafikchip GD546X von Cirrus Logic.

Entwickelt wurde das Konzept für ein serielles Speicherinterface von der 1990 gegründeten Firma Rambus mit Sitz in Kalifornien. Erste funktionierende RDRAMs konnte Toshiba 1992 präsentieren. Um die Technologie in die PC-Architekur zu adaptieren, schloss Intel im Dezember 1996 mit Rambus ein Abkommen. Die gemeinsam entwickelten Direct RDRAMs (DRDRAM) nutzen wie DDR-SDRAM beide Taktflanken für die Datenübertragung. Im Zuge einer vereinfachten Namensgebung wird heute nur noch die Bezeichnung RDRAM verwendet.

Die Rambus-Lösung besteht aus drei Komponenten: Rambus-Controller, Rambus-Channel und RDRAM. Ein System kann aus mehreren unabhängigen Channels bestehen. Intels 840-Chipsatz für den Workstation- und Servereinsatz kann zwei Rambus-Channels ansteuern, während der Mainstream-Chipsatz 820 nur einen Channel verwaltet.

Das Channel Interface von Rambus enthält einen nur 16- oder 18-Bit-(mit ECC) breiten Datenbus. Der Adressbus besitzt eine Breite von 8 Bit und hat getrennte Leitungen für die Zeilen- und Spaltenansteuerung. Vorteil: Gleichzeitige unabhängige Zugriffe auf Zeilen und Spalten sind möglich, während noch Daten des vorhergehenden Befehls übertragen werden.

Jedes einzelne RDRAM-IC besitzt die volle Datenbreite des Channels. Gegenüber 64-Bit-Speicherbussen muss aber die Taktung des Channels entsprechend hoch sein, um konkurrenzfähige Bandbreiten zu erreichen. Die derzeit maximale Taktfrequenz ist mit 400 MHz und durch Ausnutzung beider Taktflanken mit effektiv 800 MHz extrem hoch. Ein Maximum von 1,6 GByte/s ist bei jedem einzelnen Chip und somit pro Channel erreichbar. Bei zwei Channels verdoppelt sich die maximale Bandbreite entsprechend auf 3,2 GByte/s.

Datentransfer

Der interne Datentransfer eines RDRAMs zur Speichermatrix unterscheidet sich von der Datenbreite und Taktung des Channels erheblich: Intern wird ein 128-Bit-breiter Datenpfad (144 Bit mit ECC) mit einer Taktfrequenz von 100 MHz genutzt. Somit lassen sich alle 10 ns 128 Bit von und zur Speichermatrix transferieren - dies entspricht der Channel-Transferrate von 1,6 GByte/s. Eine interne RDRAM-Logik teilt die Daten in 16-Bit-Pakete auf, bevor sie über die I/O-Pins mit der Channel-Taktfrequenz von 800 MHz auf den Bus übertragen werden.

Durch die volle Datenbreite der ICs verteilen sich die Daten bei Zugriffen nicht über alle Bausteine, sondern sind zusammenhängend in einem Chip gespeichert. Nachteil: Die Chips erhitzen sich bei Burst-Zugriffen stark, was zusätzliche Kühlmaßnahmen erfordert. Rambus-Module sind deshalb mit einem zusätzlichen Kühlblech versehen, das für eine ausreichende Wärmeabfuhr sorgen soll.

Jeder Channel kann bis zu 32 RDRAM-Chips verwalten. Ein Interleaving mit überlappenden Transfern zwischen den Chips und dem Rambus-Controller hebt die Effizienz für einen kontinuierlichen Datenstrom. Hinzu kommt die hohe Bankanzahl der einzelnen RDRAMs. Bis zu 16 Bänke pro IC können parallel Befehle abarbeiten und sorgen für hohe Effizienz bei starkem Datenverkehr auf dem Bus.

Design

Durch die hohen Taktraten ist das Mainboarddesign sehr kritisch. Die Technik zur Implementierung des Bussystems nennt sich RSL: Unter anderem sorgen kurze Signalwege, niedrige Spannung (1,8 V) und eine Terminierung für hohe Datenintegrität. Die Reduzierung der Datenbreite auf 16 Bit erfordert weniger Pins. Die Entflechtung der Leitbahnen und somit das Mainboarddesign wird in diesem Punkt einfacher.

Alle Highspeed-Signale (Daten- und Steuersignale) eines Rambus-Channels nutzen Signalwellen, die sich auf einer Referenzspannung von Vref = 1,4 V bewegen. Der Signalhub zwischen einer logischen Null und Eins beträgt dabei 800 mV. Eine logische Null ist durch Vterm = 1,8 V und eine logische Eins durch Vol = 1,0 V gekennzeichnet. Vorteile dieser, auf einer Referenzspannung aufsetzenden Signalwellen sind verringerter Stromverbrauch, geringere elektromagnetische Interferenzen sowie Kompatibilität zu anderen Low Voltage Devices. Außerdem sind die Signale vom Grundrauschen des Channels unabhängig. Die Betriebsspannung der RDRAMs liegt mit 2,5 V etwas über dem maximalen Signallevel.

Der Forderung nach kurzen Signalwegen folgend findet bei den RDRAMs eine neue Chip-Gehäusetechnik ihren Einzug: CSP (Chip Scale Package). Bei CSP sind die Anschlüsse wie beim BGA-Gehäuse über die Unterseite des ICs verteilt. Vorteil: Die RDRAMs können mit sehr geringem Abstand zueinander platziert werden. Neben den extrem kurzen Anschlusskontakten sorgen geringere Eingangskapazitäten für eine hohe Signalqualität.

Bild 4 zeigt die Bus-Topologie eines Rambus-Channels, der aus dem Controller, den Speicherchips und einer Terminierung am Ende des Busses besteht. Der Terminator soll Reflexionen auf den Daten- und Signalleitungen verhindern und erfüllt die Forderung nach einem abgeschlossenen Bus. Die Signale werden am Terminator auf Vterm = 1,8 V gezogen und entsprechen damit einer logischen Null. Reflexionen und Störungen der Signalwellen auf dem Channel werden so minimiert.

RIMM

Die neuartige Busarchitektur der Rambus-Technologie erfordert durch ihre elektrischen Eigenheiten eine andere Modulbauform. Von der Größe und den beidseitigen Kontaktreihen her sind die bei Rambus verwendeten RIMMs zwar einem DIMM sehr ähnlich, unterscheiden sich aber sowohl in mechanischer als auch in elektrischer Hinsicht erheblich. Die Module fassen bis zu 16 Chips bei beidseitiger Bestückung und sind als ein Teilstück des Channels zu betrachten. Die Datenbreite des Moduls beträgt wie die der einzelnen Chips 16 Bit (18 Bit mit ECC). Die Anzahl der Pins ist aber auf 184 gegenüber 168 Pins bei einem DIMM angestiegen. Der Grund ist die hohe Frequenz von bis zu 800 MHz, mit der die Rambus-DRAMs getaktet werden. Um diese gegenüber PC100-DIMMs achtfach höhere Taktfrequenz zu realisieren, gehört zu jeder Signal- und Datenleitung eine eigene Masseleitung. Auf die Adress-, Steuer-, Takt- und 16/18-Datenleitungen kommen insgesamt 72 Masseleitungen, die nur für eine hohe Signalintegrität sorgen. Sie sollen kapazitive Effekte, Reflexionen, Übersprechverhalten, Störsignale und Rauscheffekte möglichst gering halten.

Ein Channel kann laut Spezifikation maximal zwei RIMMs aufnehmen. Die ursprünglich geplanten drei RIMMs pro Channel führten wegen Laufzeitproblemen zu der für Intel peinlichen Rambus-Verspätung. Besonders beim Mischbetrieb von RIMMs verschiedener Hersteller kam es zu den Laufzeitproblemen und damit instabilen Systemen.

Durch die Bus-Topologie von Rambus sind unbelegte Sockel mit einer Dummy-Platine namens C-RIMM zu bestücken. Die Continuity-RIMMs schleifen die Steuer- und Datenleitungen einfach durch. Gleichzeitig verursachen sie aber zusätzliche Kosten.

RIMMs sind ausschließlich für den Betrieb von RDRAMs vorgesehen. Ein Einsatz von anderen Speicherarchitekturen, wie SDRAM, ist für diese Modulform nicht geplant und macht auch keinen Sinn. Einen Ausweg zur Verwendung von SDRAMs in RIMM-Sockeln gibt es theoretisch dennoch: Ein zusätzlicher, so genannter MTH (Memory Translator Hub) auf dem Mainboard sorgt für die Umsetzung des Rambus-Protokolls auf den SDRAM-Standard. Allerdings macht das die Performance-Vorteile von RDRAM zunichte. Nach den neuesten Intel-Vorgaben müssen sich die Mainboardhersteller außerdem für RDRAM oder SDRAM plus MTH entscheiden. Ein Mischbetrieb ist nicht erlaubt.

Preise und Verfügbarkeit

Um die Verfügbarkeit von RDRAMs und RIMMs ist es derzeit schlecht bestellt. Die von den großen Speicherhersteller wie Samsung und Kingston produzierten Chargen werden hauptsächlich an die großen System-Hersteller geliefert. Module über den Direktmark oder im Laden um die Ecke zu bekommen ist sehr schwer.

Die Anfangspreise für RIMMs schrecken allerdings vor dem Kauf ab. In Tabelle 1 sehen Sie die Endkundenpreise von Kingston-RIMMs im Vergleich zu handelsüblichen PC100/133-SDRAM-DIMMs. Bei Rambus-Systemen sind für ein C-RIMM noch zusätzliche 20 Mark zu veranschlagen, wenn nur ein RIMM eingesetzt wird.

800-MHz-RIMM

PC100-DIMM

PC133-DIMM

Tabelle 1: Preise von Kingston-RIMMs und handelsüblichen DIMMs (Stand: 01.01.00)

64 MByte

1065 Mark

179 Mark

219 Mark

128 MByte

2020 Mark

349 Mark

399 Mark

256 MByte

3995 Mark

829 Mark

899 Mark

Der Marktanteil von RDRAM ist 1999 verschwindend gering geblieben. Das Marktforschungsinstitut Dataquest sagt für das Jahr 2000 einen Rambus-Anteil von 25 Prozent, für 2001 gar 50 Prozent voraus. Vorsichtiger und vielleicht realistischer sieht das Institut Semico den Marktanteil von Rambus: Im Jahr 2000 sollen es sieben Prozent, bei SDRAM 75 Prozent sein.

Die Preise von Rambus-Speichern können und müssen sich im Jahr 2000 schnell an die Speicherpreise entsprechender SDRAMs anpassen, um die prognostizierten Marktanteile zu erreichen. Ansonsten steht der Erfolg von Rambus unter keinem guten Stern - besonders nach den ersten Benchmarkergebnissen.

Fazit

Der Geschwindigkeitsvorteil in einigen Bereichen rechtfertigt den derzeit noch unverhältnismäßig hohen Preis für RDRAM keinesfalls. Ein Pentium III 600EB mit 820-Mainboard und RDRAM ist wesentlich teurer, als ein höher getakteter Pentium III 667 mit VIA-Mainboard und PC133-SDRAM. Diese Kombination ist dann zudem in allen Bereichen schneller.

Die Schwäche unter Windows NT und bei Tests, die viele kleinere Zugriffe auf unterschiedliche Speicherbereiche beinhalten, lässt auch für den Workstation- und Server-Bereich keine wirklichen Pluspunkte für RDRAM erkennen. Im Gegenteil, gerade beim Servereinsatz kommt dieses Manko voll zum tragen. Das erklärt auch, warum Intel dem 840-Chipsatz für Server zwei Rambus-Channels mit auf den Weg gibt.

RDRAM 800-45

PC133-SDRAM

Tabelle 2: Vergleich der Latenzzeiten von RDRAM und SDRAM

CAS Latency

20 ns

22,5 ns

RAS to CAS Delay

22,5 ns

20 ns

Row Cycle Time

70 ns

68 ns

In der Tabelle 2 sehen Sie den Grund für die Schwäche bei aufeinander folgenden Speicherzugriffen. RDRAM ist hier nicht oder kaum schneller als PC133-SDRAM.

Ausführliche Benchmark-Ergebnisse von Rambus-Speicher und dessen aktuellen Konkurrenten finden Sie bei tecChannel im Artikel Speicher-Benchmarks.

Über die grundsätzliche Funktionsweise von Arbeitsspeicher klärt der Grundlagenbeitrag DRAM im Detail auf.

Informationen über die verschiedenen Speichertypen finden Sie im Beitrag DRAM - Architekturen. Hier lesen Sie über die Eigenheiten von FPM über EDO bis hin zu DDR-SDRAM. (cvi)