Rambus im Detail

Nach dem ersten Fiasko mit dem 820-Chipset ist es Intel geglückt, seine Plattform für Rambus-Speicher auf den Markt zu bringen. Wir zeigen die Technologie, die hinter RDRAM steckt und haben getestet, ob sich das Warten gelohnt hat.

Die ursprünglich für den 27. September 1999 geplante Premiere des 820-Chipsets und der damit ersten Plattform mit Rambus-Speicher (RDRAM) musste wegen Kompatibilitätsprobleme ins Wasser fallen. Nach dem Rückzieher und diversen Gerüchten ist die Lösung des Problems jetzt eher banal. Statt der problematischen Konfiguration mit drei RIMM-Sockeln schreibt Intel einfach eine Bestückung mit maximal zwei RIMMs pro Mainboard vor. Auch die Zwischenlösung mit MTH (Memory Translator Hub) und SDRAM muss mit maximal zwei Speichermodulen auskommen. Ein Mischbetrieb von RIMMs und SDRAM ist nicht mehr möglich.

Bild 1: Unsere Test-RIMMs (128 MByte, 800 MHz) von Kingston und Samsung von vorne mit dem Kühlblech sowie die unbestückte Rückseite (unten).
Bild 1: Unsere Test-RIMMs (128 MByte, 800 MHz) von Kingston und Samsung von vorne mit dem Kühlblech sowie die unbestückte Rückseite (unten).

Für die Mainboard-Hersteller hieß es daher, die schon fertig entwickelten Platinen neu aufzulegen. Technisch ändert sich nichts, außer dass statt der bisher möglichen 756 MByte RDRAM maximal 512 MByte bei Boards mit 820-Chipset möglich sind.

Damit wird die neue und teure Speichertechnologie auch für Highend-Anwender uninteressant. Viele Mainboard- und Speicherhersteller warten deshalb noch ab, wie sich die Lage entwickelt, Rambus-RIMMs sind noch immer knapp und vor allem sehr teuer.