Test: NVIDIAs GeForce4 Titanium

06.02.2002 von NICO HARTMANN  und Manuel Masiero
Im Vorfeld der CeBIT 2002 kommt NVIDIA mit dem GeForce4 auf den Markt. Er ist im Grunde eine Überarbeitung des GeForce3 ohne große Revolutionen. Das Vorgeplänkel zum Enthüllungstermin war viel interessanter.

Bis zum 6. Februar 2002 durfte keiner über den NVIDIA GeForce4 sprechen. Nicht einmal darüber durften Hersteller und Redaktionen öffentlich reden, dass man eben nichts sagen durfte. Bei Zuwiderhandeln drohten Strafen. Die Erziehungsmaßnahmen werden nicht ausdrücklich erwähnt, die darf man sich vorstellen, das hat mehr Durchschlagskraft.

Dem vertraglichen Schweigen hat sich Apple vorab entzogen. Wie? Auch darüber spricht man nicht. Bereits am 28.01.2002 konnten Mac-Fans den 1-GHz-Rechner mit GeForce4 MX bestellen.

Bevor zumindest Apple offiziell den GeForce4 ankündigte, kursierten schon technische Daten bei The Inquirer, Bilder bei Hexus.net und Xbit Labs und GeForce4-Logos bei Darkcrow. Aber was hat den taiwanischen Hersteller ASUS geritten, als er am 29.01. eine Pressemitteilung an einige Journalisten verschickte und ausplauderte, was wir uns alle nicht trauten? Wir wissen es nicht. Wir vermuteten einen Irrtum seitens ASUS. Die Firma dementierte, nur Unterzeichner eines Geheimabkommens hätten die Meldung erhalten. Wie kam sie dann an die Öffentlichkeit, wenn nur schweigsame Geheimnisträger sie erhielten? Rätselhaft. Aber ein Rätsel mit trächtiger Publicity. Am 31.01. konnten wir dann Einzelheiten über GeForce4-Karten von Leadtek lesen. Einen Tag später tauchten Infos über die neuen Grafikkarten von Elsa auf und eine Pressemitteilung zu neuen MSI-Grafikkarten landete bei einigen Journalisten im Mail-Eingang. Natürlich ohne großbuchstabigen Hinweis: "Nicht vor 6. Februar veröffentlichen".

Den Vogel versuchten dann noch einige Webseiten abzuschießen, indem sie die Geheimhaltungspflicht um einige Stunden unterliefen.

Jetzt ist es aber raus - die Meldung und auch ein bisschen die Luft. Wir dürfen durchatmen und endlich ausplaudern. Aber was eigentlich? Die Grafik-Engine wurde überarbeitet. Der GeForce4 ist schneller als all die Radeons und Kyros dieser Welt.

Details zur GeForce4-Familie

Unter dem Codenamen "NV25" entwickelte NVIDIA den GeForce4. Sein kleiner Bruder heißt nun GeForce4 MX statt "NV17". Das Top-Modell von NVIDIA wird als GeForce4 Ti 4600 geführt. Wie seinen Vorgänger fertigt NVIDIA den Chip im 15-µm-Prozess. Das Die ist mit 63 Millionen Transistoren bestückt im Gegensatz zum GeForce3 Ti mit 57 Millionen Transistoren.

Den Chiptakt steigerte NVIDIA laut Spezifikation auf 300 MHz gegenüber 240 MHz des GeForce3 Ti 500. Das NVIDIA-Referenzboard ist mit 128 MByte DDR-SDRAM-RAM bestückt. Der asynchrone Speicher arbeitet effektiv mit 650 MHz bei der Ti 4600 und mit 550 MHz bei der Ti 4400. In Verbindung mit dem 128 Bit breiten Speicherbus ist eine Speicherbandbreite von 10,4 GByte/s mit 650-MHz- und 8,8 GByte/s 550-MHz-DDR-Speicher möglich. Entgegen den NVIDIA-Vorgaben ist der Speicher der ASUS V8460 sogar mit 330 MHz getaktet. (Alle Angaben wie GByte und MByte auf 1000er Basis.)

Neben den Flaggschiffen stellt NVIDIA auch drei günstigere Modelle aus der MX-Reihe vor. Sie werden mit 64 MByte Speicher bestückt sein. Die GeForce4 MX 460 ist mit 300 MHz getaktet und kann auf 550 MHz DDR-SDRAM zugreifen. Mit 270 MHz Chiptakt und effektiv 400 MHz DDR-SDRAM wird die MX 440 ausgestattet sein. Die kleinste MX-Version verfügt über SDRAM mit 166 MHz und einem Chiptakt von 250 MHz.

Auf der Platform Conference in San Jose war bereits ein "NV17M" für Notebooks zu sehen. Der Chip soll fünf Mal schneller sein als der GeForce2 Go. NVIDIA will diesen Chip in zwei Ausführungen anbieten: Mit 32 MByte, der auf einen 64 Bit breiten Bus zugreifen kann und mit 64 MByte RAM und 128 Bit breitem Bus.

Neuerungen der GeForce4

Nach den Neuheiten des GeForce4 muss man lange und genau suchen. Den großen Wurf in Sachen Technologie hat NVIDIA nicht gemacht, vielleicht auch gar nicht vorgehabt. Glaubt man den Gerüchten, erscheint in zirka sechs bis neun Monaten der Nachfolger NV30. Somit ließe sich zumindest erklären, warum NVIDIA dem GeForce3 Ti ein Facelifting bescherte, hier und da erweiterte und verbesserte.

nfiniteFX II

Die nfiniteFX-Engine des GeForce3 wurde verbessert. Bisher ist in ihr jeweils ein Vertex- und ein Pixel-Prozessor integriert. Bei dem GeForce4 gesellt sich ein zweiter Vertex-Shader hinzu. Dadurch verspricht NVIDIA sich und den Kunden einen Leistungsgewinn um den Faktor 3 gegenüber einem GeForce3 bei Berechnung geometrischer Strukturen. Der programmierbare Dual-Vertex-Shader berechnet in Echtzeit grafische Spezialeffekte in 3D-Bildszenen. Er kann komplexe Charakteranimationen mit mehr als 86 Millionen Vertices (Scheitelpunkte von Polygone) pro Sekunde berechnen. Details wie Haare und Fell sollen sich damit realistischer darstellen lassen. Die Farbe und Dichte zum Beispiel des Fells wird bestimmt von einer eigenen Texture Map. Die hierfür nötige Rechenleistung übernimmt der Pixel-Shader, der ebenfalls überarbeitet wurde. Er erlaubt dem Entwickler, Pixelfunktionen wie Farbe, Licht und Transparenz individuell zu programmieren. Durch die Verbesserung soll sich die Leistung des Pixel-Shaders gegenüber dem GeForce3 um 50% erhöht haben.

Lightspeed-Memory-Architecture II

NVIDIA erweiterte auch die Lightspeed-Memory-Architecture (LMA). Sie vereint Crossbar Memory Controller, Z-Compression, Z-Occlusion Culling, Auto-Pre-Charge und Fast Z-Clear. Wirklich neu bei der GeForce4 sind nur die beiden letzten Technologien. Durch Auto-Pre-Charge wird der Zugriff auf den Grafikspeicher verkürzt. Bisher musste die GPU etwa 10 DRAM-Taktzyklen warten, bis ein Speicherbereich (Zeile oder Spalte) zum Bearbeiten geladen ist. In dieser Zeit können keine Daten über den Bus geschickt werden. Die GeForce4 kann den Speicher anweisen, vorab diejenigen Bereiche zu laden, die in Kürze bearbeitet werden. Dadurch braucht die GPU nur die Vorladezeit (RAS-Precharge-Time) abzuwarten (2 bis 3 Takte), bis ein Signal am DRAM-Speicher anliegt, dass die Daten nun verarbeitet werden können. Wie DRAM im Detail funktioniert, lesen Sie in diesem Beitrag.

Fast Z-Clear

Weitere Neuheit - zumindest beim GeForce4 - ist Fast Z-Clear. ATI integrierte diese Funktion bereits in den Radeon-Karten. Fast Z-Clear beschleunigt das Löschen des Z-Buffers. Dadurch soll eine Steigerung der Framerate um bis zu 10 % möglich sein.

Accuview Technologie

Die letzte maßgebliche Änderung nahm NVIDIA beim Antialiasing vor. Die Entwickler verbesserten die Multisampling-Verfahren 2x, Quincunx und 4x. Hier wurde die Position der Subpixel (auch Pixel-Sample genannt) verlagert, so dass sich im Endeffekt genauere Farbinformationen ermitteln lassen. In die Berechnungen fließt ein, aus welchen anliegenden Pixeln die Samples berechnet werden. Die Pixel werden näher zu denjenigen Pixeln "geschoben", von denen die Informationen stammen. Letztendlich entspricht das einer besseren Gewichtung bei der Summation der Subpixel. Daraus resultieren exaktere Farbwerte der finalen Pixel. Genauere Farben führen zu einer Verminderung der Treppcheneffekte an Kanten. NVIDIA nennt die Technologie Accuview. Welchen Sinn Subpixel haben und wie sie entstehen, erklären wir im Beitrag "GeForce3 im Detail".

4XS Antialiasing

Neben dieser Verbesserung wurde das 4x-Antialiasing weiterentwickelt. Das neue Verfahren 4XS soll 50% mehr Subpixel berechnen als 4x. Aus diesen werden die Farben der finalen Pixel berechnet. Zusätzlich werden die Pixel-Samples getestet, ob sie zum berechneten Objekt gehören und das Objekt diese Subpixel deckt. Mit 4XS sollen sich noch genauere Farbabstufungen ergeben und damit für sanftere Übergänge sorgen als mit 4x.

NVIDIA GeForce4 Ti 4600

Mit dem Flaggschiff Ti 4600 stellte uns NVIDIA ein erstes Testmuster der GeForce4-Familie zur Verfügung. Die Grafikkarte (Bios 4.25.00.18) ist noch mit Beta-Treibern ausgestattet. Für Windows 98 liegt der Detonator 4 in der Version 27.30 bei, für WindowsXP ist die Version 27.20 zuständig.

Das Board ist bestückt mit einem GeForce4 Ti 4600 und 128 MByte Speicher. Der Prozessor rechnet mit 300 MHz. In den versteckten Treibereinstellungen (Clock Frequencies) lässt sich der Takt auf 265 MHz bremsen oder auf 375 MHz beschleunigen. Ein großer Kühlkörper mit Lüfter soll für gute Arbeitsbedingungen sorgen. Die acht DDR-RAM-Module werden nicht gekühlt. Samsung produzierte die Bausteine. Sie arbeiten mit 325 MHz (650 MHz DDR) und besitzen ein Speichertiming von weniger als 3ns. Im Treibermenü lässt sich der Speichertakt nur um bis zu 100 MHz erhöhen. Die werksseitigen Einstellungen für Chip- und Speichertakt sind aus den Treibern nicht ablesbar.

An der Slotblende der GeForce4 Ti 4600 sind drei Anschlüsse ausgeführt. Neben dem Standard-VGA finden sich dort auch ein TV-out und ein DVI-I-Ausgang. Den TV-Ausgang bedient der TV-Encoder Conexant CX25871. Mit NVIDIAs nView (früher TwinView) lässt sich im Treiber zwischen den digitalen und analogen Ausgabegeräten umschalten.

NVIDIA lieferte für das Referenzboard Treiber für Windows 98, Me, 2000, NT und XP mit. In der Pressemitteilung kündigte NVIDIA an, auch Linux XFree86-Treiber anbieten und MacOS 9 und X unterstützen zu wollen.

Preise für den GeForce4 nannte bisher nur MSI. Das Spitzenmodell MSI G4Ti4600-VTD will der Hersteller ab März für 499 Euro anbieten. Die günstigere MX-Variante steht ab Mitte Februar für 160 Euro in den Läden. Andere Anbieter wie ASUS, ELSA, Creative Labs und Leadtek werden in den nächsten Tagen ihre Modelle vorstellen und Preise nennen. Erster offizieller Verkaufstag für die GeForce4 MX ist der 6. Februar 2002. Ab 1. März soll die GeForce4 Ti in den Läden stehen.

OpenGL-Benchmarks: Indy3D

Indy3D ist ein OpenGL-basierender, synthetischer Benchmark. Er testet die drei wichtigsten Anwendungsgebiete für Grafikkarten im High-End-Bereich für den professionellen Einsatz: CAD-Anwendungen, Animationen und Simulationen.

OpenGL-Benchmarks: SPECviewperf

SPECviewperf 6.1.2 ist eine OpenGL Real-World-Benchmark-Suite. Sie nutzt Funktionen zur Modellierung von Objekten bei industriellen Anwendungen.

SPECviewperf 6.1.2 lief mit NVIDIAs GeForce4 Ti 4600 nicht einwandfrei zusammen: Bei jedem Start des Programms kam es zu Abstürzen einzelner Applikationen, so dass ein fehlerfreier Durchlauf nicht möglich war.

Wir verwenden daher den SPECviewperf-Einzelbenchmark AWadvs-04. Dieser beansprucht besonders die Grafikkarte.

OpenGL-Benchmarks: Quake 3 Arena

Quake III Arena (Version 1.27g) setzt ganz auf OpenGL. Dieses 3D-Spiel zeichnet sich durch hohe Polygon-Anzahl und komplexe Szenarien aus. Die Anforderungen an die Hardware und besonders an die Speicherbandbreite der Grafikkarten sind bei Auflösungen ab 1024 x 768 Punkten und 32 Bit Farbtiefe sehr hoch.

Direct3D-Benchmarks: 3DMark2001

Die unter MadOnions 3DMark2001 ermittelten Benchmark-Werte verdeutlichen, wie gut der Hersteller Grafikkarte und Treiber jeweils auf 3D-Software abgestimmt hat. Durch speicherintensive Tests wird zusätzlich auch der AGP-Bus stark beansprucht.

Direct3D-Benchmarks: Giants

Um die Performance der Testkandidaten unter DirectX 8 zu ermitteln, verwenden wir das Direct3D-Spiel Giants (Version 1.4). Bei hohen Auflösungen und 32 Bit Farbtiefe wird die Grafikkarte stark beansprucht.

Mit Giants haben wir auch die FSAA-Performance der GeForce4 Ti 4600 unter Windows 98 untersucht. Das Ergebnis: Mit den FSAA-Modi Quincunx und 2x läuft das Spiel mit 75,9 Frames beziehungsweise 75,3 Frames annähernd gleich schnell: Die ermittelte Differenz von 0,6 Frames kann als Benchmark-Schwankung vernachlässigt werden. Gegenüber abgeschaltetem FSAA (81,4 Frames) liefern beide Modi nur eine um etwa 6 Frames niedrigere Framerate. Das 4XS-Antialiasing und 4x-FSAA arbeiten mit jeweils 56,8 Frames gleich schnell.

Leistungsaufnahme

Die Leistungsaufnahme aktueller Grafikprozessoren ist teilweise enorm hoch. Die folgenden Diagramme geben eine Übersicht.

Das Messverfahren zum Bestimmen der maximalen Leistungsaufnahme ist detailliert im tecLab-Report - unsere Testverfahren beschrieben.

Fazit

NVIDIAs neues Spitzenprodukt GeForce4 Ti 4600 übertrifft den GeForce3 Ti 500 in punkto Performance. Welchen Anteil daran die Neuerungen wie Dual-Vertex-Shader oder verbesserter Pixel-Shader haben, lässt sich ohne Weiteres nicht sagen, da insbesondere Chip- und Speichertakt kräftig gesteigert wurden. Gegenüber dem GeForce3 Ti erhöhte NVIDIA den Chiptakt um 60 MHz und den Speichertakt um 75 MHz (150 MHz DDR). Zusätzlich stockte der Hersteller die Speicherkapazität von 64 MByte auf 128 MByte auf. Das Mehr an Speicher macht nur Sinn bei Spielen in Auflösungen mit mehr als 1280 x 1024 Punkten und hoher Farbtiefe sowie bei den speicherintensiven Multisampling-Verfahren.

Beim Test der 3D-Leistung unter WindowsXP mit 3DMark2001 stellte der GeForce4 mit 8729 Punkten die Konkurrenten in den Schatten. Der ATI Radeon 8500 kommt bei diesem Test auf 7724 Punkte und der GeForce3 Ti 500 auf 7264 Punkte. Der deutliche Vorsprung zieht sich durch alle Benchmark-Ergebnisse. Die Leistungsunterschiede zwischen der GeForce4 und deren Konkurrenten werden besonders dann sichtbar, wenn eine Bildschirmauflösung von 1280 x 768 und 1600 x 1200 eingestellt ist.

In punkto Stabilität gab es Probleme mit dem OpenGL-Benchmark SPECviewperf 6.1.2. Die Suite des Real-World-Benchmarks nutzt Funktionen zur Modellierung von Objekten in industriellen Anwendungen. Nach jedem Start stürzte das Programm bei einigen Applikationen ab und lieferte unerwartet geringe Werte. Wir führen das auf die eingesetzten Beta-Treiber zurück.

Wer eine sehr schnelle Grafikkarte sucht, bekommt sie mit der 500 Euro teuren GeForce4 Ti 4600. Erheblich günstiger ist die GeForce4 MX. Sie ist aber schwächer ausgestattet als die Ti-Karten. Die Vorgängermodelle werden billiger, wenn auch nicht gerade zu Schnäppchen. Zum Beispiel wird bei MSI die GeForce3 Ti 200 mit 64 MByte etwa 280 Euro kosten. Zusätzlich bringt der Hersteller eine Variante mit 128 MByte für etwa 300 Euro auf den Markt. MSI geht davon aus, die Karten noch bis Anfang des 2. Quartals 2002 zu führen. Dem erst im Oktober 2001 vorgestellten GeForce3 Ti 500 gönnt MSI nur noch eine kurze Lebenszeit. Den Verkauf stellt der Hersteller im Zuge der GeForce4 Ti 4600 ein. (nha)

Testkonfiguration Windows XP

Komponente

Daten

CPU

Pentium 4 2000 MHz

Chip:

Model 1, Stepping 2

CPU-/Microcode-ID

0F12 / 03

RAM

Corsair XMS2400

Kapazität

256 MByte

Typ

PC266 CAS=2,0

Chips

MT 46V16M8-75A

Mainboard

MSI 845 Ultra

Chipsatz

Intel 845 PC266

Soundkarte

Creative SoundBlaster PCI128

Soundchip

Creative EMU10k1

Schnittstelle

PCI 5V

Treiber

5.12.1.2065

Platine

2999 / CT4810

Netzwerkkarte

Level One FNC-0107TX (Realtek)

Typ

10/100Base Fast Ethernet

Chip

RTL8139B

Schnittstelle

PCI 5V

Treiber

5.397.823.2001

Platine

Keine Angabe

SCSI-Controller

Adaptec AHA-2940UW Pro

SCSI-Interface

UltraWide

Schnittstelle

PCI 5V

BIOS

V2.11.0

Treiber

V3.60

Platine

Revision C

Festplatte 1

Quantum Atlas 10K II

Modell

TY184L

Kapazität

18,4 Gbyte

Firmware

SDA40

Schnittstelle

UW-SCSI

Festplatte 2

IBM Deskstar

Modell

IC35L040AVER07-0 / 7200 U/Min.

Kapazität

41,0 Gbyte

Firmware

Keine Angabe

Schnittstelle

EIDE-UltraATA/100

Festplatte 3

Maxtor DiamondMax D740X

Modell

6L040J2

Kapazität

40,0 GByte

Firmware

A9305

Schnittstelle

EIDE-UltraATA/133

Testkonfiguration Windows 98

Komponente

Daten

CPU

Athlon XP 2000+

RAM

Corsair PC-2100

Kapazität

256 MByte

Typ

PC266 CAS=2,5

Chips

MT 46V16M8-75A

Mainboard

MSI KT266 Pro

Chipsatz

VIA Apollo KT266

Soundkarte

Creative SB Live! Player 1024

Soundchip

Creative EMU10k1

Schnittstelle

PCI 5V

Treiber

4.11.01.0711

Platine

CT4760

Netzwerkkarte

3Com Fast Etherlink 3C905B-TX

Typ

10/100Base Fast Ethernet

Chip

RTL8139B

Schnittstelle

PCI 5V

Treiber

3.41.50.00

Platine

Keine Angabe

Festplatte 1

IBM DJNA-351520

Modell

GLT0N167

Kapazität

15,2 Gbyte

Firmware

Keine Angabe

Schnittstelle

EIDE-UltraATA/66