GeForceFX: Die neue Generation

18.11.2002 von NICO ERNST 
Jetzt gilt's für NVIDIA: Der neue Grafikchip 'GeForceFX' soll die Performance-Krone von ATI zurückerobern. Dafür werfen die Kalifornier alles in die Waagschale, was gerade noch technisch machbar ist.

Der Image-Verlust wiegt schwer. Als ATI Ende August den Radeon 9700 Pro vorstellte, war zum ersten Mal seit Jahren ein Grafikchip für Desktop-PCs schneller als NVIDIAs aktuelles High-End-Produkt. Und das trifft den Marktführer doppelt schwer, hatte doch CEO Jen-Hsun Huang die Parole ausgegeben, alle sechs Monate den State-of-the-Art-Chip abzuliefern. Mit der derzeit in Las Vegas stattfindenden "Comdex" ist dieser Zeitraum wieder einmal abgelaufen, und der bisher unter dem Code-Namen "NV30" entwickelte Grafikprozessor wird der Öffentlichkeit vorgestellt.

Der vor allem im Web stattfindende Rummel spielte sich im Vorfeld auf die gleiche Weise ab wie schon beim Tanz um den GeForce4. In den einschlägigen Gerüchteküchen brodelten immer wieder Details an die Oberfläche, und NVIDIAs PR-Abteilung gab sich alle Mühe, die Presse durch NDA-Verträge zu knebeln und die "braven" Journalisten vorab mit Whitepapers, Interview-Partnern und Erreichbarkeit zu hätscheln - jedoch nicht mit Testexemplaren.

Update: Schon da?

Zum "offiziellen" Vorstellungstermin am 18. November 2002 war noch unklar, wann der GeForceFX, so der Produktname des NV30, im Laden stehen wird. NVIDIA wollte sich nicht auf einen eindeutigen Termin festlegen, spricht aber von "vor Weihnachten". Laut unbestätigten Angaben von Dritten sollen die High-End-Karten Preisen um 500 Euro zu haben sein - das wäre ein neuer Rekord für eine Desktop-Grafikkarte.

Ebenfalls ein Novum: Am Launch-Termin haben diesmal NVIDIAs "Premium-Partner" wie Asus, Leadtek oder MSI ihre GeForceFX-Karten noch nicht einmal angekündigt. Beim GeForce4 überschlugen sich die Hersteller mit zum Teil voreiligen Ankündigungen. Am Tag 1 der GeForceFX-Geschichte war zudem noch unklar, ob außer der größten Variante mit 256 MByte Speicher zum Weihnachtsgeschäft noch kleinere und damit günstigere Exemplare erhältlich sind.

Auf der Vorstellung des FX in München ließ NVIDIAs Product Line Manager Geoff Ballew dann im Gespräch mit tecCHANNEL die Katze aus dem Sack: Die ersten Karten sollen erst im Februar im Handel zu haben sein. Zwar konzentriere sich NVIDIA diesmal auf das Retail-Geschäft, und nicht auf die PC-Hersteller. Aber, so Ballew, erste Stückzahlen des Chips erwartet man erst im Dezember.

Im Januar 2003 soll dann die Volumen-Produktion bei TSMC anlaufen - wenn das so klappt, könnten die Karten tatsächlich im Februar in den Regalen stehen. Bei TSMC scheint nach unseren Recherchen auch der Hauptschuldige für die Verzögerung zu suchen sein. Unbestätigten Angaben zufolge hat der Halbleiter-Hersteller seinen Prozess mit 130 Nanometern Strukturbreite noch nicht im Griff und kann beim GeForceFX nur 20 Prozent Ausbeute erreichen - das ist auch für ein Premium-Produkt mit geringen Stückzahlen viel zu wenig.

Doch auch NVIDIA scheint an der Misere nicht ganz unschuldig zu sein. Auf den in München gezeigten Karten fand sich ein Aufkleber mit dem Vermerk "A01". Ein NVIDIA-Mitarbeiter gab schließlich auch zu, dass es sich dabei um das Stepping handelt.

Ein Stepping A01 ist die erste Version eines Chips direkt nachdem er zum ersten Mal lief, dem sogenannten A0-Step, auch "first silicon" genannt. Üblich ist die Auslieferung von B-Steps, bei denen schon etliche Fehler ausgebügelt sind. NVIDIA will aber dem Vernehmen nach schon mit den A02-Steps an den Markt gehen.

Update: Das Erbe von 3dfx

Mitte der neunziger Jahre verschaffte die zuvor reichlich unbekannte kalifornische Technologie-Schmiede 3dfx der 3D-Grafikkarte im Desktop-PC den Durchbruch. Durch eine Folge von Fehlentscheidungen, die der tecHistory einer älteren Meldung zu entnehmen sind, ruinierte sich 3dfx schließlich aber selbst. NVIDIA kaufte schließlich die Patente der Firma.

Nach zweijährigen Entwicklungsarbeiten am GeForceFX soll der Chip jetzt laut NVIDIA erstmals 3dfx-Technologie unter NVIDIA-Flagge enthalten. Wo in den 125 Millionen Transistoren des NV30 sich die 3dfx-Reste genau verstecken, wollte NVIDIA nicht sagen. Wer sich aber an die seinerzeit überlegenen FSAA-Funktionen des "Voodoo 5" von 3dfx erinnert, darf hinter NVIDIAs "Intellisample" getaufter Funktion zur Kantenglättung ein bisschen Voodoo-Zauber vermuten. Vielleicht sagt NVIDIA auch deshalb nicht genau, wie Intellisample funktioniert.

Eine Tradition von 3dfx war auch der Parallel-Betrieb von zwei Grafikkarten, die jeweils eine Hälfte des Bildes berechneten. Dieses Verfahren hieß "SLI" (Scan Line Interleave) und verdoppelte knapp die Performance.

Und schon kursieren in der Grafik-Branche auch die ersten Gerüchte, NVIDIA arbeite an einer Lösung mit zwei NV30-Chips auf einer Karte. Angesichts des extremen Aufwands, den schon einer der Chips zur Kühlung benötigt, erscheint das aber allenfalls für teuere Workstation-Karten realistisch.

Ist die Namensfindung des GeForceFX klar, so muss sich NVIDIA beim Namen für eine neue Lowcost-Linie, die bisher "GeForce4 MX" hieß, etwas Neues einfallen lassen. Das neue Produkt heißt schlicht "GeForceFX", ein "GeForceFX-MX" wirkt da etwas hölzern. Eventuelle Zusätze, wie beim Vorgänger etwa "GeForce 4 Ti4200" sind noch nicht bekannt.

Update: Kinodämmerung

Für den Launch des GeForceFX hat sich NVIDIA das schöne Marketing-Motto "The Dawn of Cinematic Computing" ausgedacht, was zu Deutsch nicht so imposant "Die Dämmerung der filmgleichen Computerei" heißt. Ziel ist es, bei der Bildqualität mit volldigital produzierten Kinofilmen gleichzuziehen - allerdings in Echtzeit.

Der Weg bis dahin ist aber noch lang, und wenn man eine Grafik aus einer Präsentation von NVIDIA extrapoliert, dürfte der Gleichstand erst 2005 erreicht sein.

Insbesondere die im obigen Bild gezeigten Hautunreinheiten und andere menschliche Unperfektheiten kann derzeit noch kein Shader-Programm errechnen. Dafür sind umfangreiche Texturen nötig, die Grafiker mühevoll von Hand erstellen. Die geringe Anzahl an ausmodellierten Charakteren in modernen 3D-Programmen spricht hier Bände.

Im direkten Vergleich, der bisher nur bei NVIDIAs Pressekonferenzen zu sehen war, wirkt selbst die Elfe "Dawn" noch lange nicht so natürlich wie im Film. Dennoch erscheinen jetzt erstmals emotionale Regungen im Gesicht einer künstlichen Figur am PC wirklich glaubhaft. Viel anzustellen wusste Dawn in ihrem Zauberwald aber nicht - der bestand ohnehin nur aus einem Ast und der Hintergrund-Textur. Die restlichen Polygone unbekannter Anzahl wurden für die Figur selbst geopfert.

Auch die Texturen dieses reinen Technolgie-Demos dürften wochenlange Arbeit der Grafiker erfordert haben. Beim Zoom auf Dawns Rücken waren auch Hautunreinheiten und die durch eine tatsächlich vorhandene "Blut-Textur" unter der Oberfläche angedeutete Muskelaktivität zu sehen.

128 Bit Floatingpoint für mehr Farben

Um sein Ziel des "Cinematic Computing" zu erreichen, hat NVIDIA vor allem die Präzision der Bildberechnung erhöht. DirectX8 schrieb nur 32-Bit-Integer-Kalkulation für den Farbraum vor. Der GeForceFX bietet jetzt 128-Bit-Floatingpoint-Werte nach vollem IEEE-Standard. Zwar kann der Framebuffer im Endeffekt wieder nur 32 Bit darstellen, aber die Genauigkeit der Farbberechnungen erhöht sich gewaltig.

Rundungsfehler bei den zahlreichen Rechenschritten erschwerten bei der Integer-Arithmetik vor allem die Ausleuchtung von sehr dunklen und sehr hellen Szenen. Pro Farbkanal stehen bei den Integerzahlen nur 256 Werte (8 Bit) zur Verfügung. Mit dem neuen Gleitkomma-Format stehen nun 32 Bit pro Kanal bereit, entsprechend vier Milliarden Werte.

Mit den 128-Bit Floatingpoint-Werten schielt NVIDIA auf kommende Spiele-Software wie "Doom3", die sich vor allem in klaustrophobisch engen und düsteren Korridoren abspielt. Eine zurzeit im Netz kursierende Alpha-Version des Titels spielt bereits stark mit harten Lichtkontrasten, wobei immer wieder Farbsäume auftreten. Im professionellen Einsatz ist der Farbraum ebenfalls kritisch, vor allem wenn es um feine Farbabstufungen für Design-Aufgaben geht.

Für mehr Performance kann der GeForceFX neben 32 Bit pro Kanal zeitgleich auch 16 Bit pro Kanal verwenden. In einem Mischbetrieb lassen sich etwa kritische Wandtexturen, denen der Betrachter sehr nahe kommt, in maximaler Qualität berechnen. Bewegte Objekte, bei denen dem Betrachter wenig Zeit für Details bleibt, bearbeitet der Shader dann nur mit 16 Bit FP.

Das Plus an Shadern

Schon die Shader der DirectX8-Generation von Grafikchips galten erstmals als voll programmierbar. Daher legt NVIDIA nur noch im Detail nach und nennt das Konzept "Vertex Shader 2.0+". DirectX9 wird die Version 2.0 der Shader standardisieren, nach Aussagen von NVIDIA gingen die eigenen Ergänzungen bei Microsoft noch nicht durch, so dass man sich nur auf das Pluszeichen, nicht auf das besser zu verkaufende "3.0" einigen konnte.

Die Länge der Shader-Programme darf jetzt 65.535 Befehle betragen statt 128 Instruktionen wie beim GeForce4. Derart komplexer Code kommt nicht mehr ohne Kontrollstrukturen wie Schleifen und Verzweigungen aus. So beherrscht der GeForceFX 256 Schleifen innerhalb eines Shader-Programms. Der GeForce4 muss hier noch vollkommen passen. Für schnellere Sprünge und die Rückkehr aus Unterprogrammen wurde zudem die Zahl der frei programmierbaren Adressregister von 12 auf 16 erhöht.

Daneben hat NVIDIA auch die Pixel Shader aufgebohrt, die nun "Pixel Shader 2.0+" heißen. 1024 Befehle können die Programme hier lang sein, 16 Texturen sind pro Pixel möglich. Was das heißt, wird erst zukünftige Software zeigen. Mitte der 90er Jahre sorgte schon das "Multitexturing" mit ganzen zwei Texturen für einen Sprung in der Bildqualität. Die Shader-Programme gehen hier noch weit darüber hinaus, zumal im Sinne der erhöhten Präzision nun 1024 Befehle zur Farb- und Texturmanipulation möglich sind. Beim GeForce4 waren es noch acht für die Farben und lediglich vier für Texturen.

Damit all das noch handlich zu programmieren ist, hat NVIDIA für Entwickler eine DirectX9-kompatible Version seiner High-Level-Sprache "Cg" für Shader-Programme vorgestellt. Programme wie 3Dstudio Max, Maya und Softimage sollen Cg laut NVIDIA bereits verwenden können.

DDR II ohne Standard

Auch mit fortschrittlichsten Features im Rendering ist eine Grafikkarte noch immer wesentlich durch die Speicherbandbreite limitiert. Der Zwang zu mehr Gigabytes pro Sekunde war für NVIDIA so groß, dass man zusammen mit Samsung eine eigene Version von DDR-II-Speichern entwickelt hat. Laut NVIDIA harmonieren die Chips, die "zu 97 Prozent dem Standard entsprechen" so gut mit Samsung-Speichern, dass die Koreaner vorerst der einzige Lieferant für GeForceFX-RAM sind. Einen möglichen Lieferengpass sieht NVIDIA dabei nicht.

Die Speicherbausteine folgen auch nicht dem Vorschlag GDDR, der wie berichtet schon 2003 für Grafikkarten erscheinen soll und auf DDR-III-Technologie aufbaut. Da ATI bereits bestätigt hat, dass der Radeon9700 "im Prinzip" DDR II beherrscht, können die Kanadier vielleicht schnell kontern.

Doch das ist eigentlich gar nicht nötig: Das 256 Bit breite Speicher-Interface von ATI sorgt schon mit DDR I für maximale 19,8 GByte/s Bandbreite, NVIDIA kommt mit 128 Bit Busbreite und DDR II "nur" auf 16 GByte/s. Da dürfte dann wohl eher "1 GHz Speicher" auf der Schachtel stehen, was die Bausteine effektiv erreichen, bei 500 MHz physikalischem Takt.

Die hohe Bandbreite ermöglicht auch eine neue Form des Antialiasing, die NVIDIA "Intellisample" nennt. Mit Details hält man sich aber noch bedeckt, ein 6x-Modus als Zwischenstufe zwischen 4x und 8x soll jedoch enthalten sein.

Wie kühlt man 125 Mio. Transistoren?

Auf die stattliche Anzahl von 125 Millionen Transistoren (ATI: 107 Mio.) bringt es der GeForceFX mit seinen acht Pixel-Pipelines. Auch wenn der Grafikchip bei TSMC in 130 Nanometern Strukturbreite mit Kupfer-Interconnects gefertigt wird, dürfte der Stromverbrauch enorm sein. NVIDIA legt hier keine Zahlen vor, wir gehen jedoch bei den maximal möglichen 500 MHz Chiptakt und 256 MByte DDR-II-Speicher von über 60 Watt für die komplette Karte unter Last aus. Das ist fast das Doppelte der AGP-Spezifikation - wenn man AGP-Pro außen vor lässt. Dieser Steckplatz, der bis zu 110 Watt liefert, ist derzeit nur auf Workstation-Boards zu finden.

Für AGP-Pro ist der GeForceFX aber nicht gemacht. Er beherrscht zwar AGP 8x, das erhöht die zulässige Leistungsaufnahme über den AGP-Steckplatz aber nicht. AGP Pro wird vermutlich erst mit künftigen Quadro-Versionen des Chips ein Thema für NVIDIA sein. Folglich wird die Karte, wie beim Radeon 9700, über einen Stecker auf dem Board direkt aus dem Netzteil zwangsbeatmet.

Zusammen mit den Speicherchips fallen über 60 Watt Verlustleistung auf der Fläche einer Spielkarte an - und so viel Wärme will abgeführt werden. Der Blick auf das folgende Bild weckt spontan Assoziationen bezüglich des OTES-Konzepts von ABIT. NVIDIAs Lösung "FX Flow" hat aber nur wenig damit zu tun.

NVIDIA behauptet, ABIT verwende keine Heatpipe, sondern nur massive Kupferverbindungen ohne Gasfüllung. FX Flow soll aber aus einer Heatpipe bestehen, welche die Wärme zum Kupfer-Kühlkörper führt. Über diesen strömt kühle Luft, die anders als bei ABIT, aus dem Äußeren des PCs angesaugt wird. Ein- und Auslass liegen nebeneinander, damit die Karte im Tower-Gehäuse nicht ihre eigene Warmluft wieder ansaugt.

Der Preis dafür: Eine Karte mit FX Flow belegt zwei Steckplätze. NVIDIA bezeichnet die oben abgebildete Lösung selbst noch als Prototyp, hier ergeben sich für die Kartenhersteller wieder echte Differenzierungsmerkmale. Schon beim GeForce4 war von Passiv- über Kupfer- bis zu Wasserkühlern alles zu sehen.

Ob FX Flow so laut wird wie ABITs ohrenbetäubende 7200rpm-Turbine, ist noch offen. NVIDIA meint, die Lösung sei "nicht lauter als ein GeForce4 Ti4600". Diese Karten waren aber, vor allem in der ersten Generation, bisweilen echte Nervenzerrer. Immerhin soll der Lüfter sich selbstständig bei geringer Temperatur (lies: wenig Chiplast) herunterregeln. Das geschieht abhängig von der Aktivität der acht Pixel-Pipelines in festgelegten Stufen, also nicht gleichmässig.

Update: Die Referenzkarte

Gegenüber der auf der letzten Seite abgebildeten Karte hat NVIDIA auf seinen rund um die Welt stattfindenden Pressekonferenzen ein etwas anderes Design gezeigt. Die neuen Karten scheinen jedoch einheitlich zu sein, wie die Bilder anderer Sites zeigen. Die folgenden Aufnahmen entstanden in München.

Das Referenzboard verfügt über einen Radiallüfter, der Kühlkörper besteht aus gefaltetem Kupfer.

Das allein reicht aber noch nicht zur Kühlung: Auch auf der Rückseite ist ein massiver Kühlkörper aus Kupfer zu finden, sowie eine Klammer, die zur Befestigung des Edelmetalls und Versteifung der Karte dient.

Nicht nur die Materialien, auch die Verarbeitung dieses "thermal design" dürfte reichlich teuer werden. Auf der in München gezeigten Karte waren insgesamt drei Heatpipe-Röhrchen befestigt, deren Spitzen handverlötet waren.

Daneben ist noch unklar, ob sich ein PC mit GeForceFX transportieren lässt, ohne die Karte zu beschädigten. Die Referenzkarten wiegen geschätzte 600 Gramm - selbst bereits erhältliche Boards wie die V8460 Ultra mit Kupferkühler von Asus kommen nur auf 427 Gramm. Solche nur an zwei Punkten im PC befestigten Massen dürften vor allem PC-Hersteller vor neue Herausforderungen beim Versand stellen.

Benchmarks?

Performance-Angaben zum GeForceFX gibt es noch nicht - zumindest keine unabhängigen Messungen. NVIDIA weigerte sich vor dem Ablauf der Sperrfrist hartnäckig, eine der raren Karten auch nur stundenweise zur Verfügung zu stellen.

Einzig vage Angaben wie "drei Mal höhere Frame-Raten als ein GeForce4" oder "drei Mal schnelleres Vertex-Processing" waren zu bekommen. Doch selbst das scheint sich nicht zu bewahrheiten.

Beim Haupt-Event der Produktvorstellung in Las Vegas legte NVIDIA zumindest zwei Werte vor. Die Konfiguration der Testsysteme war in der hastigen Präsentation jedoch nicht mehr zu erhaschen. In der Regel legt NVIDIA aber nur Werte für Systeme mit gleicher Rechnerausstattung vor.

Bei Quake III Arena soll der GeForceFX in der unüblichen Auflösung von 2048 x 1536 Punkten noch 173 Bilder pro Sekunde erreicht haben, ein GeForce4 Ti4600 nur 93,3 Frames.

Für professionelle Anwendungen gab NVIDIA Werte eines älteren Teils des Viewperf-Benchmarks der SPEC an. Demnach erreicht die bisher schnellste Quadro4-Karte von NVIDIA bei "CDRS-03" 600 Punkte, der GeForceFX soll 1200 schaffen.

Diese beiden Zahlen sind in jeder Hinsicht mit Vorsicht zu genießen - nicht nur, weil sie vom Chiphersteller selbst stammen. Bisher ist der Radeon9700 in unseren Benchmarks zum größten Teil deutlich schneller als ein GeForce4 Ti4600. NVIDIA darf sich hier aber keinen Patzer erlauben und wird wohl noch an den Treibern feilen.

Update: Neue Benchmarks

Im Rahmen seiner Pressekonferenz in München legte NVIDIA neue Benchmarks vor, und gab auch die Konfiguration der Systeme bekannt. Bei den Spiele-Tests wurde Intels Pentium 4 mit 3,06 GHz eingesetzt, dem 512 MByte und Windows XP zur Seite standen.

Bei den Workstation-Tests mit Viewperf kam praxisgerecht Windows 2000 mit SP3 zum Einsatz, hier aber mit satten 2 GByte RAM. Dabei machte NVIDIA auch Angaben zum Chipsatz: Intels brandneuer "Granite Bay" mit zwei DDR-Kanälen sorgte für genügend Speicherbandbreite.

Getestet wurde aber noch eine Alpha-Version. Auch UT2003 wird endlich mit allen Features spielbar.

Damit ist der von NVIDIA verwendete Unterbau für den GeForceFX also in jeder Hinsicht "state-of-the-art". Ob sich aber auch beim Erscheinen im Februar solche Plattformen schon erschwinglich sind, steht derzeit in den Sternen.

Außerdem fällt auf, dass NVIDIA sein im Vorfeld geäußertes Ziel von "dreifachen Bildraten" auch bei den eigenen Tests nicht ein Mal erreichen konnte. Doch selbst wenn sich auch bei unabhängigen Test die Werte "nur" verdoppeln sollten, wäre das beachtlich.

Merkwürdig ist auch, warum nur derart viele Einzelergebnisse und nicht etwa die Gesamt-Scores von 3DMark2001 oder des viel aktuelleren Viewperf 7 angegeben werden. Immerhin dürften die bisher bekannten Werte aber ATI einen deutlichen Hinweis geben, was mit einem eventuellen Nachfolger des Radeon 9700Pro erreicht werden muss, um NVIDIA erneut zu schlagen.

Update: Fazit

Die Shader sind deutlich aufgewertet, DDR II wird zum ersten Mal benutzt, und die erhöhte Farbpräzision ist innovativ - doch nach einem technologischen Durchbruch sieht der GeForceFX zumindest auf dem Papier nicht aus.

Zu groß sind die Zugeständnisse an die Fertigungsmöglichkeiten und das Design als AGP-Karte - nicht umsonst gibt NVIDIA den Stromverbrauch mit keiner Silbe an. Auch dass der Lüfter "leise" sein soll, ist alles, was der Hersteller von seinem eigenwilligen Konzept preisgibt.

Auf dem Papier ist der DDR-II-Speicher mit 128-Bit-Bus in der Bandbreite nicht schneller als DDR-I mit 256 Bit beim Radeon 9700Pro. Das müssen dann wohl der Chiptakt von 500 MHz und die überarbeiteten Pipes richten. Damit wäre zumindest das Klassenziel erreicht. Aber wie groß der Vorsprung ist, kann erst ein unabhängiger Test zeigen.

Um nachzulegen hat ATI ein Vierteljahr Zeit; die Nutzung des bereits vorhandenen DDR-II-Interfaces ist hier nur eine Option. Auch ein Wechsel auf 130 Nanometer erscheint noch denkbar, hier hat NVIDIA seinen Spielraum bereits ausgereizt - und vielleicht sogar überreizt. Die GeForceFX erscheint in der derzeitigen Form als Grafikkarte, die sich am Rande des technisch machbaren bewegt. Sein selbst gestecktes Ziel, alle sechs Monate den schnellsten Grafikchip auch zu liefern, hat NVIDIA diesmal jedoch gründlich verfehlt.

Product Line Manager Geoff Ballew begründete die früher Vorstellung im Gespräch mit tecCHANNEL nicht etwa damit, dass man ATI das Weihnachtsgeschäft verderben wolle. Vielmehr müsse man die Software-Entwickler bereits jetzt mit den Karten versorgen, damit Weihnachen 2003 genug Titel verfügbar seien, die das Potential des NV30 nutzen. Das bringe aber eine Vielzahl an Stellen mit sich, aus denen Informationen entweichen könnten. Daher habe sich NVIDIA entschieden, mit seinem neuen Design gleich an die Öffentlichkeit zu gehen.

Doch eine abschließende Bewertung des GeForceFX ist am Tag der Vorstellung mangels Testexemplaren noch nicht möglich. NVIDIA hat mit den technischen Daten hoch gepokert, ohne allerdings die Karten auf den Tisch zu legen. (nie)