Retro

Im Test vor 15 Jahren: Nvidias GeForce FX 5800 Ultra a.k.a „der Föhn“

Robert McHardy (+1)
109 Kommentare
Im Test vor 15 Jahren: Nvidias GeForce FX 5800 Ultra a.k.a „der Föhn“

tl;dr: Mit der GeForce FX 5800 (Ultra) bot auch Nvidia mit einigen Monaten Verzögerung nach ATi eine DirectX-9-taugliche Grafikkarte an. Trotz des späten Starts konnten beide der Konkurrenz aber nur selten in der Leistung etwas entgegen setzen und waren sehr laut. Die Ultra erreicht immerhin Kultstatus als „der Föhn“.

GeForce FX 5800 (Ultra) mit NV30

Ende 2002 war ATi mit der Radeon 9700 Pro (Im Test vor 15 Jahren) ein großer Wurf gelungen. Der R300 (150 nm) als erste DirectX-9-GPU war extrem schnell und trotzdem gut zu kühlen. Die damals noch aktuelle GeForce4 Ti 4600 hatte dagegen keine Chance.

Nvidia nV30 als Antwort auf ATi R300

Noch im November 2002 stellt Nvidia deshalb den neuen nV30 vor, der als GeForce FX 5800 und GeForce FX 5800 Ultra auf den Markt kommen sollte. Allerdings geschah über Monate dann erst einmal gar nichts.

Grafikkarte mit NV30 und Kühler „FlowFX“
Grafikkarte mit NV30 und Kühler „FlowFX“

Der nV30 als Nvidias erster Grafikchip mit DirectX-9-Unterstützung wurde mit 125 Millionen Transistoren im potentiell fortschrittlicheren 130-nm-Verfahren gefertigt. Er verfügte über vier Rendering-Pipelines mit jeweils zwei Texture Mapping Units (TMUs). Schon den GDDR2-Grafikspeicher der GeForce FX 5800 musste Nvidia mit 400 MHz am schmalen 128-Bit-Speicherbus betreiben, um überhaupt auf eine höhere Bandbreite als auf der GeForce4 Ti 4600 zu kommen, auch der GPU-Takt lag mit 400 MHz außergewöhnlich hoch.

500 MHz GPU-Takt auf der GeForce FX 5800 Ultra

Die schnellere GeForce FX 5800 Ultra taktete den gleichen Chip sowie den Grafikspeicher jeweils um nochmals 100 MHz höher. 500 MHz lagen 175 MHz über dem Niveau auf der Radeon 9700 Pro. Die Konkurrenz schlug Nvidias Angebot auf dem Datenblatt nicht nur in Bezug auf die Speicherbandbreite trotzdem nicht. Der bereits verfügbare Chip von ATi war aber auch in anderen Belangen auf dem Papier überlegen.

GeForce FX 5800 (Ultra) GeForce4 Ti 4600 Radeon 9700 Pro
Chip nV30 nV25 R300
Herstellungsprozess 130 nm 150 nm
Chiptakt 400 (500) MHz 300 MHz 325 MHz
realer DDR-Speichertakt 400 (500) MHz 325 MHz 310 MHz
Rendering-Pipelines 4 8
TMUs je Pipeline 2 1
Pixelfüllrate 1.600 (2.000) MPix/s 1.200 MPix/s 2.600 MPix/s
Texelfüllrate 3.200 (4000) MTex/s 2.400 MTex/s 2.600 MTex/s
Speicherbandbreite 12.800 (16.000) MByte/s 11.200 MByte/s 19.840 MByte/s
Speicherbus 128 Bit 256 Bit
Textur-Lookups pro Pass 16 (OpenGL: 4) 4 16 (OpenGL: 8)
Shader-Hardware PS2.0+ / VS2.0+ PS1.3 / VS1.1 PS2.0 / VS2.0
Vertex-Durchsatz 160 (200) MVert/s 136 MVert/s 325 MVert/s

Ein weiterer Nachteil war zur Vorstellung des NV30 noch nicht absehbar: Der Geräuschpegel, den insbesondere das Ultra-Modell unter Last erreichen sollte. Im Referenzdesign verfügte die GeForce FX 5800 (Ultra) über einen FlowFX genannten Dual-Slot-Kühler, der der Grafikkarte durch seine enorme Lautstärke diverse Beinamen wie „Dustbuster“ einbrachte. Zur Vorstellung der GeForce-FX-Serie im November 2002, fünf Monate vor dem tatsächlichen Erscheinen der Grafikkarten, hielt ComputerBase das aber noch für eine vorläufige Lösung.

Ob der Kühler auf der Referenzkarte so auch in der Serienfertigung zum Einsatz kommt, darf bezweifelt werden, da es solcherlei Dual-Slot-Karten bislang nur im professionellen Umfeld gab. Eher wahrscheinlich scheint dagegen, dass das Referenzsample noch aus Stabililtätsgründen mit so einem Monstrum betrieben werden musste.

In der Tat landete dieser Kühler am Ende nur auf der GeForce FX 5800 Ultra, während die GeForce FX 5800 mit einem kleineren, aber immer noch sehr lauten Kühler ausgerüstet war. Diese Variante in Form eines Modells von Inno3D war auch die erste Grafikkarte mit NV30, die ComputerBase im April 2003 und damit ein halbes Jahr nach Präsentation des NV30 zum Testen bekam.

Zu langsam, viel zu laut

Schon im 3DMark 2003 musste die GeForce FX 5800 gegenüber der schon länger erhältlichen und deutlich leiseren ATi Radeon 9700 Pro um 16 respektive 13 Prozent zurückstecken. Auch in Comanche 4, das der Nvidia-Grafikkarte beilag, lag die Radeon vorne, wenn auch nur marginal. 12 Prozent betrugt der Vorsprung der Radeon in Unreal Tournament 2003, unabhängig der gewählten Auflösung. Der einzige Titel, in dem die GeForce FX 5800 im Test vor 15 Jahren schneller als die Konkurrenz von ATi war, war Serious Sam: The Second Encounter mit der OpenGL-API. Hier arbeitete die GeForce je nach Auflösung zwischen sieben und einem Prozent schneller.

Diagramme
3DMark03
  • 800x600x32:
    • Radeon9700 Pro
      5.541
    • Inno3D GF FX5800
      4.681
    • Radeon9700 Pro Quality-I
      4.166
    • Radeon9500 64MB
      3.064
    • Inno3D GF FX5800 Quality-I
      3.046
    • Radeon9500 64MB Quality-I
      1.912
    • Inno3D GF FX5200
      1.628
    • Inno3D GF FX5200 Quality-I
      1.100
  • 1024x768x32:
    • Radeon9700 Pro
      4.351
    • Inno3D GF FX5800
      3.806
    • Radeon9700 Pro Quality-I
      3.075
    • Inno3D GF FX5800 Quality-I
      2.327
    • Radeon9500 64MB
      2.291
    • Radeon9500 64MB Quality-I
      1.352
    • Inno3D GF FX5200
      1.245
    • Inno3D GF FX5200 Quality-I
      789
Einheit: Punkte

Mit zunehmender Verfügbarkeit von DirectX-9-Titeln wurden die Leistungsprobleme des NV30 allerdings immer gravierender, denn die neue API lag der Architektur nicht. In allen Titeln gleich gravierend war indes das Problem mit der Lautstärke.

Nvidia selbst parodierte später den lauten Kühler der GeForce FX 5800 Ultra in einem Video und griff viele der von Anwendern in den Monaten zuvor gezogenen Analogien zu lauten Gegenständen des Alltags wieder auf.

Der nV35 folgte nur Monate später

Eine exorbitante Lautstärke, ein hoher Preis und die schlechtere Leistung in Spielen sprachen alle gegen die GeForce FX 5800 (Ultra) mit nV30. Wer im April 2003 eine Gaming-Grafikkarte kaufen wollte, der war mit ATi deutlich besser beraten. Trotz oder gerade wegen der vielen negativen Eigenheiten der GeForce FX 5800 Ultra besitzt „der Föhn“ trotzdem noch heute Kultstatus unter den Nvidia-Grafikkarten.

Mit dem innerhalb von Monaten nachgeschobenen Nachfolger des nV30, dem nV35 auf GeForce FX 5900 und FX 5900 Ultra, ging Nvidia allerdings schnell zwei große Probleme des nV30 an. Das Speicherinterface wurde verdoppelt und trotz deutlich gestiegener Leistung konnte der Verbrauch gesenkt werden. Schon im Mai 2003 verschwand die GeForce FX 5800 (Ultra) bei Nvidia damit wieder von der Webseite. Erst mit dem nV40 konnte Nvidia aber auch die Probleme unter DirectX 9 ausräumen.

Weitere Tests von vor 15 Jahren

In der Kategorie „Im Test vor 15 Jahren“ wirft die Redaktion seit Juli 2017 jeden Samstag einen Blick in das Test-Archiv. Bisher in dieser Reihe erschienen sind:

Nvidia GTC 2024 (18.–21. März 2024): ComputerBase ist vor Ort!