25/27 Nvidia GeForce 9800 GX2 im Test : Ein Drittel schneller als die Radeon HD 3870 X2

, 341 Kommentare

Übertaktbarkeit

Vielen dort draußen wird die gerade neu gekaufte Grafikkarte noch nicht schnell genug sein. Ein probates Mittel, dieses Bedürfnis nach noch mehr Geschwindigkeit zu befriedigen, ist die Hardware zu übertakten. Als kleine Stabilitätsprobe ließen wir den 3DMark06, der besonders grafiklastig ist, laufen und testeten nachfolgend den höchsten Takt mit Hilfe von Company of Heroes, Stalker und World in Conflict. Jedoch muss man vor den Messungen anmerken, dass sich die Ergebnisse nicht auf jede Karte desselben Typs übertragen lassen, da die Güte von Chip zu Chip unterschiedlich ist.

Übertaktbarkeit
  • Bioshock:
    • 9800 GX2 – Übertaktet (712/1674/1101)
      53,1
    • 9800 GX2 – Standard (600/1512/1000)
      48,8
  • Call of Duty 4:
    • 9800 GX2 – Übertaktet (712/1674/1101)
      53,4
    • 9800 GX2 – Standard (600/1512/1000)
      48,7
  • World in Conflict:
    • 9800 GX2 – Übertaktet (712/1674/1101)
      39,2
    • 9800 GX2 – Standard (600/1512/1000)
      35,4

Obwohl man annehmen könnte, dass das Taktpotenzial auf der GeForce 9800 GX2 aufgrund der komplexen Zwei-GPU-Konstruktion bereits ausgeschöpft ist, konnten wir die Taktfrequenzen auf der Grafikkarte noch ein gutes Stück weiter nach oben schieben. Die G92-Chips machten ohne Probleme selbst eine TMU-Frequenz von 712 MHz mit, während die ALUs bis 1674 MHz fehlerfrei ihre Arbeit verrichteten. Den Samsung-Speicher konnten wir bis 1101 MHz übertakten. Die durchschnittliche Performancesteigerung lag bei etwa zehn Prozent.

VC-1-/H.264-Wiedergabe

Noch vor einigen Jahren standen sämtliche PCs vor der damals komplizierten Aufgabe, ein DVD-Video zu decodieren. Nachdem damals zuerst die CPU alleine ackern musste, und diese des Öfteren damit überfordert war, kam es bei den Grafikchipspezialisten in die Mode, ihre 3D-Beschleuniger mit speziellen Funktionen auszustatten, um dem Prozessor die Hauptarbeit des Dekodierens abzunehmen. Ein netter Nebeneffekt war, dass die Grafikkarten mit speziellen Algorithmen arbeiten konnten, der die Bildqualität ohne einen großen Leistungsaufwand verbessern konnte. DVDs sind mittlerweile schon längst keine Herausforderung mehr. Ein moderner PC steht mittlerweile vor deutlich schwereren Aufgaben: Das Decodieren von im VC-1- oder H.264-Codec befindlichen HD-Videos, die auf einer Blu-ray oder einer HD DVD aufgenommen worden sind (HD-Trailer haben zwar dieselben Codecs sowie eine identische Bildqualität, allerdings sind diese nicht verschlüsselt, weswegen die CPU-Auslastung um einiges geringer ausfällt). Wir haben uns als Film für „Children of Men“ auf einer HD DVD (1024p, 24 Bilder pro Sekunde) entschieden, der im VC-1-Codec auf einer HD DVD vorliegt. Wir messen sekündlich die CPU-Auslastung der ersten zweieinhalb Minuten des Films und bilden jede fünfte Sekunde in einem Verlaufsdiagramm ab. Als Vertreter der Blu-ray-Fraktion muss der Actionfilm „X-Men 3“ herhalten, der im H.264-Format vorliegt (1024p, 24 Bilder pro Sekunde). Für die Messungen haben wir die CPU auf 2,4 GHz heruntergetaktet sowie nur einen einzelnen CPU-Kern aktiv gelassen.

H.264-Wiedergabe
Angaben in Prozent
  • Maximal:
    • Nvidia GeForce 9800 GX2
      66
    • ATi Radeon HD 3870 X2
      89
  • Durchschnitt:
    • Nvidia GeForce 9800 GX2
      46
    • ATi Radeon HD 3870 X2
      41
  • Minimal:
    • Nvidia GeForce 9800 GX2
      32
    • ATi Radeon HD 3870 X2
      26

Bei der H.264-Wiedergabe geben sich die aktuellen ATi- und Nvidia-Beschleuniger nicht allzu viel. Die Kontrahenten arbeiten auf einem ähnlich hohen Niveau und es gibt nur kleinere Unterschiede, die aber keine Auswirkungen auf die Wiedergabe eines entsprechenden HD-Films haben.

VC-1-Wiedergabe
Angaben in Prozent
  • Maximal:
    • Nvidia GeForce 9800 GX2
      82
    • ATi Radeon HD 3870 X2
      54
  • Durchschnitt:
    • Nvidia GeForce 9800 GX2
      55
    • ATi Radeon HD 3870 X2
      28
  • Minimal:
    • Nvidia GeForce 9800 GX2
      35
    • ATi Radeon HD 3870 X2
      11

Deutlich größer sind die Differenzen dagegen beim VC-1-Codec, da Nvidia diesen im Gegensatz zu ATi nicht komplett beschleunigen kann. Die ATi Radeon HD 3870 X2 arbeitet deutlich effektiver, wobei es aber auch auf der GeForce 9800 GX2 zu keinerlei Problemen während des Abspielens gekommen ist – die CPU im Testsystem ist stark genug.

(Da die GeForce 8800 Ultra bei einer Dual-Link-Auflösung wie den von uns genutzten 2560x1600 Bildpunkten über die beiden Dual-Link-DVI-Ausgängen den HDCP-Kopierschutz nicht anwenden kann, fehlt die Karte in den Messungen. Andere Grafikkarten auf Basis der G92-GPUs erledigen die Aufgabe der CPU-Entlastung im Bereich der Messungenauigkeit auf ein und demselben Niveau wie Nvidias neues Flaggschiff.)

Auf der nächsten Seite: Preis-Leistung-Verhältnis