28/30 Nvidia GeForce 9600 GT (SLI) im Test : Einmal Radeon-HD-3850-Konkurrenz, bitte!

, 205 Kommentare

Übertaktbarkeit

Vielen dort draußen wird die gerade neu gekaufte Grafikkarte noch nicht schnell genug sein. Ein probates Mittel, dieses Bedürfnis nach noch mehr Geschwindigkeit zu befriedigen, ist die Hardware zu übertakten. Als kleine Stabilitätsprobe ließen wir den 3DMark06, der besonders grafiklastig ist, laufen und testeten nachfolgend den höchsten Takt mit Hilfe von Company of Heroes, F.E.A.R und Prey. Jedoch muss man vor den Messungen anmerken, dass sich die Ergebnisse nicht auf jede Karte desselben Typs übertragen lassen, da die Güte von Chip zu Chip unterschiedlich ist.

Übertakten
  • Company of Heroes:
    • 9600 GT – Übertaktet (758/1805/1100)
      30,9
    • 9600 GT – Standard (650/1625/900)
      27,3
  • F.E.A.R.:
    • 9600 GT – Übertaktet (758/1805/1100)
      79,0
    • 9600 GT – Standard (650/1625/900)
      66,0
  • Prey:
    • 9600 GT – Übertaktet (758/1805/1100)
      61,4
    • 9600 GT – Standard (650/1625/900)
      53,3

Nvidia scheint die G94-GPU auf der GeForce 9600 GT sehr moderat getaktet zu haben, denn die Frequenzsteigerung, die wir bei unseren Übertaktungsversuchen erreicht haben, können sich sehen lassen. Die TMU-Domäne konnten wir um 108 MHz steigern, was in einem Takt von 758 MHz resultiert. Die Shaderdomäne lief mit bis zu 1805 MHz fehlerfrei, bevor erste Abstürze auftraten. Das Referenzdesign sieht knapp 200 MHz weniger vor. Ebenfalls ein gutes Ergebnis konnten wir beim Speicher erzielen – und das wirkliche Maximum konnten wir nicht feststellen. Da die GeForce 9600 GT noch von keinem externen Tool erkannt wird, konnten wir den 3D-Beschleuniger nur mittels Nvidias „nTune“-Software übertakten. Und diese lässt nur eine Steigerung des Speichertaktes auf bis zu 1100 MHz zu – was die GeForce 9600 GT ohne Probleme bewältigte.

Je nach Spiel konnten wir somit die Leistung der GeForce 9600 GT um 13 bis 20 Prozent steigern, was durchaus spürbar ist. Wir sind uns deswegen sicher, dass einige Grafikkartenhersteller die Taktraten ihrer Produkte deutlich nach oben schrauben werden, um sich von der Konkurrenz abzusetzen.

VC-1-/H.264-Wiedergabe

Noch vor einigen Jahren standen sämtliche PCs vor der damals komplizierten Aufgabe, ein DVD-Video zu decodieren. Nachdem damals zuerst die CPU alleine ackern musste, und diese des Öfteren damit überfordert war, kam es bei den Grafikchipspezialisten in die Mode, ihre 3D-Beschleuniger mit speziellen Funktionen auszustatten, um dem Prozessor die Hauptarbeit des Dekodierens abzunehmen. Ein netter Nebeneffekt war, dass die Grafikkarten mit speziellen Algorithmen arbeiten konnten, der die Bildqualität ohne einen großen Leistungsaufwand verbessern konnte. DVDs sind mittlerweile schon längst keine Herausforderung mehr. Ein moderner PC steht mittlerweile vor deutlich schwereren Aufgaben: Das Decodieren von im VC-1- oder H.264-Codec befindlichen HD-Videos, die auf einer Blu-ray oder einer HD DVD aufgenommen worden sind (HD-Trailer haben zwar dieselben Codecs sowie eine identische Bildqualität, allerdings sind diese nicht verschlüsselt, weswegen die CPU-Auslastung um einiges geringer ausfällt). Wir haben uns als Film für „Crank“ auf einer HD DVD (1024p, 24 Bilder pro Sekunde) entschieden, der im VC-1-Codec auf einer HD DVD vorliegt. Wir messen sekündlich die CPU-Auslastung der ersten zweieinhalb Minuten des Films und bilden jede fünfte Sekunde in einem Verlaufsdiagramm ab. Als Vertreter der Blu-ray-Fraktion muss der Actionfilm „X-Men 3“ herhalten, der im H.264-Format vorliegt (1024p, 24 Bilder pro Sekunde). Für die Messungen haben wir die CPU auf 1,86 GHz heruntergetaktet.

VC-1-Wiedergabe
Angaben in Prozent
  • Maximal:
    • Nvidia GeForce 9600 GT
      93
    • Nvidia GeForce 8800 GT
      45
    • ATi Radeon HD 3850
      38
  • Durchschnitt:
    • Nvidia GeForce 9600 GT
      37
    • Nvidia GeForce 8800 GT
      31
    • ATi Radeon HD 3850
      24
  • Minimal:
    • Nvidia GeForce 9600 GT
      13
    • ATi Radeon HD 3850
      8
    • Nvidia GeForce 8800 GT
      5

Da Nvidia bei der GeForce 9600 GT einige Änderungen in der PureVideo-HD-Engine vorgenommen hat (und diese später per Treiberupdate auch auf den G92-Karten GeForce 8800 GT und GeForce 8800 GTS 512 möglich machen möchte), haben wir bereits im vor dem Test damit gerechnet, dass die CPU-Auslastungsergebnisse sich von den G92-Karten etwas unterscheiden werden – und so ist es auch. Die VC-1-Beschleunigung ist auf der GeForce 9600 GT im Gegensatz zur GeForce 8800 GT etwas schlechter geworden. Vor allem die maximale Prozessorauslastung ist stark angestiegen, wobei dies nur in einer einzelnen Szene der Fall ist. Nichtsdestotrotz gab es keinerlei Probleme beim Abspielen des HD-Videos. Die Radeon HD 3850 kommt mit dem VC-1-Format am besten zurecht.

H.264-Wiedergabe
Angaben in Prozent
  • Maximal:
    • Nvidia GeForce 8800 GT
      38
    • ATi Radeon HD 3850
      37
    • Nvidia GeForce 9600 GT
      35
  • Durchschnitt:
    • Nvidia GeForce 8800 GT
      23
    • ATi Radeon HD 3850
      20
    • Nvidia GeForce 9600 GT
      20
  • Minimal:
    • Nvidia GeForce 8800 GT
      13
    • ATi Radeon HD 3850
      12
    • Nvidia GeForce 9600 GT
      11

Deutlich niedriger ist hingegen die Prozessorauslastung beim H.264-Codec, wobei diese gar noch effektiver als die der GeForce 8800 GT ist. Beide Nvidia-Grafikkarten geben sich aber nicht allzu viel und liegen eng beieinander. Die Radeon HD 3850 platziert sich genau zwischen der GeForce 9600 GT und der GeForce 8800 GT und bietet dem Käufer somit die aktuell solideste HD-Videobeschleunigung.

Auf der nächsten Seite: Preis-Leistung-Verhältnis