Test Test: Nvidia GeForce GTS 450 (SLI)

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.402
Mit der GeForce GTS 450 bringt Nvidia ein DirectX-11-Produkt auf „Fermi“-Basis in den Handel, das auf den Massenmarkt abzielt und entsprechend günstig zu haben sein wird. Als direkter Konkurrent wurde die Radeon HD 5750 auserkoren, wobei auch die Radeon HD 5770 ein wichtiger Gegner ist. Inwieweit schafft es die neu GeForce-Karte, die Konkurrenz zu gefährden?

Zum Artikel: Test: Nvidia GeForce GTS 450 (SLI)
 

Kaupa

Lt. Commander
Dabei seit
Sep. 2007
Beiträge
1.494
Schade!
Teurer, aber dafür langsamer, als die 5770- so nicht!
Werde dann wohl entgültig auf die nächsten Radeons warten, bis meine 4870 in Rente geht.
Evtl. fallen dann ja die Preise und es wird ne 460 oder halt ne 6770...
 

Mister79

Captain
Dabei seit
Apr. 2008
Beiträge
3.752
Nun ich stell mir gerade die Frage warum ich von einer GTX 285 updaten soll? Schnell genug ist die noch und bis jetzt zwingt kein Game die Karte in die Knie. Sicher, die bekannten Kandidaten aber selbst dort ist auch die 5000 Serie von ATI zu langsam. Gothic 4 wäre vielleicht ein Grund aber mhhh die Grafik ist einfach nur schlecht und ich kann bis jetzt noch nicht den Grund finden warum das Spiel die Rechenpower benötigt.

Selbst das neue Crysis brauch weniger Leistung und die Grafik ist besser. Ein Trauerspiel im Moment bei beiden. Mal abwarten was die 400 Serie in 28Nm bringt.

Versteht mich nicht falsch, aber ich sehe den Grund nicht von 200 Serie auf 400 zu gehen oder von der 4000 Serie auf die 5000 Serie. Preislich zur Leistung sehe ich da keinen Grund. DX 11 lasse ich mal weg, denn die Games sind mangelware und das gezeigte haut mich jetzt nicht um.

SLI kommt mir nicht mehr in den Rechner. Die Microruckler können die behalten. Ich hatte die 8800 in SLI und die Probleme stehen nicht im Verhältnis zum Preis und zur Leistung. Netter Test, keine Frage aber es zeigt mir wieder wie schlecht SLI ist und die Konkurenz ist da nicht besser von den Problemen her.
 
Zuletzt bearbeitet:

Sentionline

Lt. Commander
Dabei seit
Mai 2006
Beiträge
1.184
Also die SLI Lösung ist ja mehr als nur gut gelungen. Selbst mit SSAA durchgehend schneller als eine GTX470, deutlich leiser/sparsamer und billiger.
Die optimale Kombo für 1680x1050 inkl. 4xAA & 16xAF.

Im Fazit steht: "Hohe Leistungsaufnahme für die gebrachte Leistung". Das kann man aber nicht für die SLI Lösung so stehen lassen. Überhaupt kann man das Fazit für die MultiGPU Lösung so nicht stehen lassen.

Ansonsten guter Test. Jetzt kann ich mir ein Bild von der GTS450 malen. In Vergangenheit war das aber auch so das eine GTS250 SLI mit der GTX285 mithalten konnte, von daher wundert mich das Ergebnis im Grunde nicht.

Mister79, Mikroruckler treten erst auf wenn man die 30 fps Marke unterschreitet. Das düfte in der kommenden Zeit mit den Portierungen zu den Ausnahmeerscheinungen gehören. Mit der SLI Lösung düfte man auch mit DX11 für 2 Jahre bis 1680x1050 voll und ganz bedient sein. Man beachte auch die Lautstärkemessungen. Und ausserdem gibts ja noch so Gimmicks wie 3DVision und PhysX, die das Spielerlebnis aufwerten "können".
 
Zuletzt bearbeitet:

DAASSI

Lt. Commander
Dabei seit
Apr. 2009
Beiträge
1.853
und wieder ein Thermi :D nach einem jahr haben die es immer noch nicht geschafft was gutes rauszubringen... warum steht eigentlich CUDA beid en positiven eigenschaften? das is ja in etwa so wenn wenn man bei Microsoft als gute eigenschaft Windows hinschreiben würde... AMD wird sehr wahrscheinlich niemals Physx und CUDA lizinsieren, genauswenig wie die Linux Community Windows. Also irgendwie Blödsin da CUDA reinzuschreiben, vor allem könnte man dann bei negativen eigenschaften "kein ATI Stream" hinschreiben.....
 

Mister79

Captain
Dabei seit
Apr. 2008
Beiträge
3.752
Ja nun Sentionline

aber die Microruckler stören mich. Wie viekl Zeit ist seit der 8800 vergangen? Das Problem ist bis heute noch nicht gelöst. Es wird immer wieder am Treiber gebastelt aber an der Hardware wird das Problem nicht angegangen. Warum? Dort müsste mal eine Änderung an der Hardware und am Treiber her aber nicht immer nur am Treiber.

@DAASSI
Nun, was gutes? die 460 ist was gutes geworden und hat alle Nachteile der Fermi gelöst. Die Hersteller haben die Probleme Temp und dadurch auch etwas den Stromverbrauch in den Griff bekommen und so schlecht ist die Fermi nicht mehr. Mag sein das die 480 da noch über die Stränge schlägt aber das sind Karten die ein Bruchteil dessen ausmachen was die Leute kaufen. In den Preisgefügen der OEM und auch Mittelklassenkäufer steht Fermi ganz gut da. Sicher nicht so gut wie NV es gerne hätte aber sicher nicht so wie du es beschreibst.

Cuda wird halt am meisten unterstützt. Daran mag es wohl liegen aber sollte einen Gamer nur bedingt interessieren.
 
Zuletzt bearbeitet:

Sentionline

Lt. Commander
Dabei seit
Mai 2006
Beiträge
1.184
aber die Microruckler stören mich. Wie viekl Zeit ist seit der 8800 vergangen? Das Problem ist bis heute noch nicht gelöst.
Das Problem wird sich so lange nicht lösen, bis ein Hardwaresynchronizerchip (was ein Wort) aufs PCB gelötet wird. Könnte ja Larabee übernehmen :D

Nachdem ich so einige Artikel über Mikroruckler durch hab (u.A. bei PCGH und Hier), hat Nvidia was das Thema angeht die Nase vorn. Nvidia scheint das "beste" aus SLI rauszuholen. Mehr kann man von den Jungs nun nicht verlangen, nach allem was sie sonst noch tun. Zudem bietet die GeForce 4 :D mehr Tesselationsleistung als die Konkurrenz, das ist ja auch was.

Das seid der GeForce 8 sich nichts getan hat, stimmt nicht ganz. Die Sabotage-Schuhe sollte man den Konsoleros hinterherwerfen, wenn wir als PC Gamer mehr haben wollen. Für den stehenden Markt kann ja Nvidia nix.
 

Mister79

Captain
Dabei seit
Apr. 2008
Beiträge
3.752
@ Sentioline

Mikroruckler treten erst auf wenn man die 30 fps Marke unterschreitet....
So und ich möchte dir ja kaum wiedersprechen. Stimmt was du sagst. Finde ja auch das die 450 sich im SLI beeindruckend schlägt. Aber im Fazit die Nachteile sind halt noch immer die SLI Nachteile. Werden sich bei Crysis und Gothic 4 extrem niederschlagen. Auch andere Games die schlecht von einer Konsole umgesetzt werden, werden darunter leiden. Von daher bleibe ich weiter skeptisch was SLI betrifft.

Was die Schuhe betrifft, stimme voll und ganz zu
 
Zuletzt bearbeitet:

Sentionline

Lt. Commander
Dabei seit
Mai 2006
Beiträge
1.184

Lars_SHG

Fleet Admiral
Dabei seit
Sep. 2008
Beiträge
14.690
Danke für den, wie immer, sehr aufwändigen Test!

Mein Fazit, mit diesen Karten macht wohl so langsam auch das SLI mit Mid-Range-Graka's Sinn! Vor allem bei nVidia, da die großen Thermi-Ableger ja nahezu unbrauchbar sind, was Stromaufnahme, Temperatur und Preis / Leistung betrifft (einige wenige abweichende Designexemplare mal ausgenommen).
 

RubyRhod

Commodore
Dabei seit
Jan. 2006
Beiträge
4.290
Mister79, Mikroruckler treten erst auf wenn man die 30 fps Marke unterschreitet.
Das Thema schon wieder. Und selbst jetzt scheinen es noch nicht alle verstanden zu haben, was Mikroruckler sind.

Die 30 fps als "Mirkorucklergrenze" sind auf jeden Fall Blödsinn und wer es nicht versteht, sollte mal nachlesen, worum es hier geht.
So oder so ist das Thema aber zu unrecht völlig gehyped worden.


Zum CB-Test möchte ich wieder sagen, dass ich die geleistete Arbeit sehr zu würdigen weiß, auch wenn das Produkt von nVidia wahrscheinlich eher weniger Spaß beim testen gemacht hat.
Leider vermiest der Preis die eh schon zu salzige Produktsuppe von nVidia ja auch noch diese Grafikkarte, welche sich höchstens bei 10-20€ unterhalb der HD5750 einordnen sollte. (Wobei ja das Gegenteil der Fall ist.)
 

Sentionline

Lt. Commander
Dabei seit
Mai 2006
Beiträge
1.184
Die 30 fps als "Mirkorucklergrenze" sind auf jeden Fall Blödsinn und wer es nicht versteht, sollte mal nachlesen, worum es hier geht.
...Darüber hinaus muss die Bildwiederholrate bei etwa 30 FPS oder darunter liegen, damit das Problem überhaupt zu einem als unstetig wahrgenommenen Spielablauf führen kann. Schaffen es zwei Grafikkarten weit über diesem Limit zu bleiben, treten die Ruckler nur noch schwer wahrnehmbar und irgendwann gar nicht mehr auf.
Quelle

Ich habe nicht nur einmal gelesen.

Von den 30fps distanziert sich die SLI Lösung in mittleren Auflösungen doch sehr.
 
Zuletzt bearbeitet:

Tekpoint

Admiral
Dabei seit
Juni 2007
Beiträge
9.169
Was ich geil an den Test finde ist um was es ja auch geht der SLI, man sieht echt sehr gut den Leistungszuwachs, udn Nvidia hat das mit den Treiber glaube gut in Grifft was Leistungssteigerung durch Parallelisierung von zwei gleichen GPUs angeht.
 
W

wadenbeisser

Gast
Nach Analyse und Auswertung deiner Sig. ist das definitiv Fanboygesülze. Was hat denn AMD im Petto für "Anwendungsbeschleunigung"?
Das gesammte Gesammtsystem frisst mit der Karte ca. 34W mehr als mit der in etwar gleich schnellen HD 5750 und schaut man sich die Verbrauchswerte der Grafikkarte bei ht4u an, dann zieht die GTS 450 ca. 30% mehr als ATIs Konkurrenz.

Wenn man schon mit Worten wie "Fanboygesülze" um sich wirft, dann sollte man zumindest rechnen können, denn sonst geht das ganz schnell nach hinten los.
 

Rickmer

Fleet Admiral
Dabei seit
Sep. 2009
Beiträge
10.103
Auch von mir vielen Dank für den Test.

Vor allem freu ich mich über das Austesten der SSAA-Skalierung, da es für mich ein immer interessanteres Thema wird :)

Mein Fazit, mit diesen Karten macht wohl so langsam auch das SLI mit Mid-Range-Graka's Sinn! Vor allem bei nVidia, da die großen Thermi-Ableger ja nahezu unbrauchbar sind, was Stromaufnahme, Temperatur und Preis / Leistung betrifft
Naja, die Preis/Leistung z.B. der GTX 470 oder 460 ist schon voll in Ordnung (besser als AMD im Moment), aber für 99% der Nutzer ist halt eine 470 im Referenzdesign völlig uninteressant, da kann die noch so billlig werden... die anderen Nachteile überwiegen den Preisvorteil.

Aber schön zu sehen, dass die SLI-Profile mal so richtig reinhauen :D und das Problem mit den Mikrorucklern schafft ja hoffentlich der Hydra-Chip in den nächsten Jahren aus der Welt.
 

Sentionline

Lt. Commander
Dabei seit
Mai 2006
Beiträge
1.184
Das gesammte Gesammtsystem frisst mit der Karte ca. 34W mehr als mit der in etwar gleich schnellen HD 5750 und schaut man sich die Verbrauchswerte der Grafikkarte bei ht4u an, dann zieht die GTS 450 ca. 30% mehr als ATIs Konkurrenz.
Das was die Karte weniger verbraucht, bietet sie auch weniger dem "Gamer". Wobei ein "Gamer" glaube ich kaum zu einer 5750 greift, geschweige denn zu einer CF Lösung. Da kann man die Extra Rechenleistung nichtmal nutzen um die Optik per PhysX oder 3DVision aufzuwerten whatever. Tesselation ist so ne Sache bei ATi und SSAA geht auch nicht unter DX9. Also wohin die Leistung stecken?

Überhaupt ging es um das Cuda Angebot, und das ist in manchen fällen doch brauchbar und gehört in die Liste "Nice to Have". Und wir haben uns wieder im Kreis gedreht. Viel "Nice 2 Have" hat ATi nicht.

Das was man bei ATi einspart (Preis / Leistungsaufnahme) hat man im Vergleich zu der Konkurrenz eingebüßt bzw. zurückgelassen. Im Zeitalter vieler Portierungen muss man mit "wegstecken" vorsichtig sein als Gamer.
 
Zuletzt bearbeitet:
W

wadenbeisser

Gast
@Sentionline
Du behauptest ernsthaft das die Karte für PhysX, 3DVision oder gar eine ausgiebige Tesselation potent genug ist, oder?
Die Karte wird praktisch durchgehend und meist deutlich von der schnelleren 5770 geschlagen (sogar bei den DX11 Tests), welche hier auch noch etwas weniger schluckt und lt. Preistabelle etwar gleich viel kostet.

Mach dich also nicht noch weiter lächerlich.....3D gibts auch für ATI und spätestens bei SSAA geht jeder dieser Karten bei halbwegs aktuellen Spielen die Puste aus. Wenn man mit sinnlos Spielefeatures für diese Klasse kommen will, dann kann man ATIs Eyefinity auch gleich mit in die Schale werfen aber zumindest kann man mit den Karten bis zu 3 Bildschirme betreiben.
 
Top