Bericht Bericht: Nvidia GeForce GTX 400

@Ashantor
Bedenke aber, dass die HD58x0 schon fast nen halbes Jahr auf dem Markt ist (September 2009). Da hatte nVidia genügend Anschauungsobjekte und Fermi ist schließlich in einer anderen Revision erschienen als ursprünglich geplant (A3 Revision). Wer weiß also, wie schnell Fermi gewesen wäre, wenn er ebenfalls vor einem halben Jahr heruasgekommen wäre. Unterm Strich bleibt aber festzuhalten, dass nVidia sich dieses mehr an Leistung nur durch eine sehr viel höhere Leistungsaufnahme erkaufen kann. Die Differenz steht in keinem Verhältnis zur gesteigerten Leistung! Da haben sie sich definitiv nicht mit Ruhm bekleckert!
 
cyrezz schrieb:
Das zeigt auch wieder, heutige DX11 Karten sind, sobald richtige DX11 Titel kommen, nicht schnell genug (besonders die HD5870 im Vergleich zur GTX480). Da warte ich definitiv auf die neue Generation mit dem Kauf.

Genau das ist das Problem.;)

Bad Company 2 + Dirt 2 mal ausgenommen.

AvP 2 spielte sich mit meiner vorherigen ATI HD 5850 @925Mhz Core / 2600Mhz Speicher teilweise mies unter Dx11 mit eingestellten 2AA / alles Max unter 1680x1050. ( Min Frames)

Ich daddel nicht unter 50 FPS...;-)


@cyrezz

Bin ganz Deiner Meinung.
 
Zuletzt bearbeitet:
Smulpa2k schrieb:
Man hätte auch ein wenig mehr auf die Treiber eingehen können, da scheint mir ATI noch _einiges_ an Nachholbedarf zu haben. Aber im Grunde genommen lohnt eine 480er nicht. Zumindest nicht wenn man keine Stromflatrate sein Eigen nennt. :O)

"Beweise"? :rolleyes:

Dr.Pawel schrieb:
[...], ATI wird sicher nicht still stehen und im Gegensatz zu Nvidia haben sie eine ausgereifte Architektur die sich sehr gut weiterentwickeln lässt, dass ist ja etwas was Nvidia seit jeher nicht so richtig schafft.....
AMD hat leider momentan gar keine "öffentliche" neue Architektur.
die HD5XXX basiert immernoch auf dem R600er Chip und selbst die angeblich im Herbst erscheinende Graka (Southern Islands) wird ein Mix aus HD5000(basiert R600) und dem im Januar erscheinenden Nothern Islands Chip zu sein.
Nothern Island wird eine "komplett" Neuentwicklung.
Es ist genauso wie es bei Nvidia ein Risiko war, auch für AMD ein Risiko. Der einzige Vorteil den sie haben ist, dass ihr Chefentwickler anscheinend keine Vorliebe für riesige Chips hat, wie es bei Nvidia der Fall war...
 
Sehr schöner Nachtest. Interessant finde ich den Stromverbrauch in Spielen. Auch die Tesslation Leistung der GTX ist beeindruckend, obwohl ich sagen muss dass Tesslation oft total überbläht ist und die Texturen einfach nur gestreckt werden. Sieht man besonders gut bei Metro2033. Außerdem hoffe ich das Ati noch ein bischen Tesslation-Leistung über die Treiber rauskitzelt. Der Heaven Benchmark sieht auch mit Normaler Tesslation sehr gut aus.
Ich hätte mir vonner Leistung her gerne eine bzw. zwei 480er geholt, weil die abgehen wie Sau, aber das wird mir zu teuer, zu laut, zu heiß , und der Sommer kommt erst noch. Ich Wette das die Teile dann throttlen ohne Ende oder gleich abrauchen.
Naja abwarten. Im Moment lohen sich die 400er nicht.
 
@Planet456235
Ich sehe das ja eher so. Ich kaufe mir doch keine Karte für 300€+ und lasse dann AF und AA aus. Selbst bei 2100x1313 (Downsampling) nutze ich eigentlich immer 2xAA und unter 16xAF geht auch nichts. Letzteres kostet eh nicht viel Leistung und ist immer an. Wenn ich mir jetzt also ne HD5870 kaufe, dann will ich auch diese Features nutzen, denn mich :kotz: diese Treppchen an, wenn ich ein Spiel spiele. Was anderes ist das im MP, da stelle ich nicht mehr als 2xAA an, da jedes FPS zählt. Aber ganz auf AA würde ich nicht verzichten, dann muss halt Downsampling herhalten wie bei GTA4.

Wer nen Lamborghini kauft, möchte auch nicht nur in der 30er Zone fahren. ;)
 
Zuletzt bearbeitet:
Off Topic aber laut Heise wird es bald eine GTX 460 geben.
 
CoffeeJunkie schrieb:
Außerdem zeigt sich ein Gefälle zwischen Benchmarks (Ok, Stone Giant ist ne Engine, mal sehen ob sie sich durchsetzt) und Spielen.

Dafür, dass Stone Giant so viele neue Features verwendet und ganz schön viel Performance braucht, finde ich die Demo optisch nicht besonders beeindruckend. Normalerweise sollten einen solche Demos so richtig aus den Socken hauen. Her ist das nicht passiert, was mich angeht.

milamber! schrieb:
Also ich jedenfalls nicht, und muß auch nochmal gucken, was mein Pentium Dual Core mehr schluckt, aufgrund der paar hundert MHz Takt.

Unbedingt! Mein Q6600 braucht mit eher moderater Vcore Erhöhung auf 3,3ghz gleich mal über 50% mehr Saft und mit dem Standardtakt und super stabilem Undervolting gleich nur mehr 60-70% vom normalem Wert. Ist schon gigantisch die Schwankungsbreite.

Martricks schrieb:
Sehr schöner Nachtest. Interessant finde ich den Stromverbrauch in Spielen. Auch die Tesslation Leistung der GTX ist beeindruckend, obwohl ich sagen muss dass Tesslation oft total überbläht ist und die Texturen einfach nur gestreckt werden.

Das ist ja klar und aktuell gehts eben nicht anders. Du kannst nur Texturen machen die entweder mit Tesselation oder ohne genau passen, nicht beides. T. wir ein Standardfeature werden, welches in (vermutlich) allen DX11 only Titeln verwendet wird und dann "klapps auch mim Nachbarn" ;-)
Wird zwar vermutlich noch eine Zeit lang dauern, aber kommen werden sie bestimmt in rauhen Mengen. Zuvor kann man Tesselation ja zusätzlich nützen, wo eben keine solchen Probleme auftauchen, wie in Dirt2. Geht aber sicher noch intensiver bzw. optisch wirksamer ohne auf die angesprochenen Probleme zu stoßen.


@ Topic

Interessant an dem Artikel finde ich auch die Tatsache, dass ATI mit einem übertakteten Refresh nicht punkten kann in DX11. Da würde die Leistung dennoch nicht reichen und der Stromverbrauch wäre viel zu hoch, wenn man näher ran kommen will. Das erklärt auch warum solche Karten nicht kommen werden und gerade alle Anstrengungen in Southern/Northern Island gesteckt werden.
 
Zuletzt bearbeitet:
JokerGermany schrieb:
AMD hat leider momentan gar keine "öffentliche" neue Architektur.
die HD5XXX basiert immernoch auf dem R600er Chip und selbst die angeblich im Herbst erscheinende Graka (Southern Islands) wird ein Mix aus HD5000(basiert R600) und dem im
Sprach auch keiner von "neu" - das interessiert wenig.
Er sprach von ausgereift und lässt sich gut weiter entwickeln. Das ist es was eine Architektur ausmacht. Diesen Beweis wird Fermi erst einmal antreten müssen in den kommenden Jahren angefangen mit dem GF104, während Ati dies schon eindrucksvoll bewiesen hat mit Evergreen die ja nun das Ende dieser Architektur-Phase einläuten.

Alleine die Tatsache dass so etwas wie Southern Island, also ein Mix aus zwei Architektur-Generationen, möglich ist spricht Bände und für einen wesentlich reibungsloseren Übergang vom alten ins neue.
Ergänzung ()

fxdev schrieb:
Off Topic aber laut Heise wird es bald eine GTX 460 geben.
Tja damit sind die Träume wohl ausgeträumt, dass ein GF104 Chip auf HD5850 Niveau sein wird. Da diese GTX460 langsamer als eine HD5850 sein wird kann der GF104 nur noch max. zwischen HD5770 und HD5850 platziert werden von Nvidia.
Na das wird ja lustig. Auf Preisniveau der HD5770 wird Nivida noch lange nichts anbieten auf diese Weise.

Na zumindest können sie einige ihrer beschädigten Karten dadurch in den Markt bringen und die Ausbeute etwas verbessern.
 
Die Leistungsaufnahme im Vergleich zur HD5870 hat mich immer noch irritiert, deshalb habe ich nochmal nachgeschlagen:

Im ursprünglichen Test findet sich:

Für einen einwandfreien Betrieb muss die GeForce GTX 480 mit einem Sechs-Pin- sowie einem Acht-Pin-Stromstecker verbunden werden, da ansonsten die maximalen 250 Watt (Angabe von Nvidia) nicht gewährleistet werden können.

Bei pcgh stehen auch 250Watt im Test. tomshardware schreibt

Nvidia gibt die TDP der Karte mit 250 Watt an und unterbietet die 300 Watt der Radeon HD 5970 deutlich, die ihrerseits nur knapp unter der 300-Watt-Marke der PCI-SIG liegt.


Jetzt schaue ich nochmal nach und finde

Maximaler Verbrauch: 320W

Beispiele: 1, 2, 3
So passt der Unterschied zur HD5870 auch besser (PCIe+6Pin+8Pin sollten doch nur (75+75+150) Watt haben, aber ich nehme an, da sind Toleranzen drin, die das ermöglichen).

Haben die nach der Veröffentlichung nochmal die Spezifikationen geändert? So erfüllt man erst mal die 300Watt PCIe-Auflage und viele potentielle Kunden bekommen die Änderung auch nicht mit. Saubere Leistung...
 
Complication schrieb:
Tja damit sind die Träume wohl ausgeträumt, dass ein GF104 Chip auf HD5850 Niveau sein wird. Da diese GTX460 langsamer als eine HD5850 sein wird kann der GF104 nur noch max. zwischen HD5770 und HD5850 platziert werden von Nvidia.

Tja, wie bei Heise steht werden die Shader auf 384 gekürzt und das Speicherinterface auf 256bit. Das wird gaaanz schön viel Strom sparen aber auch die Performanceleistung hart treffen. Wenn alles gut geht, gibts vielleicht einen Gegenspieler für die 5830. So richtig abschätzen wie schnell sie mit diesen Daten sein würde, traue ich mir auch nicht zu. Bin auf jeden Fall gespannt.


@ Killermuecke

Du hast recht. Ich hab letztens auch einen Test gelesen wo eindeutig stand, dass die GTX 480 die erlaubten PCI-E Spezifikationen sprengt. Die vorher veröffentlichte und angegebene TDP war schlicht "eine Lüge". Keine Ahnung was passiert wäre wenn sie die Tatsächlichen Daten vorher schon rausgerückt hätten. Der eine oder andere Industriepartner ist deswegen bestimmt auch sauer, es sei denn hinter vorgehaltener Hand wurden die richtigen Daten weitergegeben.


OFFTOPIC:
Yea, ich habe meinen 6000sten "Geburtstag" :-) Is das schön *g*
 
Zuletzt bearbeitet:
aber immerhin gibt es doch eine äussersst erstaunliche positive eingenschaft zu der 480 zu sagen, sie bricht im vergleich zu den ati karten bei hohen einlösungen und einstellungen (aa & af) endlich mal nicht brutal ein.
nur halt die nachteile, die die karte mitbringt... die machen es einfach nur kaputt
 
Hmm, wie soll es denn nach Fermi weitergehen? Als Einstieg in Tesselation ist sie ja zur Zeit von der Leistung her ausreichend, aber für die Zukunft wird es schwierig. Kleinere Strukturen schön und gut, der nächste Shrink würde die Karten aber doch wohl nur in "normale" Brereiche zurückführen (Leistungsaufnahme des Chips, Produktionskosten pro verkaufbaren Chip).

Das könnte ein Problem werden.


Grüße
 
Brotkruemel schrieb:
Wenn man bedenkt dass ein Arbeitgeber ab 80 dB[A] für Gehörschutz seiner Arbeitnehmer sorgen muss...mir wäre es zu laut. Die theoretische Mehrleistung der GTX 480 ist ja schon beeindruckend, aber in welchen Settings und unter welchen Voraussetzungen?!

Man sollte nie vergessen, dass wir die Lautstärke aus 15 cm Abstand messen. In der Praxis sitzt wohl keiner so nahe am Gehäuse :)

Über Rückmeldung zu dem Vorschlag/meinen Gedanken von Wolfgang (oder anderen am Enstehungsprozess der Graka-Artikel Beteiligten bzw. natürlich auch von Boardies) würde ich mich sehr freuen!
Generell ist da an der Sache sicherlich was dran. Stellt sich nur die Frage, wie dann zum Beispiel Crysis reagiert, wenn ich dem Prozessor neben dem Spiel auch noch Prime ode rKonsorten andrehen will? Nachher klaut Prime einen Großteil der Prozessorleistung, sodass Crysis nicht mehr am Limit rennt und dementsprechend auch nicht die Grafikkarte - sicherlich auch nicht optimal. Könnte ich mir so zumindest gut vorstellen.

Laut anderen Berichten ist die 480 in BC2 der 5870 zum Teil deutlich überlegen, warum ist das hier anders?
Ich kenne keinen anderen BF BC2 test, wo die GTX 400 besser als die HD 5800 ist außer bei der PCGH. Die Kollegen haben wahrscheinlich einfach eine Testszene erwischt, die der GTX 40o gut liegt. Zumal spielt sich die testszene der Kollegen im Schnee ab, was die GTX 400 generell lieber mag als die HD 5800. In allen anderen Szenarien ist die HD 5800 im Verhältnis deutlich besser.

Ich fände den Hinweis noch interessant, dass die GTX 480 in Dark Void mit PhysX high auch keine spielbaren Frameraten mehr liefern kann. Warum ist das nicht dabei? Würde auch die sinnhaftigkeit der Schnittstelle bzw. der Physikbibliothek zeigen.
In dem Abschnitt von Dark Void haben wir geschrieben, dass die Vollversdion auf der GTX 480 irgendwieso nicht starten wollte. Deswegen können wir das leider nicht testen.

In Battleforge passen die Verlaufsdiagramme überhaupt nicht zu den oben angegebenen Messwerten. Sieht für mich so aus, als wären das DX10 und das DX11 Diagramm vertauscht worden (In DX10 ist die GTX480 die langsamere Karte und unter DX11 die 5870)
Stimmt, ist korrigiert :)

Gerne. Für DirectX 11 bzw die Computer Shader gibt es einen Benchmark, ComputeMark. Ist im Grunde das gleiche wie der Unigine Heaven Benchmark, nur dass er nicht den theoretischen Tessellation Durchsatz testet, sondern den theoretischen Rechendurchsatz der Shader. Messungen zur diesbezüglichen Leistungsaufnahme wären ebenfalls interessant.
Das Ding skaliert derzeit wohl noch nicht mit en GTX 400 Karten, die da unterirdische Ergebnisse erreichen. Aber schauen wir mal, was die Zukunft bringt.

Was ich auch mal interessant fände (sofern es das nicht schon gegeben hat und ich es einfach verpasst habe) wenn ihr auch bei der 5870 mal testet ob eher der Speicher oder der Chiptakt die Leistung begrenzen.
Haben wir schon! Siehe hier: https://www.computerbase.de/2009-12/bericht-ati-radeon-hd-5000-weitere-details/

Mit welchem Bios wurde die 480er getestet?

Weil mit der finale Bios-Versionen soll die 480er in Spielen deutlich leiser werden (gemäss PCGH)
PCGH schreibt: Auch bei der Lautheit gibt es deutliche Änderungen durch das neue BIOS. Eine Geforce GTX 480 wird in 3D-Spielen "nur" noch rund 5 Sone laut (vorher: 6,9 Sone)
Das ist mittlerweile das finale BIOS. Das hat bei uns aber nicht wirklich etwas geändert.

Es haben schon einige gesagt:
Bei Just Cause scheint die 285 nicht im ersten Graph auf.
Bei Battleforge habt ihr die beiden Graphen glaube ich vertauscht.
In AvP gibt es ein Diagramm zu wenig.
In Just Cause verzichten wir aus Gründen der Übersicht auf die GTX 285. In AvP haben wir irgendwie die dazu notwenigen messwerte vergessen...

wie wurde denn das BF: Bad Company 2 Benchmark gemacht?
Das ist die dritte Mission des Einzelspielermodus. Einfach 60 Sekunden entsprechend den Weg laufen.
 
Wolfgang schrieb:
Ich kenne keinen anderen BF BC2 test, wo die GTX 400 besser als die HD 5800 ist außer bei der PCGH. Die Kollegen haben wahrscheinlich einfach eine Testszene erwischt, die der GTX 40o gut liegt.

In dem Abschnitt von Dark Void haben wir geschrieben, dass die Vollversdion auf der GTX 480 irgendwieso nicht starten wollte. Deswegen können wir das leider nicht testen.

Bei BFBC2 könnte die geringere Texturleistung der GTX den Unterschied im Schnee ausmachen. Vermutlich werden hier weniger aufwändige Texturen verwendet, wenn alles ähnlich weiß ist.

Die Dark Void Demo unterstützt nur PhysX low? Ist das so? Die Info hatte ich bisher nicht, würde aber alles erklären.

(Bzgl. BFBC2)
Wolfgang schrieb:
Das ist die dritte Mission des Einzelspielermodus. Einfach 60 Sekunden entsprechend den Weg laufen.

Kannst du etwas darüber sagen, wie sich die Frameraten der Karten verhalten wenn etwas mehr Dynamik im Spiel ist? Also allerlei Effekte wie Rauch, Explosion usw.

@ reallife-runner

Ich könnte momentan nicht sagen wie sich die Leistungsaufnahme ändern würde wen der GF100 von 40nm auf 28nm geshrinkt wird. Denke aber, dass wir schon davon ausgehen können, dass weiter optimiert wird. In wieweit der Chip auch noch ausgebaut wird steht natürlich auch noch in den Sternen. Ist noch etwas zu früh um das Thema ohne jegliche Daten zu diskutieren.
 
Zuletzt bearbeitet:
70db sind schon heftig... genau das gleiche wie leerlauf der düsentriebwerke. ohne WaKü lohnt sich die karte auf jeden fall nicht.
Vorallem der Stromverbrauch. wäre diewer bei den idylischen150w im leerlauf könnte man ja noch im Performance mode den stromverbrauch ja verkraften!
 
. In der höchstmöglichen Einstellung geht der Radeon HD 5870 zudem vollends der Speicher aus – dort sind 1.024 MB zu wenig.

Ehrlich gesagt hab ich mich schon auf eine Runde Meckern eingestellt, als ich den Test gesehen hab. Ich dachte man schiebt alles auf die Tessellation und vergisst den Vram Vorteil der GTX Serie, aber nein es kam alles ganz anders. CB hat mal wieder überrascht und das richtige Fazit gezogen. Perfekte Arbeit, perfekter Artikel Wolfgang weiter so.

CB hat zwar nicht das beste Messequipment, aber die Fazits bzw. die Rückschlüsse der Messergebnisse sind einer der besten im Netz. War schon immer so und wird auch hoffentlich immer so bleiben. :schluck:

MfG Kasmo

Edit:
Wer Wünsche für weitere zukünftige Tests hat, kann diese gerne im Forum mitteilen.
Wenn ihr eine Karte bekommt, testet HD 5870 OC 2GB v. GTX 480 OC, dann wird die ATI bei 4x und vorallem 8x MSAA + DX11 nicht mehr so stark einbrechen, in Metro 2033 zb. 2560x1600 8xAA/16xAF könnte sogar dann die GTX 480 geschlagen werden, denn wenn man mit 1900*1200 schon weit über 1GB läuft, dann müssten sogar die 1,5GB hier überlaufen.

Vorallem in Alien vs. Predator 2(bitte mit 2GB Karten gegentesten) verliert die Radeon 400% von 1xAA auf 4xAA, das kann doch blos der Vram sein, das gibts doch gar nicht?
 
Zuletzt bearbeitet:
Der bericht überzeugt mich zwar nicht eine nvidia zu kaufen, da die nachteile noch immer überwiegen , aber er zeigt schön das das design wohl potenzial hat. Jetzt bleibt abzuwarten, was nvidai damit bei der nächsten gen rausholen kann !
SEhr ausführlich und interessant zu lesender artikel :daumen:

Ich hoffe ihr habt in AvP eine szene genommen in der aliens vorkommen da ja nur diese "getesselt :D " werden.

Mfg
V
 
"ist das Kapitel GeForce GTX 400 für uns aber noch längst nicht abgehakt."

dann sollte noch der Test kommen, wie sich die GTX480 im PC verhält wenn 1-2 Gehäuselüfter installiert werden und es sommerliche Temperaturen hat. Aktuell habe ich 22,3 Grad C Heizung ist aus, Südseite, alte Jugendstilvilla, sehr große ältere Fenster. Im Sommer wirds deutlich wärmer unterm Dach gehts stets in Richtung 30 Grad. Ihr könnt auch gern bei mir testen.
 
cem28 schrieb:
Klar doch aufm Zettel....!!! Einigermaßen verfügbar ist sie wohl erst seit knapp einem Monat
Aber nicht schlecht wenn sie in diesem angeblichen 1 Monat 6 Millionen Karten verkauft haben
http://www.xbitlabs.com/news/video/...t_20_30_Further_Delays_Possible_Analysts.html
Recently ATI already announced that it had shipped over six milion DirectX 11 graphics processors since late September, meanwhile, according to Rajvindra Gill, Nvidia has supplied less than ten thousand of its GF100 chips.
 
Kasmopaya schrieb:
Vorallem in Alien vs. Predator 2(bitte mit 2GB Karten gegentesten) verliert die Radeon 400% von 1xAA auf 4xAA, das kann doch blos der Vram sein, das gibts doch gar nicht?

Ich hab mir so ziemlich alle 5870 E6 2GB reviews angesehen und man muss wirklich mit der Lupe suchen um das eine oder andere Resultat zu finden wo der Vram was bringt. Also darf man sich wirklich nicht zu viel erhoffen. Zu 95% bringts nix würde ich sagen, auch bei hohen Auflösungen. Ausnahmen bestätigen die Regel, aber diese sind eben extrem selten. Werde jetzt keine Benches verlinken, da ich keinen Sinn darin sehe die heraus zu picken aber bei Metro, Crysis und Bioshock gabs schon Unterschiede. Alles in ultra high res (2560) und die ersten beiden ohnehin nicht gut spielbar bei diesen Framerates.
 
Zurück
Oben