Bericht Bericht: Nvidia GeForce GTX 400

Was ich an dem Artikel komisch finde, ist folgendes:

"Da hier keine Tessellation genutzt wird, hat es die Radeon HD 5870 leichter, und kann schlussendlich sogar die Führung in dem Spiel übernehmen."

Dieser Satz findet sich schon bei Bad Company 2 und das ohne, dass es bisher Eindeutige Ergebnisse zu Tesselation im Artikel gegeben hätte. Liest sicher mehr als komisch, da hier schon alles klar zu sein scheint.

Komische Resultate:

5870 bracht in Unigine ca. 70W weniger als in manchen Spielen??

Die 480 braucht bis zu 170W mehr als eine 5870!?


Bei dem DX11 Feature Test sieht man wirklich mal wie extrem unterschiedlich die Architekturen mittlerweise sind. Überrascht eigentlich, dass diese Unterschiede in Spielen nicht so wirklich raus kommen.
 
Zuletzt bearbeitet:
Also in Anbetracht der Leistungsaufnahme>Abwärme>Lautstärke beeindruckt die GTX480 damit auch weiterhin nicht wirklich, außerdem ist der Marktpreis aktuell auch höher als bei ATi, wenn man denn eine GTX480 bekommen sollte. Die Tesselationleistung ist ganz klar positiv zu sehen, reißt aber auch nicht in jedem Fall Bäume aus.
Zugegeben, alleine schon wegen des HD-Tons kommt für mich eh eher eine Radeon 5K in Frage und eine 58x0 lohnt sich in meinem Fall auch nicht wirklich, aber auch ganz objektiv betrachtet zeigt dieser Test wie vorangegangene, dass die GTX 4x0 zwar nicht unbedingt ein Reinfall aber auch ganz gewiss nicht der große Knaller ist.
 
THX - so ein Artikel ist im Zuge einer neuen Architektur wirklich interessant.

Wolfgang schrieb:
[...]Wie bei der Radeon-HD-5000-Serie ist das Kapitel GeForce GTX 400 für uns aber noch längst nicht abgehakt. Wer Wünsche für weitere zukünftige Tests hat, kann diese gerne im Forum mitteilen.

Ich hätte mal einen Vorschlag zu den Stromverbrauchsmessungen:
Testet man zwei verschieden schnelle Karten hat die CPU einmal mehr, einmal weniger zu tun - sofern die Graka limitiert. Dementsprechend trägt die CPU auch verschieden stark zur Gesamtleistungsaufnahme des Systems da. Folglich stehen leistungsstarke, stromhungrige Karten doppelt schlecht da - einmal weil sie selbst viel Strom brauchen, einmal weil sie auf Grund ihrer Performance auch die CPU fordern.

Macht man jetzt einen Stromverbrauchstest wie ihr hier auf CB und misst dabei die Leistungsaufnahme des Gesamtsystems, ist zwar für die Praxis relevant - auf der Stromrechnung landet schließlich ja auch die Leistungsaufnahme aller Komponenten; aus "wissenschaftlicher" Sicht ist so ein Vergleich jedoch "unfair" - eine Graka, die bei selber Leistungsaufnahme die doppelte Performance aufweist, würde im Stromverbrauchsrating schlechter abschneiden... obwohl die Karte auch nicht wirklich daran schuld ist...

Mein Vorschlag wäre, für alle Karten selbe Bedingungen zu schaffen; zwar kann man die CPU-Last nicht alle auf niedrigem, gleichen Niveau halten - aber man könnte sie mit einem anderen Programm im Hintergrund (z. Beispiel Prime95 mit niedriger Prozesspriorität) auf 100 % bringen - egal ob die Karte jetzt schnell oder langsam ist.
Natürlich könnte so ein Test den bisherigen nicht ersetzen - schließlich spiegelt das nicht die Alltagssituation wieder. Wenn jedoch Tests wie in diesem Artikel beschrieben - also in verschiedenen Spielen - und nicht in 3DMark - gemacht werden, dann vielleicht schon...

Ähnlich ist es bei Messung der Leistungsaufnahme eher "unfair", dass Karten, die eine Last am NT produzieren, die in einem Bereich liegt, in der das NT verhältnismäßig ineffizient ist, schlecht wegkommen - aber das ist eine andere Geschichte.

Über Rückmeldung zu dem Vorschlag/meinen Gedanken von Wolfgang (oder anderen am Enstehungsprozess der Graka-Artikel Beteiligten bzw. natürlich auch von Boardies) würde ich mich sehr freuen!

Gruß,
Lord Sethur
 
Zuletzt bearbeitet: (Zitat eingefügt)
DvP schrieb:
Was ich an dem Artikel komisch finde, ist folgendes:

"Da hier keine Tessellation genutzt wird, hat es die Radeon HD 5870 leichter, und kann schlussendlich sogar die Führung in dem Spiel übernehmen."

Dieser Satz findet sich schon bei Bad Company 2 und das ohne, dass es bisher Eindeutige Ergebnisse zu Tesselation im Artikel gegeben hätte. Liest sicher mehr als komisch, da hier schon alles klar zu sein scheint.

wo keine tesselation ist, haben beide karten den gleichen rechenaufwand ...

aus diesem grunde macht der satz einfach hinten und vorne keinen sinn ... :freaky:
 
Laut anderen Berichten ist die 480 in BC2 der 5870 zum Teil deutlich überlegen, warum ist das hier anders?

PCGH

Ansonsten sehr schöner Bericht.
 
@Timeless

Bei Anandtech ist die 5870 auch üblicherweise vorne, scheint eher Szenenspezifisch zu sein

Click me
 
Bezüglich der Lautstärkemessung sollte man dazu die db Skala erklären!!

Die GTX 480 ist mehr als doppelt so laut. Krass, oder?


@ PhysX

Ich fände den Hinweis noch interessant, dass die GTX 480 in Dark Void mit PhysX high auch keine spielbaren Frameraten mehr liefern kann. Warum ist das nicht dabei? Würde auch die sinnhaftigkeit der Schnittstelle bzw. der Physikbibliothek zeigen.


@ Eisenfaust unter mir

Ich hätte auch gern ein paar OpenCL Benches gesehen. Ob es für DirectCompute schon welche gibt, weiß ich nicht.
 
Zuletzt bearbeitet:
Schicker Test. In 6 Monaten, wenn Software der Eigenschaften des 'Fermi' bewusst sein wird, kann nVidia mit der GF100 Chipgeneration vielleicht Boecke schiessen. Im Moment aber erscheint mir das Plus an Leistung in Relation zur akustischen Verschmutzung sowie des hohen Enegrieverbrauches den Aufpreis zur HD5870 nicht wert. Zudem ist fuer mich die GPGPU-Faehigkeit der Graphikkarte wichtig. Schade, dasss solche Tests hinsichtlich der OpenCL-Leistung (noch) nicht gemacht werden. nVidia hat die Konsumenten-Fermi bekanntlich um ihrer DP-Einheiten beraubt, so dass lediglich 25% der moeglichen doppelt genauen Fliesskommazahlleistung verbleibt. Eine AMD/ATi der 58XX-Serie kennt eine solche Limitation nicht und koennte potentiell schneller und damit attraktiver sein. Man ueberlege sich: nVidia verdient das meiste Geld ueber hochpreisige Tesla-Karten/Cluster. Wuerde man per Benchmark/Test verdeutlichen, dass AMD/ATi mit der HD58XX selbiges mit weniger Energie und Pekunia erreichen kann (Tesla Karten sind unverschaemt teuer!), wuerde sich so mancher wohl dann fuer eine AMD Karte entscheiden.
 
Also ich seh sie in allen 3 "average Framerates" Tests vorne, nur im "minimum Framerates" Test (ganz unten) liegt sie hinten.

Hab auch "üblicherweise gesagt.

Weiß nicht, wo genau dein Problem liegt.
 
DvP schrieb:
Bezüglich der Lautstärkemessung sollte man dazu die db Skala erklären!!

Die GTX 480 ist mehr als doppelt so laut. Krass, oder?[...]

Doppelt so laut - schon, aber das hört sich nicht unbedingt doppelt so laut an... Wer versucht, sich ein Bild davon zu machen, wie laut das ungefähr ist, der sollte auf Wikipedia den Artikel über db nach lesen - da gibts "Vergleichstabellen" - dann hat man einen guten Anhaltspunkt.

Gruß,
Lord Sethur
 
Danke - toller Test und hierbei zeigt sich nun wo die stärken der GF100 Gen sind ;)
 
Schöner Artikel, aber mir ist ein Fehler aufgefallen:
In Battleforge passen die Verlaufsdiagramme überhaupt nicht zu den oben angegebenen Messwerten. Sieht für mich so aus, als wären das DX10 und das DX11 Diagramm vertauscht worden (In DX10 ist die GTX480 die langsamere Karte und unter DX11 die 5870) ;)
 
Lord Sethur schrieb:
Doppelt so laut - schon, aber das hört sich nicht unbedingt doppelt so laut an...

Wenn etwas doppelt so laut ist, ist das in dem Fall ein psychoakustischer Begriff. Ich habe es ja auch zu den Messwerten so ins Verhältnis gesetzt. Also hört sich etwas mit doppelter Lautstärke auch doppelt so laut an. Ein Anstieg von 10db sollte in so ziemlich jedem Frequenzbereich einer Verdoppelung des bewerteten Schalldruckpegels darstellen.

http://www.mediaspro.de/default.php?page=pow2vol
"ACHTUNG: Die Verdopplung der Lautstärkeeindrucks erfordert eine Erhöhung um rund 10 dB, also der zehnfachen (!!) Leistung."

http://www.sengpielaudio.com/Rechner-pegelaenderung.htm
"Eine Verdopplung der Lautstärke (Lautheit) soll bei der Pegeländerung von 10 dB empfunden werden."

Deckt sich auch ziemlich perfekt mit der Skala bei wikipedia im bereich von 50-60db:
http://de.wikipedia.org/wiki/Sone

http://www.bittner-audio.com/default.php?page=pow2vol&l=de
"Das bedeutet, erst eine Erhöhung der Lautstärke um rund 10 dB(A) führt zu einer Verdoppelung des Lautstärkeeindrucks,..."

http://www.elektronik-kompendium.de/sites/grd/1010171.htm
"Doch erst ab 10 dB empfindet der Mensch die Erhöhung um eine Lautstärkeverdoppelung."

Ok? Also glaubst dus mir jetzt ;-) Ist eben so ne Faustregel, vielleicht sinds manchmal 9db manchmal aber auch 11db weils ja auch von der Frequenz und dem "Aufbau" des Geräuschs abhängt.
 
Zuletzt bearbeitet:
Tek schrieb:
Danke - toller Test und hierbei zeigt sich nun wo die stärken der GF100 Gen sind ;)

Ist aber eher unwichtig für die Kaufentscheidung, da Nvidia und AMD sich momentan regelrecht die neuen Graka Generationen um die Ohren hauen.
Interessant wäre es, wenn Nvidia/AMD wie bei der 8800 die Nase vorn haben und sich nicht anstrengen brauchen.
 
ach wie ich das immer wieder liebe :D

Also, für alle die wieder mit "ich weiß was über geräusche" kommen wiederhole ich mich jetzt bestimmt das 5. mal in der hoffnung das es irgendwann mal ankommt :

Also, hier ist in der Tabelle nur von dB die rede. Also kann ohne die A gewichtung der Narrowband-Kurve nicht von empfundener Lautstärke gesprochen werden.
Ausserdem weiß ich nicht warum sich dieser blödsinn mit den 10dB so hartnäckig hält.
Alle 3dB verdoppelt sich die Schallleistung. Alle 6dB verdoppelt sich der Schalldruck. Die A gewichtung der Messkurve zeigt angenähert die empfundene "Lautstärke"
Also, 6dB mehr bei A gewichtung wird als doppelt so laut empfunden und gleicht einer 4fachen Schallleistung.

Und nebenbei, Wiki ist auch nicht immer ganz korrekt und ausfühlich genug ;)
 
Wolfgang Andermahr schrieb:
Den einzig großen Unterschied messen wir in Unigine Heaven 2.0 in der Extrem-Einstellung. Denn dort rackert die GeForce GTX 480 mit 421 Watt nicht viel Stromsparender als gewöhnlich, während die Radeon HD 5870 mit 248 Watt eine um einiges geringere Leistungsaufnahme als normal aufweist.

Kann es sein das bei Heaven Benchmark ein Fehler drin ist ?

Ich hab es auch festgestellt wenn ich den DirectX-11-Features Tessellation hochregel geht meine Cpu-Temperatur um 10 C° runter, müsste sie nicht eigenlich steigen ?
 
Wenn Tessellation bremst/limitiert, ist der restliche Chip weniger ausgelastet, ergo sinkt die Leistungsaufnahme. Wäre eine Erklärung.
 
Was aber gar nicht geh ist hohe Leitungsaufnahme von ca. 460 W unter Last ... ich habe doch kein Atomkraftwerk im Keller. Mein der Zeitiges Netzteil würde noch nicht mal nur die GF480 antrieben.

Naja sei zu hoffen das die Mittelklassen Karten keine so hohen Leistungsaufnahmen haben...
Ja gut die 5870 ist nicht viel besser mit ca. 320 W aber noch im Rahmen .

Ansonsten guter Test würde aber mir sicherlich noch keine neu Karte zulegen.
 
Zurück
Oben