Bericht Bericht: Nvidia GeForce GTX 400

y33H@ schrieb:
@ GreatEvil

Wasser + 1,125V

Ahso, jetzt ists auf einmal mit Wakue. Komisch das diese Info komplett gefehlt hat... Einfach mal das System aendern damit man mit Werten protzen kann.
Was sich wohl noch alles aendert wenn man noch ein paar mal nachfragt?
 
Danke für die Antwort...hauptsache der Verbrauch sinkt zumindest etwas.
Weniger Strom ist zwar sicherlich besser, aber zumindest kann man sie überhaupt undervolten...ist ja glaub ich auch keine Selbstverständlichkeit.
Mfg:)
 
@ GreatEvil

Auf einmal und ändert sich? Nein. Hast du kritisch gefragt? Nein, es wurde nur gebasht. Selbst schuld - zudem ging es in erster Linie um die 370W und nicht um das OC bei dem Post - daher habe ich es nicht näher benannt. Mein Fehler.

@ Complication
Im Mittel haben wir ein Fps-Plus von 143,3% und ein Watt-Plus von 49,6%. Lässt man Metro weg, sind es +30% Fps und +51% mehr Watt. Sooo übel wie gerne propagiert sieht es ergo dann doch nicht aus - sparsam ist aber klar was anderes.
Idle ist indiskutabel. 50W zu ~20W ist mies. Punkt. Seitenhieb: Immer noch besser als die 60W einer HD4870/4890 *SCNR*
 
Zuletzt bearbeitet:
oh man - so ein Blödsinn ist schwer zu ertragen - bin dann raus :rolleyes:
Viel Spaß bei dem Milchmädchen.

143% FPS Plus im Mittel - also die GTX ist über doppelt so schnell - klar doch. :freak:
 
Klar doch - der Radeon geht der VRAM aus [Settings stehen ja in Klammern]. Daher habe ich ja die Rechnung noch mal ohne Metro gemacht :rolleyes:
Lässt man Metro weg, sind es +30% Fps und +51% mehr Watt. Sooo übel wie gerne propagiert sieht es ergo dann doch nicht aus - sparsam ist aber klar was anderes.

@ JokerGermany

Immer? :lol: Viel Spaß beim belegen dieser Behauptung. Könnt ihr/du auch mal was posten, was argumentativ mit Fakten belegt wird, statt solche Behauptungen samt unterschwelliger persönlicher Anfeindung? Wäre mal ein Schritt in die richtige Richtung.
 
@JokerGermany
Wer nicht fragt ist selber Schuld. ;)

@Complication
Jetzt benimmst du dich aber wie ein kleines Kind. Du weist du ganz genau, wie das von y33H@ gemeint ist udn es nur ein Schreibfehler war.
 
Wenn ich das richtig gelesen hab, war das nicht mal ein Schreibfehler, sondern schlicht der Tatsache geschuldet, dass alle Games die in dem gewählten Szenario Verwendung fanden 1:1 berücksichtigt wurden. Da bei Metro( durch VRam) ein + von über 500% steht, ist die Rechnung wahrscheinlich korrekt (hab nicht nachgerechnet).
Das dieser Wert nicht für andere Szenarien gilt, sollte wohl klar sein. Ich glaube es sollte damit nur gezeigt werden, dass man alles so rechnen kann, wie man will, wenn man nur genug verbiegt.
Mfg:)
 
ICh habe, dass so verstanden, dass er die Werte unter DX 11 von CB genommen hat und die HD5870 als Referenz.
Die GTX480 hat im dem Fall 143% der Leistung der HD5870.

edit:
Gut er hat Metro bei 4MSAA mit eingerechnet.
 
Zuletzt bearbeitet:
@CB warum habt iht nicht einfach ein Fps/Watt Test gemacht - dann hätten wir diese blöde Diskussion nett. Mich würde mal wirklich interessieren wieviel Fps/Watt die GTX470/480 in DX11 wirklich hat ohne jetzt auf NV-Diagramme schauen zu müssen.
 
@ Airbag

Ich bin davon ausgegangen, dass CB die Leistungsaufnahme in 1920 (ist ja angeben) mit dem jeweils maximalen Setting vermessen hat - leider steht das nicht dabei (ich frag mal Wolle). Und in Metro @ DX11 samt HWT, DoF und 4x MSAA/16:1 AF ist die GTX480 halt 595% vorne. Daher habe ich ja noch mal ohne Metro gerechnet.
 
ein guter test)

jedoch würde ich eine gtx480 nicht kaufen und hoffe daher dass bald die preise für eine hd5870 sinken werden...
 
@Airbag
Da steht die GTX wäre im Mittel 143% schneller - das hat weder eine Einschränkung noch sonstwas als Bedingung stehen.

Die GTX ist aber im Mittel ca. 18% schneller und braucht 50% Mehr Strom unter Last und über 100% mehr im Idle.

Das kann man nicht einfach mal schnell weg rechnen mit einem 500% Aussreiser in einem Spiel der beim nächsten Treiber-Update wahrscheinlich gar nicht mehr existiert.
 
Complication schrieb:
Da steht die GTX wäre im Mittel 143% schneller - das hat weder eine Einschränkung noch sonstwas als Bedingung stehen.
Du kannst schon lesen oder? Ich habe die Spiele, die Settings, den Fps-Unterschied und die Watt-Differenz eindeutig benannt - hier hast du die Einschränkung und Bedingungen erneut:
y33H@ schrieb:
In Metro verbrät die GTX480 etwa 44% mehr, ist mit dem Setting (1920 @ DX11 maxed out mit 4x MSAA?) aber auch 595% schneller. In Stalker CoP (1920 @ DX11 maxed out mit 4x MSAA?) sind es +41% Fps und ebenfalls +41% an Watt. In Anno ist die 480 nur 9% schneller [1920 @ 4x/16:1], schluckt aber satte 45% mehr. Und in Warhead? 48% mehr Watt, aber 1% langsamer [1920 @ 4x/16:1]. Und in der Ungine zieht sie 70% mehr und ist bis zu 73% schneller.

Im Mittel haben wir ein Fps-Plus von 143,3% und ein Watt-Plus von 49,6%. Lässt man Metro weg, sind es +30% Fps und +51% mehr Watt. Sooo übel wie gerne propagiert sieht es ergo dann doch nicht aus - sparsam ist aber klar was anderes.
Complication schrieb:
Die GTX ist aber im Mittel ca. 18% schneller und braucht 50% Mehr Strom unter Last und über 100% mehr im Idle.
Du stellt den das Fps-Plus aus x Spielen der Leistungsaufnahme aus genau einem Spiel gegenüber. Das geht nicht, das verzerrt. Wenn, dann mache es wie ich es gemacht habe: Fps und Watt aus dem gleichen Spiel vergleichen - aber nicht lustig mischen :rolleyes:

Oder benchst du eine Dualcore- und eine Hexacore-CPU mit einem Spiel, welches nur zwei Kerne auslastet und nimmt Core Damage zur Leistungsaufnahme-Messung? Wohl kaum.
 
Zuletzt bearbeitet:
@Complication
Sie ist im Mittel auch so viel schneller, wenn man, wie geschehen, diese Spiele 1:1 einbezieht.

Kann jetzt sein, dass ich mich irre, aber seit wann kann man mit einem Treiber bewirken, dass der VRam größer wird?

Mfg:)
 
Das Mittel deiner Rosinen vielleicht - wie kann man das ein Mittel nennen?
Da ist ja schon die Bezeichnung "Mittel" eine Lüge.

Schau dir mal diese Werte an und mach ein Mittel daraus wenn du so schwer von Begriff bist
Oder soll ich mal nur die raus picken wo die GTX480 langsamer ist? Kommen bestimmt auch 4-6 Schöne Werte raus wo ich ein Mittel von -20% hinbekomme:
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_12.html

30_480vs587_big.png
 
y33H@ schrieb:
Das kann man nicht einfach mal schnell weg rechnen mit einem 500% Aussreiser in einem Spiel der beim nächsten Treiber-Update wahrscheinlich gar nicht mehr existiert.
Wenn's am Treiber liegt, warum ist dann die 2G-Version der HD5870 signifikant schneller? Muss ja ein ganz übler Bug sein. Der würde auch erklären, warum Metro 2003 seit über einen Monat auf dem Markt ist und AMD den angeblichen Bug noch nicht gefixt hat :lol: Ich melde mich bei 10.4 wieder zu dem Thema.


EDIT
Was haben die Xbitlabs-Werte mit den Vergleichen der CB-Messungen von Fps und Watt im gleichen Spiel zu tun? Nichts.
 
Na wenn es das VRAM ist kannst du auch sicher erklären warum Metro unter DX10 gleich schnell ist auf beiden Karten. Siehe mein letzter Post.
 
Ich bin nicht vom Fach, aber ich könnte mir vorstellen, dass das damit zu tun hat, dass sie in DX10 weniger Daten einlagern muss...wäre zumindest logisch.

Übrigens kommt dir dieses Zitat bekannt vor?

Nicht Sieg sollte der Sinn der Diskussion sein, sondern Gewinn. - Joseph Joubert

Welchen Gewinn ziehst du aus dieser Diskussion...du versuchst nur den anderen (mit mäßigem Erfolg) argumentativ zu besiegen, aber das ist Off Topic^^

Mfg:)
 
@ Complication
Na wenn es das VRAM ist kannst du auch sicher erklären warum Metro unter DX10 gleich schnell ist auf beiden Karten.
Bei Xbitlabs steht da "AA off". Und bei 4x/8x MSAA gibts keine Metro-Werte. Ergo kein Vergleich zu den CB-Werten, die übrigens von PCGH bestätigt werden. Damit wäre das geklärt.

Die Kombination aus 4x MSAA, Tessellation und DoF bricht der 1G-Radeon das Genick. Und da die 2G-Version nicht einbricht, ist die VRAM-Theorie imo deutlich realistischer als ein Treiber-Bug.
 
Zurück
Oben