News GeForce GTX 980/970: 8K, 144 Hz und weitere Analysen

Elite_Warrior schrieb:
@ Numrollen:

ArmA 3 Ultra einstellung und hohe Sichtweite fressen ca 2,8-3gb Vram. Auflösung 1920x1200.
Je nach Situation von Rockstable 60Fps bis 30Fps. Das Problem bei Arma ist dass der Code nicht wirklich effizient arbeitet. Wenn man einen ausgelasteten Server erwischt spiegeln die Frames beim Client wieder :freak: obwohl man 60Fps stemmen könnte, bekommt man nur die Hälfte der Frames. Blöderweise lebt Arma vom Multiplayer.

Graka 970GTX, Cpu 4790k.

Ja alles bekannt. Aber seit wann bencht man Spiele im Multiplayer? Das Game selbst ist nicht so schlecht programmiert, nur die Server zu Clientbindung zusammen mit KI und Objekten ist beschissen und das seit OFP. Gibt wenig Spiele die 12km "echt unverfälschte" Sichtweite möglich machen, im Singleplayer ist das auch möglich selbst mit meinem PC und ich bin keiner der sich jedes Jahr ne neue Grafikkarte holen muss um cool zu sein. Ganz zu schweigen von diesen utopischen Preisen was viele gar nicht stört. Meine 3GB vRam sind ruckzuck voll ohne Ultraeinstellungen, ich würde gerne mal wissen wie sich das auf FPS und Spielfluss auswirkt. Nachladeruckler? FPS Schwankungen? Hab schon gelesen das die Sapphire Vapor-X Radeon R9 290X Tri-X OC, 8GB GDDR5 aktuell immernoch die beste Karte für Arma3 sein soll. Aber Schwarz auf Weiß hätte ich gerne mehrere Quellen als Beweis.
 
Zuletzt bearbeitet:
Schade CB,
noch immer keine praxis Tests von euch in Adobe AE, AME, P, Arhicah, Autocad, Cinema 4D usw.

mit OpenCL, CUDA, GTX 470, 480, 560ti, 580, 660, 670, 680, 760, 770, 780, 970, 980 usw. AMD 7950, 7870, R9 280X, 290, 290X - Highend von 2010 bis 2015.

So ein Test wäre traumhaft und schön.

Hauptsache das es ein haufen von gaming benchmarks und 8K und 144Hz tests (sehr nützlich heutzutage) für Kinder gibt.
Das machen auch ale anderen 100 HW Seiten rund um die Welt.

Langsam wird CB langweilig...
 
Zuletzt bearbeitet:
Dein Avatar passt.. Hate is over 9000!
 
m0LN4r schrieb:
Schade CB,
noch immer keine praxis Tests von euch in Adobe AE, AME, P, Arhicah, Autocad, Cinema 4D usw.

mit OpenCL, CUDA, GTX 470, 480, 560ti, 580, 660, 670, 680, 760, 770, 780, 970, 980 usw. AMD 7950, 7870, R9 280X, 290, 290X - Highend von 2010 bis 2015.

So ein Test wäre traumhaft und schön.

Hauptsache das es ein haufen von gaming benchmarks und 8K und 144Hz tests (sehr nützlich heutzutage) für Kinder gibt.
Das machen auch ale anderen 100 HW Seiten rund um die Welt.

Langsam wird CB langweilig...

Was noch schön, allerdings unwahrscheinlich ist, wäre ein Durchlauf einer Testscene mit der Octane Render Demo?
Am besten jeweils im Doppelpack der beiden Karten. :freaky:
Hab nämlich irgendwo gelesen, dass es dort nicht so gut assieht.
 
Zuletzt bearbeitet:
Thema Stromverbrauch 120 vs. 144 Hz in Abhängigkeit von der Schnittstelle:

Die in der Meldung erwähnten Messungen wurden über DisplayPort durchgeführt. Die beiden einzigen 144-Hz-Monitore in der Redaktion verfügen nur über diese Schnittstelle. Wir haben versucht, die Monitore auch über den DVI- und den HDMI-Ausgang der Grafikkarte anzusteuern, die dafür eingesetzten "Adapterketten" verrichten ihren Dienst allerdings nicht - der Monitor bleibt schwarz.

Wir bleiben an diesem Thema aber dran.
 
Danke für die Rückmeldung & mangels Schnittstellen kann ich das leider auch nicht testen, aber schön, daß ihr an dem Thema "dran bleibt" ... :)
 
Was noch schön, allerdings unwahrscheinlich ist, wäre ein Durchlauf einer Testscene mit der Octane Render Demo?
Am besten jeweils im Doppelpack der beiden Karten.
Hab nämlich irgendwo gelesen, dass es dort nicht so gut assieht.

Kommt. SLI wird allerdings nicht unterstützt.
Ergänzung ()

Kurzer Test mit Octane Render 2.06: Referenzmodell GeForce GTX 980 vs. Referenzmodell GeForce GTX 780 Ti.

Die Testszene Spaceships rendert die 780 Ti in 12:48 Minuten, die 980 in 19:48 Minuten - also in der Tat deutlich langsamer. Treiber bei beiden GeForce 344.07.

Dabei ist auffällig: Die Geforce GTX 980 taktet erst nach dem Fertigstellen der Szene den Speicher für kurze Zeit auf 3.500 MHz, während des Renderns taktet er mit lediglich 3.000 MHz - da klemmt also auch noch etwas.

Die GPU der 780 Ti lief konstant bei 1.006 MHz, die der 980 mit 1.227 MHz. Stromverbrauch ~ 250 zu ~ 190 Watt.
 

Anhänge

  • 980.jpg
    980.jpg
    171 KB · Aufrufe: 429
  • 780Ti.jpg
    780Ti.jpg
    216,9 KB · Aufrufe: 434
  • Speichertakt.png
    Speichertakt.png
    170,9 KB · Aufrufe: 415
Zuletzt bearbeitet:
Tja da sieht man es wieder, die 980 hat halt kein Server Chip der besser mit CUDA kann.
Darum verstehe ich das geheule mit den GK104 und GK110 nicht (oder das jetzige mit GM204 und GM200), NV hat einfach die Strategie geändert da ist nichts mehr mit Nachfolger von dem GF110 usw. usf...
 
Bei tomshardware.de haben sie sich im speziellen dem Powertarget angenommen.

http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
GTX 970: Power Target, Boost, Performance und Leistungsaufnahme

vorallem die Tips sollten sich einige zu Herzen nehmen.

Tipp 1:

Für Übertakter und Benchmark-Fanatiker ist eine Karte mit einem Power Target ab 225 Watt und mehr interessant, andere Karten sind nicht in der Lage, die möglichen Boost-Taktraten wirklich optimal auszureizen. Übervolten geht einerseits mit den herkömmlichen Tools nicht wirklich und anderseits brächte es auch nichts, wenn bereits das Target limitiert.

Tipp 2:

Beim manuellen Optimieren der Lüfterkurve auf einen niedrigeren Geräuschpegel hin sollten Temperatur Target und Drehzahl gemeinsam angepasst und durch Praxistests abgeglichen werden. Ein zu niedriges Temperatur Target beeinflusst den Boost-Takt negativ, wenn die Lüfter zu langsam drehen und der eingestellte Wert erreicht bzw. überschritten wird. Hier müssen sich beide Werte die Waage halten, wobei das Power Target die Priorität haben sollte (einstellbar).

Tipp 3

Anstelle der Lüfterdrehzahlen reicht oft schon eine Absenkung des Power Targets. Hier kontrolliert man z.B. mit GPU-Z die in einem Spielebenchmark erreicharen Taktraten und die Benchmark-Werte. Oftmals bedeutet der Verzicht auf unbedeutende zwei bis fünf FPS am oberen Ende des Power Targets eine Energieeinsparung von bis zu 60 Watt! Das schlägt sich dann entsprechend in niedrigeren Temperaturen und Geräuschpegeln nieder.
 
Jan schrieb:
Die Testszene Spaceships rendert die 780 Ti in 12:48 Minuten, die 980 in 19:48 Minuten - also in der Tat deutlich langsamer. Treiber bei beiden GeForce 344.07.

Die GPU der 780 Ti lief konstant bei 1.006 MHz, die der 980 mit 1.227 MHz. Stromverbrauch ~ 250 zu ~ 190 Watt.

Da könnte noch was im Treiber klemmen bei der 980.

Meine 750Ti braucht bei 1326MHz Chiptakt 28:20 Minuten und die 980 hat mehr als 3x so viele Shader.
 
Hier stand etwas überflüssiges.
Ergänzung ()

Frage, was muß ich jetzt machen, um einen Vergleich ziehen zu können?
 

Anhänge

  • octane.JPG
    octane.JPG
    82,3 KB · Aufrufe: 421
Auch bei Octane bin ich mit einer GPU (SLI-disabled) fernab vom Computerbase Ergebnis.

Bei mir dauert der Vorgang (habe ihn auch komplett durchlaufen lassen) 8:12 Minuten mit 1x GTX970@ 1051Mhz/3500Mhz Memory. Auch gab es bei mir kein Problem mit dem Speicher oO.....

Ich kann die Zeiten der 980GTX also absolut nicht teilen....
 

Anhänge

  • octane.JPG
    octane.JPG
    247,2 KB · Aufrufe: 433
Der Screnshot ist ja auch nicht nach einem kompletten Durchlauf. Du siehst aber, dass die GPU 19,46 Msamples/s berechnet und die Gesamtzeit auf 8:13 schätzt.
 
Erlich vertraue ich solche berechneten Zeiten nicht, sollte man schon durchlaufen lassen.
Zudem sollte t3chn0 das denn noch mal mit der 780 Ti machen und dann vergleichen.
Auch kann die Karte gerade 19,46 Msamples/s rendern und später wird es wieder langsamer.

Es gibt noch einen blender CUDA bensh, wenn ihr den mal machen wollt einfach sagen dann beschreib ich das mal.
 
1. hat er es durchlaufen lassen (8:12 min) und
2. wird da nichts langsamer. Der Rechenaufwand für jedes Sample ist gleich groß.

Die Abweichung der Schätzung von der tatsächlichen Laufzeit ist <1%.
 
Zurück
Oben