News GeForce GTX 980/970: 8K, 144 Hz und weitere Analysen

der vermeintliche Vorteil gegenüber dem Vorgänger dürfte allerdings auf einen geringen Anteil der Grafikkarte am Gesamtenergieverbrauch zurückzuführen sein – und nicht auf einen besseren Umgang mit 144-Hz-Monitoren.
Gamefaq schrieb:
@CB
Wie kann nicht die Grafikkarte dafür verantwortlich sein wenn sie das einzige ist das getauscht wurde? Das ergibt keinen Sinn.
Natürlich macht das Sinn. Der geringere Verbrauch der aktuellen Karten in diesem Test kommt nicht daher, dass sie das Problem angegangen sind, sondern weil die Grafikkarte generell weniger verbraucht.

Sprich dieses spezielle Problem sind sie scheinbar noch nicht angegangen. Die besseren Werte erklären sich alleine durch die bessere Architektur und nicht weil sie dieses spezielle Problem bereits gelöst haben.
 
Allerdings reizen die meisten Spiele die 2GB VRAm schon nicht aus.

Bitte was? Shadow of Mordror braucht 6GB Vram für 1080p mit max Texturen!
Watch Dogs und The evil within 4GB und das ist erst der Anfang!
 
zeedy schrieb:
...die 900er Karten haben @144 Hz deutlich höhere GPU und Speicher Taktraten als die 290X, wie sind sie dann sparsamer?

Liegt am Speicherinterface. Das 512-Bit SI bei der 290X braucht wesentlich mehr Strom als das 256-Bit SI bei den 900er Karten.
 
Pumpi schrieb:
Auf 27" in UHD ist Anno 2070 unspielbar. Die Buttons am Rande könnte man noch blind bedienen, wenn man sie kennt. Die kleinen variierenden Kärtchen die man sich im laufe des fortgeschrittenen Spiels durchlesen muss sind für mich dann nur mit der Lupe zu lesen... Außerdem knallt ANNO 2070 in UHD auch ganz schön auf die CPU !

Ich zocke auch regelmäßig Anno 2070 und Civ5 in 1440p auf 27" und als unspielbar würde ich es jetzt nicht bezeichnen, aber es stimmt schon, es ist hart am Limit. Es kann doch nicht so schwer sein ein frei skalierbares Interface zu programmieren.
 
D3xo schrieb:
Ich zocke auch regelmäßig Anno 2070 und Civ5 in 1440p auf 27" und als unspielbar würde ich es jetzt nicht bezeichnen, aber es stimmt schon, es ist hart am Limit. Es kann doch nicht so schwer sein ein frei skalierbares Interface zu programmieren.

Ja, Anno 2070 ist bereits hart am Limit in 1440p. Wir sprachen aber über UHD (Stichwort: Downsampling).
 
1440P; UHD, verhält sich genau so wie SLI/CF, das wird noch Ewigkeiten dauern bis es im Mainstream ankommt bzw. massentauglich wird. Darum bleibt auch für sehr lange Zeit 1080P die goldene Mitte, darauf optimieren alle Entwickler ihre Spiele. Ganz zu schweigen vom Rohleistungskiller 4k Display, da kann man dann ständig die hochpreisigen High End GPUs jeder Generation einplanen. Einfach Wahnsinn...

Es gibt keine Bandbreitenkrüppel, Vram Krüppel schon... Oder andres ausgedrückt, die Bandbreite wird die nächsten zig Jahre locker ausreichend sein, der Vram nicht.
 
Zuletzt bearbeitet:
mit dem verbrauchstest mit 144 hz machen sich die CB autoren lächerlich vor den nvidia nutzern, selbst wenn das so wäre wie dargestellt würde ich das eher auf den treiber zurückführen als auf die grafikkarte.

und jeder der 120/144 hz hated hats entweder noch nicht getestet oder rechtfertigt für sich seinen ips panel kauf.

ps: mein 2500k + gtx670 brauch auf dem desktop 43-45w bei 144hz und wakü! das würde sich bei ner 970 nicht ändern. der 2500k taktet im idle 1,6ghz und die 670 324mhz
 
Zuletzt bearbeitet:
mit dem verbrauchstest mit 144 hz machen sich die CB autoren lächerlich vor den nvidia nutzern, selbst wenn das so wäre wie dargestellt würde ich das eher auf den treiber zurückführen als auf die grafikkarte.
Und Nvidia hat nichts mit ihren Treibern zu tun? CB hat das bestimmt absichtlich so gedreht um Nvidia schlecht darstehen zu lassen. :evillol: Sie wurden von AMD geschmiert da bin ich mir absolut sicher!

Jetzt mal ernsthaft, du als Käufer kannst auch nur eine Grafikkarte kaufen und diese dann mit dem aktuell verfügbaren Treiber betreiben. Und wenn es hier scheinbar ein Problem mit der Hardware oder dem Treiber gibt, dann ist es doch gut, dass CB dieses Problem aufgedeckt hat damit Nvidia das Problem nun angehen kann, oder? :)

Sollte sich Nvidia für ihre Kunden interessieren, dann werden wir sicherlich diesbezüglich bald eine Stellungnahme lesen können.
 
Suxxess schrieb:
Und Nvidia hat nichts mit ihren Treibern zu tun?
Sollte sich Nvidia für ihre Kunden interessieren, dann werden wir sicherlich diesbezüglich bald eine Stellungnahme lesen können.

die ersten treiber sind nie 100% optimal. sich aber den ersten treiber der auf dem markt ist zu schnappen, das erste review beim stromverbrauch von 144hz zu verfassen den ich kenne, und die ersten user melden das das wohl nicht ganz korrekt ist und sie ein ganz anderes bild bekommen als das review aussagt. ich habs nicht angesprochen, aber du selbst hast schon bemerkt welchen eindruck es hinterlässt. und noch schlimmer der leser wird hinters licht geführt.
 
Und du glaubst es garnicht zu testen ist besser? Dann würde wohl unweigerlich die Frage nach 120/144 Hz kommen. Und zu sagen "ja aber zukünftige Treiber könnten noch besser werden" ist auch irgendwie Schöngerede erster Klasse.

Was für einen Eindruck hinterlässt das ganze denn? Dass die Grafikkarte mit dem aktuellen bzw. pre-Release Treiber in einem Szenario, dass vllt ein paar Prozent der Kunden betrifft, mehr verbraucht als sie eigentlich sollte? Hört sich jetzt irgendwie nicht so schlimm an. Oder ist das jetzt einfach nur der Ausgleich weil CB ansonsten eher vorgeworfen wird, pro-NVidia zu sein? Ein kleiner Funke Kritik an der grünen Seite und sofort schreien die Fanboys auf?
 
genocide7 schrieb:
Liebe Redaktion, könntet ihr bitte die genauen FPS aufführen?
Leute wie ich sitzen hier an ihren 7.680 × 4.320 Monitoren und warten auf eure Ergebnisse :D

Ich warte hier auch mit 4k auf DSR, meine drei Titanen spekulieren auf mehr arbeit😗
 
t3chn0 schrieb:
@ Computerbase Team, bitte nochmal testen ob es einen Unterschied zwischen dem DP und DVI gibt. Mit Dual Link DVI habe ich dieses Problem wie oben bereits von mir gezeigt, definitiv nicht!

Ich greif das nochmals auf & das macht mich jetzt doch neugierig ... :-)
Ich kenne hier 3 User, die ihren Moni über DVI-DL angeschlossen haben, mit 144Hz & sich Graka_XY (Kepler & Maxwell) genauso verhält als würde
man 120Hz nutzen. Ggf. ist hier doch "der Anschluß entscheidend" ...?
 
Auf den ersten Blick wohl auch nichts anderes als die G1, wobei die WF3 minimal niedriger taktet.
Hauptsache "das Windforce-Logo" leuchtet ...^^
 
Jo,
die ganz hochgezüchtete will ich auch gar nicht haben.
Die OC würde mir dann auch reichen.
 
erste review beim stromverbrauch von 144hz zu verfassen den ich kenne
Dir ist aber bewusst, dass wir von der Geforce 780 Ti sprechen die seit über einem Jahr auf dem Markt ist und nun eingestellt wird? Die neuen Karten haben dort doch scheinbar keine Probleme.

Nvidia wird das entweder aussitzen oder im nächsten Treiber fixen. Und wenn hier bereits einige schreiben, dass dies bei ihnen nicht auftreten würde, dann wird es sich vermutlich um einen Treiberbug handeln, der Anschluss ist wirklich entscheidend oder die 780 Ti braucht wirklich mehr Leistung für die 144 Hz und schaltet entsprechend hoch.

Und zur Windforce:
System power supply requirement: 550W (with one 6-pin and one 8-pin external power connectors)
Dafür, dass die 970 so begnügsam sein soll und im Forum schon eher in Richtung 450 Watt Markennetzteil empfohlen wird, sind 550 Watt schon heftig. ( Geht Gigabyte eventuell davon aus, dass die Kunden 550 Watt Chinaböller verbauen? )
 
SuddenDeathStgt schrieb:
@t3chn0
Kannst Du dein Display auch per DP anschließen? Möglicherweise erfolgt dadurch kein runtertakten?
Ich habe leider kein entsprechendes Kabel zur Hand(DVI DL), sonst könnte ich es selber mal testen ...
Das ist natürlich "Bullshit", da mein betreffender Moni nur über einen DP-Anschluß verfügt.^^

@Suxxess
Power will auch entsprechend gefüttert werden ...^^

@CB
Post#73 bitte beachten ... :-)
 
SuddenDeathStgt schrieb:
@Suxxess
Power will auch entsprechend gefüttert werden ...^^
Ich weiß...auf mein 600 Watt Platimaxx schiel. :p
Denoch komisch da die Karte laut den aktuellen Test ja recht sparsam ist?
Habe es mir auch nur gekauft da mein altes ~5 Jahre altes Enermaxx Liberty ( 500 Watt ) meine Grafikkarte bei Need for Speed Rivals und in BF 4 bei Lastspitzen nicht mehr ordentlich versorgen konnte und der Rechner abgestürzt ist. Habe dann vorsorglich eine Schippe drauf gelegt. Seitdem ist das Problem verschwunden.

Da es sich nur um eine 7950 Boost handelt wird das Liberty vermutlich an Altersschwäche gelitten haben da ich mir nicht vorstellen kann das ein 500 Watt Enermaxx nicht für'nen alten 2500k und einer 7950 Boost reicht.
( Beide damals noch auf @stock )

@Jan
Super Service!
 
Zurück
Oben