News GeForce GTX 980/970: 8K, 144 Hz und weitere Analysen

Liebe Redaktion, könntet ihr bitte die genauen FPS aufführen?
Leute wie ich sitzen hier an ihren 7.680 × 4.320 Monitoren und warten auf eure Ergebnisse :D
 
AMD wird erst gegen MITTE 2015 eine konkurrenzfähige GPU auf den Markt bringen.
Quelle?? Behauptungen kann jeder aufstellen ;)
Kann mir nämlich nicht vorstellen, das die so lange ihre Füße still halten. Ich vermute das irgendwann vor Weihnachten noch was rauskommt, evtl ja doch noch die 285X. Ein richiges Dementi gab ja nie.
 
CD schrieb:
Ansonsten, also wer downsampling auf nem 4K Monitor betreibt dem ist auch nicht mehr zu helfen :D

sagt man sich heute ;)
 
Sehr schöner Test. Die Speicherbandbreite limitiert bei Übertaktung des 980 Chips wohl doch etwas. Also liebe Freunde des Übertaktens auch schön den Speicher mit hoch ziehen.

Und Leute bitte zum Topic kommen hier gehts nicht um AMD sondern um nVidia.
 
Das Problem mit dem Speicher und 144Hz kann ich absolut nicht bestätigen. Bei den AMD Karten hatte ich dieses Problem, das ist korrekt und das ging mir auch tierisch auf die Nerven.

Das war auch mit einer der Gründe die 290X wieder abzugeben, neben der schwachen Direct3D Leistung.

Bei der 970er, sogar im SLI habe ich dieses Problem nicht. Der Speicher taktet korrekt runter. Gleiches war auch bei meiner 780Ti Kingpin Edition zu sehen. Auch dort wurde korrekt getaktet im Idle.
 

Anhänge

  • Takt_Idle.JPG
    Takt_Idle.JPG
    221,8 KB · Aufrufe: 561
@t3chn0
Kannst Du dein Display auch per DP anschließen? Möglicherweise erfolgt dadurch kein runtertakten?
Ich habe leider kein entsprechendes Kabel zur Hand(DVI DL), sonst könnte ich es selber mal testen ... :-)
 
Suxxess schrieb:
Wenn man jetzt die selbe Blu-Ray mit 144 Hz abspielen würde (...)
Persönliche Empfehlung: Filme mit so viel Hz abspielen wie sie auch abgefilmt wurden. Was dann in den meisten Fällen 24, 25 oder 30 Hz sein dürften.

Alienate.Me schrieb:
sagt man sich heute ;)
Joa fehlt halt noch bissel die Rohpower für solche Auflösungen. Das sind immerhin 33 Megapixel. Wenn ich dran denke, dass meine beiden 780er (was jetzt auch nicht gerade langsame Karten sind) teilweise bei 7 Megapixel schon gut ins Schwitzen kommen, dann kann ich mit einer einzelnen 980 und dieser brachialen Auflösung nur Mitleid haben.
 
Die verheizen ja eine Menge Saft auf 144 Hz im Idle, erinnert mich an das Thema hier^^
https://www.computerbase.de/forum/t...ei-144-hz-monitor-nicht-in-idle-mode.1365253/

Habe bei mir noch mal geguckt 59 W (nur Computer) @144 Hz in Windows (2 Bildschirme Dell U2412M; BenQ XL2411Z angesteckt wo einer nur zum hochkant Arbeiten ist +3570K +670)
Das gleiche mit dem BenQ auf 60 Hz 58 W.

Nvidia, das konntet ihr schon mal besser.

Noch ein Tipp zum Strom sparen:
nutzt ihr einen oder 2 Sekundärbildschirme nur zum Arbeiten, dann steckt diese in die iGPU (falls vorhanden).
 
@CB

Ist der Rechner mit der älteren GeForce GTX 780 Ti ausgestattet, nimmt die Leistungsaufnahme des Systems beim Wechsel von 120 auf 144 Hz unter Windows um 87 Prozent zu. Bei GeForce GTX 980 und GeForce GTX 970 sind es zwar „nur“ noch rund 45 Prozent, der vermeintliche Vorteil gegenüber dem Vorgänger dürfte allerdings auf einen geringen Anteil der Grafikkarte am Gesamtenergieverbrauch zurückzuführen sein – und nicht auf einen besseren Umgang mit 144-Hz-Monitoren.

Wie kann nicht die Grafikkarte dafür verantwortlich sein wenn sie das einzige ist das getauscht wurde? Das ergibt keinen Sinn.
 
@ Computerbase Team, bitte nochmal testen ob es einen Unterschied zwischen dem DP und DVI gibt. Mit Dual Link DVI habe ich dieses Problem wie oben bereits von mir gezeigt, definitiv nicht!
 
seh ich auch so, arma 3 ist wohl der leistungshungrigste titel der neuzeit. das spiel nutzt alles was es bekommen kann, cpu, gpu, ram, vram....das einzige was es nicht frisst sind die cpu kerne
 
CD schrieb:
Persönliche Empfehlung: Filme mit so viel Hz abspielen wie sie auch abgefilmt wurden. Was dann in den meisten Fällen 24, 25 oder 30 Hz sein dürften.

Laut Pradberichten kommen nicht alle Monitore mit 24p zurecht, besonders wenn sie für den professionellen Einsatz gedacht sind. Stichwörter sind 3:2 pulldown und judder :p

Lars_SHG schrieb:
...und warum sollte man das machen?

Bei Nvidias 3D kommen dann 72fps pro Auge an im Vergleich zu 30 mit einem normalen Monitor = sinnvoll.
Wenn die Software Zwischenbilder berechnet, ist die Wiedergabe so sinnvoll wie 100Hz oder mehr bei Fernsehern, da sieht man definitiv einen Unterschied.
 
Wenn die Karte im IDLE nicht runtertaktet einfach NVIDIA Inspector nehmen
Hab hier 4 Monitore an einer Karte (3x 120/108hz @ 1440p, 1x 81hz @ 1280x1024) und es läuft schon länger problemlos
 
C0B schrieb:
Es ist weit und breit keine Konkurrenz in Sicht. AMD wird erst gegen MITTE 2015 eine konkurrenzfähige GPU auf den Markt bringen.

Wie oft willst diesen Unsinn denn noch verbreiten. Hast du´s so nötig?..."man man man Achim"

guter Test, das mit den 120/144Hz ist eine kleine Überraschung. 100 Watt plus ?!... da passt mein Monitor Verbrauch dreimal rein;)
 
CB schrieb:
Aktuell arbeitet die Redaktion an einem umfangreichen Überblick über die am Markt verfügbaren Grafikkarten.
oh toll...! ich brauche entscheidungshilfe..! :D
 
consolefanatic schrieb:
Alternate soll lieber mal die 980 G1 Gaming rein bekommen :(

Dafür würde ich mein Geld nicht verblasen, lächerliche 15% Leistungssteigerung für einen Aufpreis von >200 gegenüber der 970.
Also runde 15% Mehrperformance für > 65% Mehrpreis.
Nicht sehr clever der Kauf.

Dann lieber noch die wenigen Monate warten und das kaufen:


  • zwischen 2.560 und 2.816 skalare Recheneinheiten
  • zwischen 20 bis 22 SMM
  • vier Blöcke zu je 32 Shadereinheiten
  • mit jeweils acht Textureinheiten bestückt
  • zwischen 160 und 176 TMUs
  • 4 statt 6 64 bit Speichercontroller = 384 Bit breites Speicherinterface
  • könnten ein Performance-Boost gegenüber der GeForce GTX Titan Black und GeForce GTX 780 Ti von etwa 40 bis 50 Prozent erreichen

Zugegeben alles noch Spekulation, aber eine sehr wahrscheinliche.
Dann nächstes JAhr noch den Shrink auf 20nm, für alle denen der Monsterchip dann zu gross ist.

Auf jeden Fall ist das dann aber der echte High-End Chip und nicht die als High-End verkaufte Perfomance Hardware.

Quelle:
http://www.hardwareluxx.de/index.ph...nd-titan-x-basieren-womoeglich-auf-gm200.html
 
Zuletzt bearbeitet:
Jim-Bim schrieb:
Das User Interface bei Anno ist sehr klein geraten, weiß wer wie spielbar das bei 4k Monitoren (24/28 Zoll) ausschaut?

Auf 27" in UHD ist Anno 2070 unspielbar. Die Buttons am Rande könnte man noch blind bedienen, wenn man sie kennt. Die kleinen variierenden Kärtchen die man sich im laufe des fortgeschrittenen Spiels durchlesen muss sind für mich dann nur mit der Lupe zu lesen... Außerdem knallt ANNO 2070 in UHD auch ganz schön auf die CPU !
 
Jetzt wo du es sagst, ich hatte vorher gar nicht gesehen, dass überhaupt eine UI auf dem Anno Screenshot drauf ist. Besitzt Anno keine Scalierungsmöglichkeiten?
 
Zurück
Oben