News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher

da könnte ja man dann behaupten das durch ein modded bios man das ganze umgehen wird, schau sich einfach die Benchmarks an der unterschied liegt ist teilweise vom ram abhängig
 
Ich glaub den haben wir jetzt schon fünfmal hier im Thread ;)

Interessant ist auch die Aussage, dass mit dem Treiber alle G6xx bis G9xx inkl. mobiler Modelle funktionieren auf beliebigen DP 1.2 Monitoren. es haben einige in den Kommentaren schon bestätigt dass es funktioniert. Ein Update für die G5xx Modellreihe sei in Arbeit.

Zudem auch dass AMD an einem Treiber für DP 1.1 arbeitet und Intel AdaptiveSync schon fast Releasefertig hat.
 
Scythe1988 schrieb:
nein ist es nicht (auch wenn sich das Käufer der gtx970 gerne einreden würden). Es ist und bleibt der Mid Range Chip und auch 300€ sind noch lange keine Oberliga Preise. Was ist denn dann eine TItan Black bzw Titan Z? Ultra Liga?

Doch, ist es. Ich rede von der Oberlige, nicht "high end".
Mit der 970 rennt alles @ Full HD auf Max und auch 4k läuft meist sehr gut.

Von zwei GPU´s rede ich gar nicht. Das sind "2".


Wenn du das Geld hast um dir ne Titan und anderes für 3k zu kaufen, dann ist das schön für dich.
Dennoch hast du nicht x Mal mehr Leistung.
Irgendwann summiert es sich nicht.

Wenn in Monaten die "vollen" Chips kommen, wird aktuell der Chip nicht abgewertet, da es JETZT nichts besseres gibt! Somit Oberliga.

Ob eine GPU oder CPU... einen Vollausbau hat, juckt mich nicht.
Ich gehe nach dem Hier und Jetzt!
Zudem, was eine gute Preis/Leistung hat.
 
Zuletzt bearbeitet:
Eben auch mal den Benchmark bei mir durchlaufen lassen ... rein aus Interesse.
Bei mir is sogar schon bei 3GB "Schluss" und über 3,5GB schmiert der Treiber ab :

Nai's Benchmark, edited by VultureX
Device: GeForce GTX 970 (4.00 GB)
Memory Bus Width (bits): 256
Peak Theoretical DRAM Bandwidth (GB/s): 225.472000

Allocating Memory . . .
Chunk Size: 128 MiByte
Allocated 30 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):155.32 GByte/s
DRAM-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):155.46 GByte/s
DRAM-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):155.23 GByte/s
DRAM-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):155.50 GByte/s
DRAM-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):155.16 GByte/s
DRAM-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):155.38 GByte/s
DRAM-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):155.42 GByte/s
DRAM-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):155.33 GByte/s
DRAM-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):155.51 GByte/s
DRAM-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):155.26 GByte/s
DRAM-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):155.33 GByte/s
DRAM-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):155.35 GByte/s
DRAM-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):155.39 GByte/s
DRAM-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):155.40 GByte/s
DRAM-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):155.32 GByte/s
DRAM-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):155.50 GByte/s
DRAM-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):155.26 GByte/s
DRAM-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):155.45 GByte/s
DRAM-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):155.37 GByte/s
DRAM-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):155.39 GByte/s
DRAM-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):155.43 GByte/s
DRAM-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):155.29 GByte/s
DRAM-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):46.78 GByte/s
DRAM-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):155.35 GByte/s
DRAM-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):12.87 GByte/s
DRAM-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte): 6.58 GByte/s
DRAM-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte): 6.58 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):415.00 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):414.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):415.12 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):414.87 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):415.02 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):414.96 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):415.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):415.08 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):414.98 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):414.92 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):414.99 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):415.07 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):414.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):414.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):414.99 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):415.00 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):414.92 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):414.90 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):415.12 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):415.12 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):415.07 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):415.00 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):148.22 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):73.97 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):73.97 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):73.98 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):414.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):15.15 GByte/s
Kernel launch failed: unknown error
Kernel launch failed: unknown error
Drücken Sie eine beliebige Taste . . .
 
vom sinn des benchmarks hat sich der programmierer mittlerweile distanziert. siehe test PCGH.

was ich aber am besten an der ganzen diskussion finde ist wohl mein fazit:

......hätte NV die karte mit 3,5GB speicher angeboten und die zusätzlichen 512MB als eine art turboboost beworben, die im idealfall sogar richtige 4GB ersetzen, wäre es wohl eine innovation gewesen.
jetzt kann es passieren das beim nutzen der kompletten 4GB zu microrucklern kommt. was aber laut tests auch nicht sein muss.

naja, man hat den fehler halt gemacht. jetzt sollen sie damit auch fertig werden.
 
Zuletzt bearbeitet:
@ratzeputz Mein Beileid, scheinbar bist du nicht der einzigste bei dem die Karte schon ab 3GB diese Probleme hat. Das sollte auch mal genauer von PCGH, CB beleuchtet werden.
Das Stinkt nämlich verdammt nach dem nächsten Skandal!

PS: Schreib mal den Hersteller deiner Karte dazu, evtl. gibts ja einige schwarze Schafe.
 
Zuletzt bearbeitet:
@McMOK:
Danke ....

Jetzt kann ich mir aber auch erklären, warum mir die Kiste öfter mal bei Shadow of Mordor oder Advanced Warfare einfach abschmiert, respektive der Treiber.
Dacht immer, das liegt einfach an mies programmierten Games (wie es ja in letzter Zeit häufiger der Fall ist).
Scheint wohl aber doch an der Graka zu liegen.

Es wäre interessant zu wissen, ob der Speicherbereich wirklich nur im Notfall, oder aber auch Random angesprochen wird.
Ich habs des öfteren nämlich bei nicht so intensiven Spielen wie Lord of the Rings Online oder Guild Wars 2, dass mir einfach der Bildschirm schwarz wird und irgendwann ein Insert kommt, dass der Treiber abgeschmiert sei.
Kann mir das mittlerweile nur so erklären.
 
Wegen den Abbruch nach 3 GB schreibe ich evtl nachher in meinen Benchmark thread noch etwas ausführliches, wenn mir jemand ein Benchmarkergebnis einer 980 GTX mit der neuesten Version meines Benchmarks dort gepostet hat.
 
Krautmaster schrieb:
genauso reden alle von 3,5 GB, dabei sind es 4 GB ^^ - zumindest kann sie, wenn sie muss, 4GB adressieren - wie da bei diversen Titeln die Performance, auch zur Konkurrenz ist, wird sich die Tage wohl zeigen.

so langsam geht es mir aufn zeiger. immer wieder behauptest du etwas, das bereits wiederlegt wurde. angestellter von nvidia?

es sind 4 gb, ja. es sind NICHT 4 GB GDDR5 ram, da dieser teil schlicht nicht stimmt. es sind 3.5 gb GDDR5 ram und dazu noch 500mb ram, welcher insgesamt LANGSAMER ist als GDDR5. so langsam sollte das auch in dein gehirn reingehen.

der ram auf der geforce gtx 970 ist gesamthaft LANGSAMER als GDDR5 ram.

gehts nu rein? oder lügst du weiter denselben unfug wie nvidia?

der ram ist vielleicht so schnell wie GDDR4 ram, aber NICHT wie GDDR5 ram. aber stimmt schon, bei ram auf der graka ist es total egal, wie schnell der ist. darum haben wir ja alle da den langsamsten ram der welt verbaut. es macht ja auch nichts aus, das man erst ab ner gewissen auslastung den langsameren ram hat. warum nicht gleich 1 gb GDDR5 ram und 3GB DDR2 ram? kommt ja nach dir auf dasselbe raus. :stock::stock::stock::stock:

greez
 
So hab mal nen Thread wegen dem G-sync aufgemacht ...

hier gehts weiter : klick
 
@Krautmaster

Auch wenn Du es immer noch nicht einsiehst, von Nvidia wurden den Kunden / Medien und Händler falsche Spezifikationen vorgelegt und das kann man nicht einfach so hinnehmen und ich verstehe den Ärger hier darüber im Forum schon.

Siehe hier:
GTX 970 falsche Spezifikationen.jpg

Und mehr denke ich brauch man auch nicht mehr dazu sagen und jeder kann sich dann auch seine eigene Meinung bilden.
 
Für mich gab es da überhaupt nix mehr zu überlegen die Karte ging sofort retour wir reden hier über 350 Euro... und ich hoffe das es sehr viele auch machen werden weltweit das im Konzern ein Umdenken für die Zukunft stattfindet.. Mit einem Key für ein Game ist es bei mir da nicht getan..
 
schnuggels schrieb:
genau dasselbe hätte AMD auch passieren können.
Jaja, hätte könnte vermutlich bla bla

Genau der selbe Argumentationsmüll wie bei Intels illegalen Machenschaften
"AMD hätte das bestimmt genauso gemacht, daher ist es nicht schlimm was Intel gemacht hat mimimi"
Oder hast du auch in der Schule, wenn du beim Abschreiben erwischt wurdest argumentiert mit "die anderen hätten auch abschreiben können?"

Solche "Argumente" dienen ausschließlich dazu um von dem Bockmist abzulenken.
 
accepted
 
@PiPaPa

da gebe ich dir vollkomen recht. das es andere so machen könnten interessiert hier absolut nicht. es ist eine sauerei das dies passiert ist.

allerdings finde ich es auch krass wie das ganze hier dramatisiert wird/wurde. zumal NV das chipdesign ja auch nicht anders wollte. die GTX970 ist so aufgebaut wie es sein sollte. allerdings klappt es halt wohl nicht richtig mit dem treibertrick. zumindest gibts bei einigen spielen probleme mit mikrorucklern. ob dies aber ein späterer treiber beseitigen kann, weis hier auch noch keiner.
wenn ich eine hätte, würde ich sie nach aktuellen stand eher behalten als zurückzugeben. allerdings sollte seitens NV schon ne kleine entschädigung drin sein. allein deswegen weil sie "falsch kommuniziert"(gelogen?) haben.
 
Mr.Seymour Buds schrieb:
3,5 GB laufen ja mit vollem Speed.

Nee, leider nicht.

Angegeben waren 4GB mit 224GB/s.
Bekommen hat man:
- 3,5GB @ 196GB/s und zusätzliche
- 0,5GB @ 28GB/s

Wobei da noch erschwerend hinzukommt, dass die Karte entweder nur den einen oder den anderen Speicher nutzen kann, aber nie beide gleichzeitig --> höchstens also 196GB/s, weshalb der Treiber auch versucht, auf 3,5GB zu deckeln. Dazu halt noch die Sache mit den ROPs und dem Cache, siehe hier:
Zotac2012 schrieb:

smilefaker schrieb:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560767

"Also soweit die Aussage von der Seite zutrifft, und ich das so richtig verstanden habe, braucht man das Modul gar nicht. Es ist nur dazu da um Lizenzen vergeben zu können bzw. Gebühren abzukassieren.
Das Modul stellt also nur sicher, dass eine NV-GPU dran hängt und verschlüsselt da irgendwas.
Und das der Treiber das ganze steuert, so wie es AMD mit seinem Treiber tut."

Also, wenn dieses G-Sync Modul wirklich nur eine (200€ Aufpreis kostende!!) DRM-Lösung ist, dann haben die echt den Knall nicht mehr gehört. Noch lustiger ist in dem Zusammenhang dann vor allem die Aussage, dass G-Sync deutlich besser aussehen würde, weil es ja ein extra Modul gibt :lol::lol::lol:

"Leider" hab ich einen Korea-Monitor mit DVI-only Input, würd das gern mal testen.
 
Zotac2012 schrieb:
@Krautmaster

Auch wenn Du es immer noch nicht einsiehst, von Nvidia wurden den Kunden / Medien und Händler falsche Spezifikationen vorgelegt und das kann man nicht einfach so hinnehmen und ich verstehe den Ärger hier darüber im Forum schon.

klar seh ich das ein, hab ich dem je widersprochen?

@ 4Gb VRam

sind es nun 4 GB oder nicht? Das hat doch erstmal genau 0 mit der Geschwindigkeit zu tun. Nicht bei den 4 GB wurden falsche Angaben gemacht, sondern eben bei der Geschwindigkeit. Trotzdem können 4 GB genutzt werden - und nicht umsonst schreibt zb gh.de nicht 3,5 GB sondern 3,5 Gb + 512 MB. Klar sind letztere langsamer, klar ist die Karte damit langsamer als mit voller Bandbreite über 4 GB - aber auch die 512 MB bleiben nutzbar. Über geschicktes Speicherhandling lässt sich der Nachteil vielleicht sogar fast komplett beheben. Es finden sich sicher neben den bandbreitenlastigen Sachen Dinge im VRam die weniger kritisch sind - werden die gezielt in diesen 512MB low Bandwidth Bereich gepackt kann der Nachteil (der ohnehin offensichtlich nicht sehr groß ist) vielleicht noch kleiner werden.

Wie man es auch dreht. Es bleiben 4 GB. Und wie man es auch dreht - die Specs waren falsch und Nvidia gehört auf die Fresse gehaun. Kann denn nicht beides stimmen?
 
Zuletzt bearbeitet:
Zurück
Oben