Test Die GeForce GTX 970 und der limitierte Speicher

beckenrandschwi schrieb:
Für die BWLer sind halt 224 Bit + 32 Bit = 256 Bit.
Somit vollkommen korrekt gerechnet.
Da sind wir dann wieder bei der 12GHz CPU (4x3GHz) :D
Thx! Made my day ;) (wenn es nicht so traurig wäre)
 
DrToxic schrieb:
Weil das auch erst in knapp einem Jahr richtig flächendeckend nerven wird, wenn die Spiele sich nochmal mehr VRAM genehmigen - ja, auch unter Full HD. Momentan betrifft das erstmal nur das groß beworbene DSR und einige neue Titel wie Mordor oder FC4, siehe Test.
Aber bis in einem Jahr gibt es dann aber praktischerweise die neue Generation :freaky:

Edit:
Dazu kommt halt auch, dass vermutlich einige von 3GB ein Upgrade auf 4 machen wollten. Wenn dieses Upgrade dann quasi halbiert wird, ist das auch nicht grad klasse.



eben momentan ist das Problem kaum greifbar und wir wissen ja auch nicht genau was die neuen Games so bringen und "fordern" werden, wer weiß - vielleicht spielt es oft überhaupt keine Rolle mehr - 3,5 od. 4GB Speicher, da voher einfach schon die Leistung fehlt...
 
Danke für den Test.

Fazit unterm Strich:
Auf keinen Fall eine Karte aus NVidias 9xx Serie kaufen, sondern auf die nächsten Generation warten, die dann die optimierte Version der 9xx sein wird.
 
Waelder schrieb:
vielleicht spielt es oft überhaupt keine Rolle mehr - 3,5 od. 4GB Speicher, da voher einfach schon die Leistung fehlt...

Die beste Kundschaft, die man haben kann!

"Najaaa, 3.5 oder 4, ist eigentlich egal." Ab wo ist denn dann die offizielle Grenze, ab der man sich beschweren darf? Bei 3 von 4? Oder erst bei 2?

Sollte man vielleicht mal schriftlich festhalten :p
 
Epic! <3 AMD!
150a.jpg
 
Ich habe eine Frage!

Für die GTX 970 gibt es kein Referenzdesign. Heißt, die Boardpartner haben das Layout und einen Teil der Komponenten selbst designed.
Wussten die Boardpartner über diesen Missstand bescheid oder haben die ihre Produkte ungetestet verkauft?

Schließlich habe die Boardpartner ja die gleichen Angaben auf ihre Kartons gedruckt...

MfG
 
Zuletzt bearbeitet:
Ich finde das ebenfalls ganz schön ärgerlich.
Nach dem ich 6 Jahre mit AMD Grafikkarten zufrieden war (2 Grafikkarten habe ich auch noch im Einsatz), bin ich im Dezember wegen der hochgelobten GTX 970 mal wieder zu nVidia gewechselt (neuer PC). Und dann sowas.

Und wenn ich einen neuen Rechner baue, dann soll der für mindestens 3 Jahre als Spielerechner Nr. 1 herhalten.
Noch stellt die GTX 970 mit nur 3,5 GB vielleicht kein großes Problem dar. Fernseher bzw. Monitore haben bei mir max. 1920x1080 Pixel.
Ich habe aber immer einen zweiten Monitor im Einsatz.

Nur wie sieht es in ein, zwei, drei Jahren aus. Da kann sich einiges ändern. Die Spiele, die immer mehr Speicher benötigen, u. evtl. kauft man sich einen neuen Monitor mit höherer Auflösung, oder man möchte drei Monitore nutzen (für Rennsimulationen z.B.)
Die letzte Grafikkarte von Anfang 2012 hatte schon 3 GB. (AMD 7950)

Die neue nun nur 3,5 statt 4 GB.

Wenn es eine Umtauschaktion geben würde, würde ich die GTX 970 umtauschen gegen eine neue GTX 970 mit wirklich 4 GB RAM
nVidia noch mehr Geld in den Rachen werfen aufgrund des Problems für eine GTX 980 kommt auf keinem Fall in Frage.

Auf jedem Fall hat nVidia was gut zu machen. Am besten und am fairsten für den Kunden wäre eine Umtauschaktion.
3,5 GB GTX 970 gegen eine 4 GB GTX 970. Aber das dürfte schwierig werden aufgrund der vielen verschiedenen Versionen. (OC)
 
Zuletzt bearbeitet:
Arma3, DCS und alle weitere Spiele die erhöhte Sichtweite brauchen fressen so viel vRam wie sie bekommen können. Dort merkt man extrem wieviel vRam die Karte abkann. Ich habe die Hoffnung das AMD auch 8GB anbietet bzw. NV bis dahin 8GB Modelle ebenfalls hat. Bei den Spielen ist selbst mit 1900er Auflösung kein Limit vorhanden mit heutigen Grakas, da braucht man kein 4k, Eyefinity. Letzteres ist für Arma3 bei mir einfach zu hart noch.

CB bitte testen auch mal solche Spiele, nicht nur 0815 Konsolenkracher.
 
Zuletzt bearbeitet:
Alle Testsequenzen stellen zum jetzigen Zeitpunkt Extremszenarien dar, wie sie nur die allerwenigsten Spieler wählen werden.

Sorry Wolfgang, aber was soll das heißen?
Der Satz stimmt zwar, hat mit dem Artikel und der GTX 970 aber NICHTS zu tun!

Wer eine 340€ Grafikkarte kauft, der erwartet exakt das!
Hört endlich auf immer alles in ein anderes Licht zur Rücken, das muss einem doch selbst beim Lesen auffallen.
Diese Schleierhaften indirekten Aussagen lenken vom Kernthema ab und haben genau 0 Gehalt.

mfg,
Max
 
Lev Arris schrieb:
Am besten und am fairsten für den Kunden wäre eine Umtauschaktion.
3,5 GB GTX 970 gegen eine 4 GB GTX 970. Aber das dürfte schwierig werden aufgrund der vielen verschiedenen Versionen. (OC)

Das Problem liegt IM CHIP!
Die Karten sind nicht so produziert. Du könntest den Chip der 970 auch auf das PCB der GTX980 setzen, funktioniert problemlos und Du hast exakt dieselben Probleme weil die teildefekten Chips der GTX980 so deaktiviert werden dass sie als GTX 970 verkauft werden. Da kannst Du nichts umtauschen, wenn die dafür verantwortliche Komponente im Inneren der GTX970 wieder funktionsfähig wäre, hättest Du einen GTX980-Chip.

Da wird garnichts umgetauscht. Und bis AMD die 380X rausbringt passiert da auch seitens nVidia nichts. Wer jetzt schon eine GTX970 gekauft hat anstatt einer R9 290X welche schneller ist oder einer gleich schnellen aber ~80€ (was locker 25% des Preises einer GTX970 entspricht) billigeren R9 290 dem wird das sowieso alles egal sein bis AMD was Neues rausbringt. Und wer ganz heftig beeinträchtigt ist kauft sich als Reaktion eben die GTX980 oder wartet auf die nächste Generation von nVidia...
 
TenDance schrieb:
Wer jetzt schon eine GTX970 gekauft hat anstatt einer R9 290X welche schneller ist oder einer gleich schnellen aber ~80€ (was locker 25% des Preises einer GTX970 entspricht) billigeren R9 290 dem wird das sowieso alles egal sein

Die 80 Euro hol ich innerhalb der zwei Jahre mit den Stromkosten locker wieder rein, deswegen kam die 290X garnicht erst in Frage.
 
mfJade schrieb:
Die 80 Euro hol ich innerhalb der zwei Jahre mit den Stromkosten locker wieder rein, deswegen kam die 290X garnicht erst in Frage.

wieviele Grafikkarten verwendest du? Oder Mondpreise beim Strom :rolleyes:
 
Die R9 290X verbraucht 110 Watt unter Last mehr (laut CB). Bei 29 ct die kWh macht das 3,19 ct pro Stunde an Strom mehr. Heißt, die Systeme müssten 2500 Stunden unter Last laufen, damit sich der Preis relativiert. Heißt in zwei Jahren 7 Stunden pro Tag Last. Wenn du das schaffst (fragt sich mit was ;)) dann passt das für dich. Ich bezweifle aber das das für die meisten zutrifft.
 
@mfJade

Unter Volllast (Crysis 3 z.B.) beträgt die Differenz knapp 91W (Idle: 12!). 80 Euro entsprechen bei einem aktuellen Verbrauchspreis von 0,27€/kWh knapp 296kWh.

Auf zwei Jahre gesehen müsstest du also mindestens 3.256 Stunden Volllast(!) fahren, um da überhaupt Minus zu machen.

Viel Erfolg :D

edit: (bei weniger sparst du sogar Geld ;) )
 
Zuletzt bearbeitet:
Günstiger werden die Karten dennoch nicht...
Vielleicht gibt es ja demnächst jede Menge gebrauchte Karten zum Schnäppchenpreis :evillol:
 
Was mich interessieren würde, wie sich die Karte verhalten würde, wenn nur 3,5 GB verbaut wären. Dann müssten die FPS zwar runter gehen, wenn der Speicher voll ist, aber das geruckel durch die langsamen Zugriffe aber ausbleiben, oder?
In dem Fall müsste die Grafikkarte die Daten in den Arbeitsspeicher über den PCIe-Bus auslagern. Und das ist nochmal ein gutes Stück langsamer als der langsame Speicherbereich der GTX 970. Sprich, der Effekt wäre derselbe, nur noch langsamer/schlimmer.

Der Artikel dazu ist gut aber kein Wort, wie dreckig Nvidia da einem in die Fresse lügt! DAS kann es doch def. nicht sein!
Nur kurz dazu: Der Artikel behandelt absichtlich ausschließlich den technischen Aspekt und dessen Folgen. Das Verhalten Nvididias wollten wir absichtlich nicht kommentieren, denn das hätte unsere Schlussfolgerungen nur zu einer Schlammschlacht gemacht - was zu schade für den Inhalt ist.

Kann zwar falschliegen, aber sind die 2 der 3 Titel nicht "Gameworks"-optimiert? Warum gerade diese Titel? Mit Crytek-Engine hätte man doch auch locker ohne weitere Anstrengung die 3,5GB-Marke geknackt?

Wurden diese Titel absichtlich ausgewählt? Und warum dauert ein solcher Test 4 Tage?
Zum ersten Teil: AC:U und FC4 gehören aktuell wohl zu den Spielen, die am meisten Speicher brauchen. Das ist der Hauptgrund, warum wir die Titel ausgewählt haben. Mit Gameworks hat die Entscheidung nichts zu tun, wobei die GW-Effekte oihnehin alle deaktiviert waren für den Test.

Zum zweiten Teil: Alleine die Erstellung der Videos hat gut anderthalb Tage an Anspruch genommen. Solche Videos ordentlich aufzunehmen ist alleine schon einen riesen Haufen Arbeit (denn nein, mit FRAPS geht das nicht), nicht zu vergessen diese zu bearbeiten. Und der ganze Rest wie Spiele aussuchen, Szenen aussuchen, Einstellungen aussuchen, Szenen miteinander vergleichen, schauen, in wie weit das Verhalten reproduzierbar ist etc., etc. ist viel Arbeit.

Und CB sollte so langsam auf Youtube whatever setzen. Ich kann die Videos nie sehen. Schon seid 1 Jahr nicht vernünftig.
Auch wenn ich selbst nicht nachvollziehen kann, warum die Videos bei dir nicht funktionieren. Die Videos aus dem Artikel sind doch auf Youtube als Alternative?
https://www.youtube.com/user/ComputerBase
Alternativ kannst du dir die Videos auch einfach im Original herunter laden.

Schade das beim Test die GTX 980 nicht auf die Leistung einer GTX 970 gestutzt wurde also
beide Pixelfüllrate von 61.256 MPix/s (GTX 980 CHip ~957Mhz) und Speicherbandbreide (980er VRam auf 3068MhZ =196.336 MB/s)
Die Übelregung gab es, doch haben wir uns absichtlich dagegen entschieden. Wir wollten das 970 vs. 980 Duell so erzeugen, wie es auch in Wirklichkeit herrscht. Und wenn sich die Grafikkarten plötzlich im Verhältnis untereinander unterscheiden zeigt das ebenso sofort, wenn es ein Problem mit dem Speicher gibt. An der Aussagekraft hätte sich nichts geändert. Zudem sollte in dem Artikel eben nur das Speicherproblem untersucht werden und nicht den Einfluss vom fehlenden Cache etc.

Also ich habe mir jetzt mindestens 5 mal das Video von FC 4 angeschaut ...
Mal eine frage an alle anderen ,seht ihr das gleiche wie ich ?
Oder liegt es an meinem Rechner ?
Mhm, das kann eigentlich nicht sein. Hast du dir das Original-Video mal herunter geladen? Vielleicht macht bei der irgendwas beim Player Probleme.

Der Test zeigt, was eigentlich klar war und auch wenn ich Neutralität für ein hohes Gut halte, hier macht cb das was man erwarten durfte, alles nur keine Meinungsäußerung.
Ist man hier so abhängig von den Grünen dass man selbst bei illegalen Handlungen die Füße stillhält?
Wären wir NICHT unabhängig, hätten wir einfach gar keinen Test gemacht. Oder einen, wo man keinen Unterschied finden kann. Zudem: siehe oben

Habt ihr mal getestet, ob eine GTX980 auch so extrem ruckelt, wenn der VRAM voll ist? Ich hab hier als VRAM fresser nur Mordors schatten und hab mit den 6GB Texturen 70-80 FPS. Der VRAM ist ständig zu 100% gefüllt und selbst mit zusätzlichem Downsampling kommt es nicht zu den bekannten Rucklern. Einzig die Bildrate sackt deutlich ab. Solche stotterer wie im Video sind aber nicht zu beobachten.
Das liegt eher am Verhalten vom Spiel: Imo schaufelt Mordors quasi immer den Speicher direkt voll, egal ob das Spiel diesen wirklich braucht oder nicht.

Zum Verständnis: Hätte ich die im Test angedeuteten Performance Probleme auch bei einem SLI-Verbund aus 2 970ern? Denn ich habe 3 Monitore und eigentlich geplant noch eine zweite 970 ins System zu stecken. Allerdings bin ich jetzt am überlegen ob ich das noch machen sollte...
Kurz und knapp: ja. SLI äöndert nichts an der Speicherbestückung. Auch wenn du theoretisch doppelt so viel Speicher hast, liegen in beiden VRAMs dieselben Daten. AUch bei Multi-GPU verhält sich der Speicher wie bei einer einzelnen Grafikkarte.

Ah OK, ich geh an solche Sachen nicht mehr Mathematisch ran und schwimme auch nicht wie die Nerds in der Gigabit Welle. Dauert also noch. CB muss ja die Pixel-DNA an den User weitergeben. Verständlich. Wie wärs mit den RAW Videodaten unkomprimiert? 2 GByte/s schaffen die meisten CB User doch, wenn schon 4k Displays in min 3 facher Ausführung in der Wohnung stehen und 16 Glasfaserleitungen zur T-Com anliegen?
Du willst nicht wissen, wie groß die aufgenommenen Videos sind. Ich kann dir verraten, dass ein einzelnes FC4-Video (eines, in dem FC4-Video gibt es vier davon) 15 Gb groß ist (kein scherz). Wir komprimieren also schon viel:D
Nur soll die Qualität bei den Vdieos natürlich so hoch wie nur möglich sein.
 
Mei Leut, der Kaas is jetza mal gbissen...Gebt die Karte zurück, verkauft se oder seits glücklich damit. Nvidia hat jetzt ne PR Panne vom Feinsten und wird hoffentlich, in Zukunft ehrlicher sein.
@CB: Denkt mal darüber nach, nen Speichergrößentest in die Reviews einzuführen...Euren Lesern zuliebe.
 
Wolfgang schrieb:
Nur kurz dazu: Der Artikel behandelt absichtlich ausschließlich den technischen Aspekt und dessen Folgen. Das Verhalten Nvididias wollten wir absichtlich nicht kommentieren, denn das hätte unsere Schlussfolgerungen nur zu einer Schlammschlacht gemacht - was zu schade für den Inhalt ist.
Wären wir NICHT unabhängig, hätten wir einfach gar keinen Test gemacht. Oder einen, wo man keinen Unterschied finden kann. Zudem: siehe oben


Das liegt eher am Verhalten vom Spiel: Imo schaufelt Mordors quasi immer den Speicher direkt voll, egal ob das Spiel diesen wirklich braucht oder nicht.

Für so etwas gibt es Kolummen, derer sich eure Redaktion ja sonst auch gerne bedient und wer die Headlines im Netz verfolgt sieht ganz klar, wer das Kind beim Namen nennt und wer nicht.

Immer das "Neutral" Schild hochhalten ist die eine Sache, klar Stellung zum wohl meistdiskutierten Thema dieses Jahres im Homecomputingbereich zu beziehen aber eigentlich unabdingbar, will man statt eines Anschlagbrettes für Neuigkeiten auch eine Seite mit Charakter sein.
 
Zurück
Oben