Test GeForce GTX 980/970 im Test: Nvidia Maxwell 2.0 für High-End ist da

Pilstrinker schrieb:
Durch das häppchenweise Erhöhen des Speichers wird ein Kaufanreiz geschaffen.

Und genau diesen Kaufanreiz durch VRAM sehe ich einfach nicht.

Er entspricht nicht meiner persönlichen Erfahrung aus mehr als zwei Jahrzehnten (es war immer zu wenig GPU-Leistung, die mich zu einem Upgrade bewegt hat) und in der überwältigenden Mehrzahl praxisrelevanter Tests und Berichten von Benutzer/Spielern, die sich nicht nur auf bestimmte Sonderfälle konzentrieren, zeigt sich ebenfalls keine nenneswerte VRAM-Limitierung aktueller High-End-Karten.

Z.B. liegt die 780Ti unterm Strich immer noch klar vor der Titan (dank etwas schnellerer GPU) und in meinem persönliche Fall hat die 780Ti entsprechend der GPU-Leistung perfekt skaliert, gegenüber der alten GTX580 mit ebenfalls 3GB. Wären 3GB zu wenig, hätte ich das doch irgendwie bemerken müssen.

Wie gesagt, mit einer künstlichen Verkrüppelung des VRAM, die es in all den Jahren zuvor niemals gegeben hat, und auch in keinem anderen Bereich, außer angeblich dem Consumer-High-End, würden sich AMD und Nvidia nur ins eigene Knie schießen.

Welche Logik soll das denn auf Seiten der PC-Gamer sein?
"Ich hab mir eine nagelneue High-End-Karte für 500€ gekauft und jedes Konsolenspiel ruckelt darauf oder startet erst gar nicht, wegen zu wenig VRAM. Also kaufe ich mir bei nächster Gelegenheit eine neue High-End-Karte, die ebenfalls zu wenig VRAM hat (weil AMD und Nvidia ja ihre genial funktionierende Strategie nicht einfach wieder aufgeben werden), und dann direkt die nächste und wieder eine neue usw."

Die tatsächliche Reaktion wäre doch wohl eher:
"Wenn sogar eine nagelneue 500€-Karte nicht ausreicht (warum auch immer), um ein schnödes Konsolenspiel zu spielen, dann lass ich den PC ganz bleiben und spiele nur noch auf den Konsolen, die viel weniger kosten."
 
Wie gesagt, mit einer künstlichen Verkrüppelung des VRAM, die es in all den Jahren zuvor niemals gegeben hat, und auch in keinem anderen Bereich, außer angeblich dem Consumer-High-End, würden sich AMD und Nvidia nur ins eigene Knie schießen.

Die hat es immer gegeben.

GTX 570 mit 1,25 und 2,5 GB
GTX 580 mit 1,5 und 3 GB
HD 4870 mit 1 oder 2 GB
usw...

Mit welchen Karten könnte man heute wohl noch halbwegs gut über die Runden kommen?

Wären 3GB zu wenig, hätte ich das doch irgendwie bemerken müssen.

Keine Ahnung, wie es um deine persönliche Wahrnehmumgsschwelle bei Rucklern bestellt ist.

Gehen wir aber mal weg von den Rucklern und hin zu den FPS: Merkst du denn den Unterschied zwischen 100 und 110 FPS?
 
Pilstrinker schrieb:
Die hat es immer gegeben.

GTX 570 mit 1,25 und 2,5 GB
GTX 580 mit 1,5 und 3 GB
HD 4870 mit 1 oder 2 GB
usw...
Die GPU-Leistung der genannten Karten ist für viele Spiele bereits auch zu gering. Und wie viele Spiele die zwischen 2008 und heute herausgekommen sind, haben zwingend riesige VRAM benötigt (nicht belegt!).
Das Plus an Speicher haben die Hersteller sich auch bezahlen lassen. Ob es sich für jemanden gelohnt hat oder nicht, kommt auf das individuelle Spieleverhalten der Person an.

Zeige doch einmal ein Spiel, das mit detailreichen Umgebungstexturen in jeder Lebenslage und nicht nur beim Charakter selbst glänzt. Aktuell geht es ja anscheinend weniger darum, dass die hochauflösenden Texturen auch wirklich viel bringen, als mehr darum welche Mengen an VRAM man belegen kann.

Den Unterschied zwischen 100 und 110 FPS merkt kein Mensch im wahrsten Sinne des Wortes (Fliegen dagegen mit ihren Facettenaugen evtl schon) (bezogen auf die reine Bildrate), da die theoretische physiologische Signalübertragungsfrequenz bei ca. 60-70Hz dicht macht (bei komplexeren Bildern im Vergleich zu reinen Lichtsignalen liegt das Maximum noch niedriger). Ob andere Effekte (tearing) weniger stark bei bestimmten Raten ausgeprägt sind, steht natürlich wieder auf einem anderen Blatt.
 
Zuletzt bearbeitet:
Ah ja, d.h., eine um bspw. 10% höhere GPU-Leistung verschwindet im Regelfall im Wahrnehmungs-Nirvana. Okay, das entspricht auch meinen Erfahrungen.

Es bleibt der Fakt, dass manche Spiele bei entsprechenden Settings auf Karten mit <= 4 GB ruckeln und auf Karten mit mehr Speicher eben nicht.

Das könnt ihr durch noch so viel Hin- und Herdiskutiererei nicht widerlegen.
 
ich bin gespannt auf die lösung von Nvidia für oculus rift. es sollen ja nicht wie bisher bei SLI die FPS einfach schneller / mehr in gleich zeit hintereinader ablaufen, sondern für jedes auge rechnet eine karte. bin gespannt ob es einen positiven effekt hat.
 
Zur Zeit muss ich für meine Lieblingsanwendung auf der Rift das SLI abschalten, damit sie überhaupt vernünftig läuft.
Aber ist ja noch alles WIP.
 
ob wohl noch vor weihnachten eine gtx970 mit 8gb vram kommt? :D
 
November/Dezember sollen die GTX 970/980 mit 8GB kommen.
Ergänzung ()

HisN schrieb:
Zur Zeit muss ich für meine Lieblingsanwendung auf der Rift das SLI abschalten, damit sie überhaupt vernünftig läuft.
Aber ist ja noch alles WIP.

Du hast zu viel Geld! Und zu viel Zeug!
Aber das schlimmste ist... ich bin irgendwie neidisch! :rolleyes:
 
Nich neidisch sein
Macht nicht glücklich^^
 
@ Pilstrinker

Dass es diverse Anwendungs- und Einstellungsszenarien gibt, in denen dies bei einer bestimmten Spieleauswahl zutreffen kann, bestreitet doch keiner...
Dies rechtfertigt aber noch lange nicht irgendwelche VRAM-Größen pauschal als ungeeignet hinzustellen, wie es ja aber hier bei von einigen getan wird (und dann auch noch ständig mit der Ram-Belegung diskutieren und nicht mit dem tatsächlich Verbrauch).

Beziehst du die 10% auf den Unterschied zwischen der Titan und der 780Ti?
Wenn ja, dann ist auch hier wieder das Anwendungsspektrum des Spielers entscheidend:
https://www.computerbase.de/artikel...seite-4#diagramm-call-of-duty-ghost-2560-1600 Die ti bringt in diesem Szenario im mittel 22% mehr Leistung. Und gerade wenn man sich die absoluten Zahlen anschaut, macht es durchaus einen kleinen aber spürbaren Unterschied, ob man im Schnitt 36,6 oder 44,6 fps hat. Dass die minimum-Frames hier nicht ausgewertet werden oder man z.B. den Durchschnitt des 5%-Quantils der Frames angibt um die Fehleranfälligkeit zu reduzieren, zeigt mal wieder das überholte Testverfahren von Computerbase (aber das ist wieder eine andere Sache)... Aber laut anderen Seiten scheinen diese in dieser Auflösung auch relativ unauffällig zu sein.
Wie zum wiederholten Male geschrieben: Es gibt kein pauschales zu viel/zu wenig/besser/schlechter.

Du bist übrigens noch nicht darauf hin eingegangen, warum die Steamstatistik für eine grobe Einschätzung des Spielervolks völlig irrelevant sein soll und warum Notebookbesitzer nicht zum Spielermarkt gehören.
 
@seppuku

Hier wird pauschalisiert? Von mir jedenfalls nicht.

Aber zurück zum Thema:

Die 10% Unterschied beziehe ich nicht auf irgendwelche bestimmte Grafikkarten, sondern nur auf die FPS und die Möglichkeit, diesen Unterschied zu erkennen oder auch nicht. Und du schreibst ja, dass man den nicht bemerken kann. Das hat meine Frage geklärt.

Hm, und wenn ich mir die Diagramme aus deinem Link so angucke, liegt irgendwie immer die Titan Black@max an der Spitze. Dahinter kommt dann irgendwann die GTX 780 Ti@max. Und da eine GTX 780 Ti@max ausgerechnet einzig in dem Szenario nicht besser abschneidet als eine GTX 780 Ti@Stock (beide sollen 44,6 FPS liefern - sehr zweifelhaft), halte ich einen Fehler im Diagramm für sehr wahrscheinlich.

Um auf die Notebookbesitzer zurück zu kommen: Ich habe nie behauptet, dass sie nicht zum Spielermarkt gehören können. Halt zum Markt der Notebookspieler mit entsprechend eingeschränkten technischen Möglichkeiten. Das hindert die Spielentwickler aber nicht, für die Desktoprechner ganz andere bspw. grafische Möglichkeiten zu implementieren. Wer ein Notebook besitzt oder einen Rechner mit einer nicht ausreichenden Hardware, wird halt immer häufiger die Regler ganz nach links schieben müssen.

Was die Steam-Statistik angeht: Schön zu wissen, dass in der "Steam Community" über 50% der Grafiklösungen über 1 oder weniger GB VRAM verfügen. Aber wie schon oben geschrieben: Das hindert die Spieleentwickler nicht.

Rein interessehalber: Was - außer, dass eine Steamnutzerumfrage Bestandteil ist - weiss man sonst eigentlich über die Steam-Statistik, deren Methodik, usw.? Gibt es da von Steam bzw. Valve weitergehende Informationen?
 
Bin mal gespannt auf die GTX 960. Laut Gerüchten ist es nächste Woche soweit.
Hoffe auf eine ITX-Variante wie die der 270X von MSI.
 
Nachdem die 970 und 980 schon so enttäuschend waren wird es bei der 960 bestimmt nicht besser sein.
 
Mal etwas zur VRAM Diskussion: http://www.pcgameshardware.de/Assas...0-Fps-auf-Playstation-4-und-Xbox-One-1138409/ Ein Spiel, welches knapp ein Jahr nach dem Release der Next Gen Konsolen auf den Markt kommt, muss bereits auf 900p und 30FPS beschnitten werden, weil der olle 8-Kerner der Konsolen nicht nach mag. Und jetzt will mir allerernstens jemand hier verklickern, dass WEGEN den Konsolen in Zukunft Grafikkarten mit 4GB VRAM am Limit laufen? Auf den ersten Blick hat beides nichts miteinander zu tun, aber wenn man bedenkt, dass anscheinend bei den Konsolen HW-technisch schon wieder Eisenbahn ist, sehe ich der VRAM Diskussion gelassen entgegen...
 
@mfJade
Netter Trollversuch.


@AnkH
Was hat mangelnde CPU-Leistung bitte mit VRAM zu tun? Davon abgesehen rendern die Konsolen gerade mal in 900p mit wahrscheinlich niedrigem AA. Kommt deren üppigen VRAM sogar noch zugute. Kannst dir ja GTX770 mit 2GB holen, bekommste sicher hinterhergeschmissen.
 
Ich weiß dass alle hier total ausflippen und sich ein wenig nass machen weil die Leistung ja so toll sein soll. Es wurde ja schon häufig genug von genug anderen erwähnt dass die Karten Blender sind und ihr euch von der PR an der Nase rumführen lasst. Ich gehe jetzt nicht nochmal drauf ein.

Ist doch eigentlich merkwürdig dass man sagt man muss die Auflösung beschneiden weil die CPU-Leistung zu niedrig ist, je höher die Auflösung desto weniger wird die CPU gebraucht...hmm...
 
mfJade schrieb:
Ich gehe jetzt nicht nochmal drauf ein.

Bitte erläutere uns doch wieso wir uns von der PR blenden lassen. In meinen Augen (und damit scheine ich dem Tenor in diesem Thread zu entsprechen) sind die Karten in Spielen Performancemäßig sehr gut ohne neue Maßstäbe zu setzen und haben dabei einen angenehm geringen Verbrauch.

Bei den Konsolen stimme ich dir zu. Wenn die Konsolen doch mit ihreren vergleichsweise schwachen GPUs schon 100fps schaffen würden: Wieso nur 900p?
 
Ich weiß dass alle hier total ausflippen und sich ein wenig nass machen weil die Leistung ja so toll sein soll. Es wurde ja schon häufig genug von genug anderen erwähnt dass die Karten Blender sind und ihr euch von der PR an der Nase rumführen lasst.
Warum hast Du dir dann dennoch eine 970er geordert & Du beachtest mal wieder nicht "den Markt" ... :p


edit:
Netter Trollversuch
Ich kenn es gar nicht anders ...^^
 
Thanok schrieb:
Bitte erläutere uns doch wieso wir uns von der PR blenden lassen. In meinen Augen (und damit scheine ich dem Tenor in diesem Thread zu entsprechen) sind die Karten in Spielen Performancemäßig sehr gut ohne neue Maßstäbe zu setzen und haben dabei einen angenehm geringen Verbrauch.

Ich verlinke hier mal den Beitrag von met

Kurzfassung meiner Ansicht: Die 970 müsste deutlich schneller als die 780Ti sein da sie ja die stärkste Karte der Vorgeneration ist, ist sie aber nicht. NVIDIA hat es erfolgreich geschafft die 780Ti so zu platzieren, dass niemand auch nur auf die Idee kommt zu sagen dass sie an den 900ern gemessen werden muss. Ich verstehe nicht warum das keinen stört. Bisher haben die X60(Ti) - Karten der Nachfolger die stärkste Karte der Vorserien eingeholt, jetzt plötzlich nicht mehr? Wie ich schon mehrfach erwähnt hatte ist die 970 und 980 ihre Bezeichnung nicht wert. Angemessener wäre 960 und 960 ti. NVIDIA verschiebt das Leistungs/Bezeichnungsspektrum um eine stelle nach links und keinen juckts.

@ SuddenDeathStgt
Ja ich habe mir eine 970 geordert weil sie die doppelte Leistung von meiner 660 Ti hat und ich diese jetzt benötige, alles andere wäre bar jeder Vernunft...
 
Zuletzt bearbeitet: (Beitrag wiederhergestellt)
Zurück
Oben