News Nvidia GeForce GTX 980 mit 8 GB noch in diesem Jahr

kidlon schrieb:
Ha, da liest man Radeons mit 8 GB und denkt sich, schöner versuch mitzumischen zwischen den neuen 970/980ern und
*zack* kommt die nächste News mit 8GB auf ner GTX 980.. Thats gotta hurt :)

:rolleyes:
 
Die DAUs glauben natürlich nur weil irgendwo etwas von Speicherauslastung angezeigt wird das dieser VRAM auch tatsächlich benötigt wird.

Das ist ähnlich wie mit Arbeitsspeicher und Windows.
Umso mehr Arbeitsspeicher verfügbar ist, desto mehr wird reserviert - der jedoch jederzeit freigegeben werden kann.

Und genauso funktioniert das auch bei GPUs und Spielen.

Mordors Schatten läuft übrigens auch auf einer 1GB GPU einwandfrei in 1080P nur zur Information.
Klar das hier nicht Ultra drin ist, aber auf Medium funktioniert es perfekt und sieht nicht übel aus.
 
Ausnahmen sind natürlich Spiele, in denen die fps-Rate quasi sofort einbricht, weil die x GB nicht reichen.

Und für was anderes als diese "Ausnahmen" kauft man sich solche Karten?

Legt jemand ernsthaft € 600,- auf den Tisch in dem Wissen, sich dann wegen Speichermagel diese Ausnahmen in verringerter Qualität zumuten zu müssen?
 
GPU-Joe schrieb:
Dazu müsste man ausführliche Tests machen mit Frameverläufen und auf Nachladeruckler achten.

Ja dann gehe hin. Gerade die Nachladerucklervideos sind ja nun auf PCGH schnell zu finden.
 
Wie sage ich immer: Wettbewerb belebt das Geschäft. Aber könnte dann nicht die Speicherbandbreite ein Flaschenhals werden?
 
Lahatiel schrieb:
War so klar, dass Nvidia antwortet ... endlich auch offiziell!
das ist alles andere als offiziell.
der ursprung dieser meldung ist nur auf der asiatischen seite zu finden, welche ihrerseite keinerlei angaben zur quelle macht.
 
Exaktementenen l33tz0r

Mein gemoddetest Handy hat sehr viel Speicher im Gebrauch. Wenn eine Applikation via malloc oder so anfragt, werden Speicherbereiche freigegeben, auf denen kein OpenCount mehr besteht, sogenannte MemoryChunks. All das dient dem preemptiven Multitasking mit Semaphoren und so. Semaphoren sind Ampeln.

Wenn man natürlich die Hütte mit Texturen nur so voll schiesst, dann und gerade dann bekommt man scrollfreies Ruckeln.
 
HisN schrieb:
Warum nicht?

Da gehen mir die 6GB aus. Es fängt bei 360° Turns an zu ruckeln wie sau. Und das obwohl die Rohleistung meiner Titanen dafür ausreicht. Also sollten das 980er auch schaffen.

Und nicht immer nur an Games denken.
Einfach mal Blender anschmeißen, den Cycles-Renderer aktivieren und die Tile-Size hochschrauben. Da sieht man ganz schnell für was VRAM gut sein kann.

Kannst du auch andere Beispiele als Shadow of Mordor zeigen?
Das dieses Spiel schlecht Optimiert wurde und einfach nur viel Vram wegzieht obwohl die Texturen nicht grade der knaller sind wurde ja schon von mehreren PC Zeitschriften bestätigt.
 
@DigitalIllusion
@ l33tz0r


Genau, deswegen ruckeln Spiele auf Karten mit zu wenig VRAM und ruckeln nicht auf Karten mit ausreichendem VRAM.

Ist ja schließlich so wie bei Windows... ;)
 
HisN ist nicht Dumm,

wenn ich hier mehrere Monitore befeuern müsste, bräuchte ich auch die Titanen mindestens.

Das ist ein Faktum heute zu dieser Stunde !

Ich hatte eine GTX670 mit 2GB VRAM in 60Hz auf 1920x1200. Da hat gar nichts geruckelt, nie und nimmer.

Ich richte es so ein, das nichts ruckelt.
 
Zuletzt bearbeitet:
@m.Kobold
Mordors Schatten wurde nicht schlecht optimiert. Selbst spielen und nicht immer alles nachreden. Es läuft exzellent. Schon von Anfang an. Es hat lediglich als Zugabe diesen so von euch "verhassten" kostenlosen HD-Texturen-DLC, der - zugegeben - jetzt optisch nicht sonderlich opulent ist, aber immer wieder gefordert wird, wenn es um Texturen geht. Da tut mal wer den Leuten einen Gefallen und schon wird ein Strick draus gedreht.
 
Ich hoffe der BigMaxwell kommt dann auch mit 8GB VRAM und geht mit einer ordentlichen Performancesteigerung von 20-30% zur GTX 980 einher. Dann könnte ich vielleicht mal über einen Austausch meiner GTX 780 nachdenken, denn auf eine normale 980 umzurüsten nützt mir eigentlich nichts, da die Mehrperformance kaum zu spüren ist.
 
Lahatiel schrieb:
Jetzt fängt es ja erst langsam an zu zwiebeln. Die Entwickler loten ihre Möglichkeiten aus. Lord of the Fallen frisst auch schon wieder wie nichts gutes aber absolut flüssig zu jeder Zeit.

Ja ich hoffe das wird sogar besser. So kann man z.B. bei guten Texturen und guter Auflösung auf AA/AF verzichten.

Lahatiel schrieb:
Das wird nicht weniger werden und wer nicht ständig nur maulen möchte, dass ja "eigentlich auch weniger Speicher gereicht hätte und die Nachladeruckler nerven", sollte sich das Polster ruhig zulegen.

Kann man so unterschreiben :) Ich bin aktuell noch mit meiner 660 Ti zufrieden mit 2 GB da langt alles für 1440.
 
Diese kostenlose Zugabe wird zudem als durchaus besser aussehend beschrieben. Es existiert also sehr wohl ein Unterschied zwischen High und Ultra.

Der wird aber dummerweise immer von den Leuten nicht erkannt, die zufälligerweise irgendwie nicht über die zur vernünftigen Wiedergabe ausreichende Hardware verfügen.
 
Lahatiel schrieb:
@m.Kobold
Mordors Schatten wurde nicht schlecht optimiert. Selbst spielen und nicht immer alles nachreden. Es läuft exzellent. Schon von Anfang an. Es hat lediglich als Zugabe diesen so von euch "verhassten" kostenlosen HD-Texturen-DLC, der - zugegeben - jetzt optisch nicht sonderlich opulent ist, aber immer wieder gefordert wird, wenn es um Texturen geht. Da tut mal wer den Leuten einen Gefallen und schon wird ein Strick draus gedreht.

Ich habe Mordors Schatten auf meinen PC gespielt, das Spiel an sich ist auch gut Optimiert... abgesehen von der VRam auslastung... aber dieses HD Texturen pack besteht nicht aus solchen supertollen HD texturen das man angeblich Plötzlich 6GB Vram bräuchte... nicht mehr und nicht weniger behaupte ich, also erfinde bitte nicht irgend etwas dazu.
 
Zuletzt bearbeitet von einem Moderator:
Lahatiel schrieb:
@Herdware
Es behauptet doch gar keiner, dass die mit 4GB neu kaufen sollen. Anhang anzeigen 450581
Es geht um den Sinn einer 8GB-Karte und den gibt es durchaus.

Keiner würd ich nicht unbedingt sagen. ;)

Es hier gab sogar welche, die haben mir ernsthaft weiß machen wollen, dass es schon vor einem Jahr eine schlechte Entscheidung war, eine 780Ti mit "nur" 3GB zu kaufen. Dabei gab es zu der Zeit eigentlich gar keine wirkliche Alternative dazu. Höchstens eine 6GB-Titan mit weniger GPU-Leistung für den doppelten Preis.

Derzeit (wie gesagt 1 Jahr später) haben wir halt gerade den Anfang der Übergangsphase von 3-4GB als Maximum bei High-End Karten (Titans lasse ich mal außen vor ;) ) zu optionalen 6-8GB.

Wer sich jetzt noch ein 4GB-Karte kauft oder gar schon eine hat, muss sich deshalb sicher nicht in den Hintern beißen. Auch in den nächsten Wochen und Monaten kann es durchaus noch eine sinnvolle Entscheidung sein, sich eine High-End-Karte ohne extra großes VRAM anzuschaffen, wenn der Preisausschlag für 8GB zu groß ist.
Wenn man allerdings mehr VRAM ohne größere Mehrkosten bekommen kann, würde ich den aber natürlich immer mitnehmen. Schaden tut er nie. (Abgesehen vielleicht von zu vernachlässigen Leistungseinbußen wegen der komplexeren Speicherverwaltung.)

Wer hingegen aufgrund besonderer Anforderungen jetzt wirklich schon mehr als den üblichen VRAM wirklich braucht, der weiß das, wie HisN richtig schreibt, auch garantiert schon selbst ganz genau und braucht dafür keine VRAM-Krüppel-Warnungen von irgendwelchen Foristen (damit bist jetzt nicht du gemeint).

Ich habe auf meine Anforderungen bezogen jedenfalls keine Sorgen. Auch ich hab die VRAM-Belegung in Spielen per G13-Display immer im Blick und weiß, dass meine 780Ti derzeit für mich nicht an Grenzen stößt.

Sollten zukünftige Titel optionale Ultra-Textur-Einstellungen bieten, die ich dann nicht auswählen kann, kann ich damit leben. Alles hat irgendwo Grenzen. Echte Zukunftssicherheit gibts bei PC-Hardware nicht. Z.B. kann ich mir in vielen Fällen das neue DSR schon jetzt abschminken, weil die GPU-Leistung der 780Ti einfach nicht ausreicht, weit über die 2560x1440 meines Monitors hinaus zu gehen.
Woran allerdings auch eine einzelne 980 mit 8GB nichts ändern würde und SLI-/Crossfire aus zwei oder gar mehr High-End-Karten, nur um (auch nur für begrenzte Zeit) wieder alles auf Maximum stellen zu können was geht, ist mir persönlich dann doch eine Nummer zu viel. :)
 
Pilstrinker schrieb:
Und für was anderes als diese "Ausnahmen" kauft man sich solche Karten?

Legt jemand ernsthaft € 600,- auf den Tisch in dem Wissen, sich dann wegen Speichermagel diese Ausnahmen in verringerter Qualität zumuten zu müssen?

Und wie oft gibt es diese Ausnahmen? Vor allem - sind die Settings, die zu diesem hohen Speicherbedarf führen, dann mit einer Karte spielbar? Bei SLI/CF lasse ich ja noch mit mir reden, wobei selbst das bei neueren Spielen grenzwertig sein könnte - zumal ich persönlich mit AFR nicht unter 50 fps spielen würde.

Lahatiel schrieb:
Ja dann gehe hin. Gerade die Nachladerucklervideos sind ja nun auf PCGH schnell zu finden.

Da ist die Frage - ist das schlampige Programmierung (Ausnahme?) oder wird das die Regel sein? Für mich hat es noch nie Sinn ergeben, sich wegen 1-2 Spielen spezielle Hardware zu kaufen. Es wird natürlich Leute geben, denen genau diese Spiele so wichtig sind, dass sie sich nur dafür 8 GB VRAM zulegen wollen, voll in Ordnung. Aber für die meisten der Käufer in dieser Leistungsklasse dürfte diese Menge in der Summe betrachtet schlicht Overkill sein. In 1-2 Jahren kann das aber wieder anders aussehen.

Lahatiel schrieb:
@GPU-Joe

Have fun. Wie gesagt: es wird bestimmt nicht weniger solche Titel geben, die das für volle Pracht so handhaben. Ich meine sogar: Witcher 3 wird hier wohl manchem anders argumentierenden in die Kauleiste rasen.

Wie sind die Lottozahlen von nächster Woche? "Bestimmt" weiß niemand hier etwas.
 
Zuletzt bearbeitet:
@GPU-Joe

Lord of the Fallen

Die ersten Gegner erschlagen:



Have fun. Wie gesagt: es wird bestimmt nicht weniger solche Titel geben, die das für volle Pracht so handhaben. Ich meine sogar: Witcher 3 wird hier wohl manchem anders argumentierenden in die Kauleiste rasen.
 
Zurück
Oben