Test Die GeForce GTX 970 und der limitierte Speicher

Werden eigentlich 200 MB des langsamen Speichers für den 2. Monitor verwendet oder des schnellen? Und weiß man schon genaueres zur Speichernutzung von DX12? Mir als SLI Nutzer würde es zugute kommen, wenn sich der Speicher verdoppeln würde.
 
Hm, was würde denn dagegen sprechen, dass nvidia nen Treiber raushaut, der dem 2. Bildschirm den langsamen Teil zuweist?
 
Entwickler sind zu teuer für solche Spielereien :D davon abgesehen is das aus meiner Sicht schwer Grafikspeicher nach Bildschirmen zu unterteilen. Wirtschaftlich wäre das eher ein reines Verlustgeschäft, denke nicht dass das so je kommen wird.
und was ist wenn man was grafisch anspruchsvolles auf den zweitmonitor packt? Dann hast du wieder einen Konflikt und die Rechnung geht nicht auf.
 
Jenergy schrieb:
Nvidia hat überhaupt nichts daraus gelernt. Anstatt die eigenen Fehler zuzugeben wurden Aussagen gemacht wie:

https://twitter.com/NVIDIAGeForce/status/560884158793515009oder

https://twitter.com/NVIDIAGeForce/status/560881138869497856

Dass es wahrscheinlich von 2.5Mio verkauften GTX 970 bisher nur etwa 5% Rückläufer gegeben hat (Quelle: kitguru.net), scheint Nvidia nicht aus der Ruhe zu bringen.

Aber die Sache ist noch nicht gegessen. Denn so wie's aussieht steht dem Konzern eine Sammelklage bevor. Ob diese dann auch Erfolg hat, ist alles andere als sicher. Zumindest wäre Nvidia, sollte es zu einer Klage kommen, gezwungen, öffentlich Stellung zu nehmen.

Ich schrieb "bis dahin" und Skylake ist weder noch erhältlich noch weiß du wann ich vorhab auf Skylake aufzurüsten.
Desweiteren würde ich dich für naiv halten wenn du an öffentlichen Verlautbarungen eines profitorientierten Unternehmens erkennen willst ob intern über entsprechende Maßnahmen diskutiert wird, oder glaubst das es überhaupt nicht thematisiert wird.
Wenn Maßnahmen getroffen werden, egal welche, wird niemand wissen ob sie unabhängig von diesem Vorfall sowieso getroffen worden wären und nur zu Marketing zwecken, um den Kunden zu beschwichtigen, zweckentfremdet werden, oder ernstgemeinte Wiedergutmachungen sind, vorausgesetzt sie werden nach außen kommuniziert.
Wenn keine Kommunikationen diesbezüglich stattfindet, weiß man aber trotzdem nicht mit Sicherheit, dass auch wirklich keine Maßnahmen getroffen wurden.
Und nein das hat nix mit Quantenphysik oder Schrödingers Katze zu tun ^^
 
Zuletzt bearbeitet:
Ich bin ein wenig spät mit einem Kommentar, aber für mich ist NVidia ganz allgemein gestorben. Ich bin Linux-User hatte in der Vergangenheit öfters NVidia-Harware gekauft, weil deren Closed-Source-Treiber eine Zeit lang besser war als jener von AMD. Mit der Hardware hatte die Entscheidung nur bedingt zu tun. Es waren viele kleine Mosaiksteinchen, welche dazu geführt haben, dass ich mich von NVidia abgewendet habe. Das GTX-970-Debakel war da nicht ausschlaggebend. Mich wundert es aber schon länger, wie oft NVidia auf asymmetrische Speicherkonfigurationen gesetzt hat. Sowas findet man bei AMD praktisch gar nicht. Bei NVidia ist es fast schon die Regel. Siehe z.B. auch GTX-550 Ti oder GTX-660.

Mein Fazit habe ich aber gezogen: Bei mir gibt es nur noch Grafik von AMD und intel. Intel hat super Open-Source-Treiber und wenn ich dedizierte GPUs brauche dann gibt es einfach AMD. Punkt.

Ich habe auch drei AMD-APUs zu Hause (2x A10-6700 und 1x A10-5700) und bin wirklich sehr zufrieden damit. AMD darf sich freuen, dass ich auch in Zukunft ein Auge auf ihre APUs haben werde. Auf die Zen-Architektur freue ich mich auch sehr und wünsche AMD viel Erfolg. Ich bin kein AMD-Fanboy, aber intel braucht einfach eine gute Konkurrenz. Seitdem AMD Mühe hat in der Prozesstechnik mit intel Schritt zu halten, kann intel den Markt frei nach ihrem Gusto dominieren. Das sieht man gerade bei intel auch an den Preisen.

Mir gefällt an AMD auch, dass sie bei den Features nicht sparen. Z.B. bessere DirectX-11.1/2-Unterstützung (für mich zwar nicht relevant) und bei den CPUs/APUs wird jeweils praktisch alles unterstützt. AMD ist immer noch ein Geheimtipp, wenn es um AES-NI-Unterstützung bei "kleinen" Kisten geht oder wenn man ein günstiges System mit ungepufferten ECC-Speicher realisieren will. Bei Letzterem kommt es aber auch darauf an, ob die jeweiligen Motherboards alle Datenleitungen zu den DIMM-Steckplätzen aufweisen. Bei ASUS ist das z.B. in der Regel der Fall und bei Gigabyte eben nicht. Nur bei den Kabinis haben sie ECC-Unterstützung gestrichen, aber das wäre dort auch Overkill.

Ich sage es jetzt nochmals mit den Worten von Linus Torvalds: "Fuck you, NVidia!"

https://www.youtube.com/watch?v=iYWzMvlj2RQ
 
Assassin's Creed: Unity und Far Cry 4 sind erste aktuelle Beispiele, die zeigen, welchen Weg die Entwickler einschlagen, die Spiele mit Fokus auf die Next-Gen-Konsolen PlayStation 4 und Xbox One entwickeln.

HA HA HA HA


unity verwendet auf der ps4 keinen AF - läuft in einer diashow mit um die 20 fps und das noch nicht mal mit ultra texturen obwohl die konsole massig ram zur verfügung hätte. die texturqualität entspricht etwa medium auf dem pc.

far cry 4 läuft in popeligen 30 fps und auf der xbox one in sogar nur 720p.

watch dogs verwendet ebenso keine ultra texturen auf der ps4 oder xbox one, obendrauf gibt es mal wieder nur 30 FPS.

mordors schatten verwendet auch keine ultra texturen auf der ps4 oder xbox one und auch das wurde mit der "holzhammermethode" optimiert - ergo 30 fps lock und fertig!

GTA V ... siehe oben. ebenso keine ultra texturen auf den konsolen und auch keine optimierung.
beide konsolen schwanken zwischen 20 und 30 fps. da versagte sogar die konsolentypische holzhammer-optimierung.

ALSO WAS SOLL DIESER VRAM VOODOO ?
sämtliche ULTRA TEXTUREN in den SPIELEN sind PC EXKLUSIV und haben NICHTS mit der X1 oder PS4 zu tun!
 
Zuletzt bearbeitet:
Genau...Konsolen sind nicht qualitativ besser als der PC...wann kapieren das die Leute?
 
Zurück
Oben