BlauX schrieb:
Beispiele.. ich bitte dich, gibt es zahlreiche überall. Ich trage dir nicht den Hintern hinterher! Und das deine Ti nicht so Problematisch ist, zeigt nur, dass du keine Ahnung von dem Problem hast, bei den 970er. Lies dich nochmal genauer ein, wieso deine Ti nicht solch ein Problem hat, die 970 hingegen schon.
Mit 2x 970 lastest du den Speicher schneller aus, genau das, was Probleme macht... du kriegst die Rohleistung beider einfach nicht auf die Strecke, der Speicher zeigt dir den Mittelfinger.
Wenn du sowas empfiehlst, sorry... stille Treppe!
An deiner Antwort sieht man, das du meinen Beitrag nur zur Hälfte gelesen oder eben nicht verstanden hast.
Das zeigst du auch hervorragend mit deinen aggressiven Antworten
cruse schrieb:
die grottigen frametimes kommen ja genau durch den "vram-mangel".
die letzten 512 mb sind nur mit nem bindfaden angebunden, der rest mit nem starkstromkabel.
Nein, eben nicht. Genau das ist die Thematik, die BlauX nicht versteht
Das ist genau der Grund wieso du z.B. mit den TI´s und deren 3Gb VRAM nicht diese Probleme hast.
Die grottigen Frametimes kommen von der lausigen Speicherverwaltung und nicht wegen der Menge des VRAM´s.
Nochmal ausführlich:
Hatte man früher einen kompletten Speichercontroller abgeschaltet, um Chips mit kleineren Herstellungsfehlern, die in diesem Bereich lagen, noch verkaufen zu können, ist man bei Maxwell feinkörniger geworden. Anstelle eines kompletten Blockes aus L2-Cache, Rasterendstufen (ROPs) und Speichercontroller kann Nvidia bei Maxwell innerhalb dieses Schaltungsblocks auch einzelne Hälften der Level-2-Cache-Partitionen mit angehängter Achtfach-ROP abschalten.
Die Speichercontroller arbeiten im standardmäßigen 3,5-GiByte-Modus
nur sieben- und nicht achtfach parallel, sodass die Performance für Zugriffsblöcke, die größer als 7× der Stride-Size sind, entsprechend sinkt.
Bei der Geforce GTX 980 ist jedem der acht L2-Abschnitte ein 32-Bit-Speichercontroller mit je 512 MiB (4 GBit) GDDR5-RAM zugeordnet. Um die Zugriffe möglichst effizient und schnell abzuarbeiten, werden die Daten in kleine Häppchen zerlegt und reihum ("round robin") an die L2s mit ihren Controllern verteilt. So wird aus acht 32-Bit-Controllern das parallel arbeitende 256-Bit-Interface.
Bei der Geforce GTX 970 ist das im Prinzip ebenfalls möglich, jedoch gibt es einen Bereich, in dem der L2-Block abgeschaltet ist. Während in früheren Geforce-Generationen gleich auch der zugehörige Speichercontroller deaktiviert werden musste, ist es bei Maxwell möglich, dass ein L2-Block zwei Speichercontroller versorgt. Solange eine niedrige Last auf dem Speichersystem anliegt, funktioniert das auch problemlos. Wenn jedoch viele Zugriffe anstehen und die Controller überbeschäftigt sind, stauen sich die Anfragen ("Requests") in den Warteschlangen ("Queues") der L2-Blöcke.
Dieser Datenstau würde sich bei der L2-Partition, die zwei Speichercontroller bedienen muss, natürlich doppelt so schnell einstellen. Da die Daten jedoch zugunsten der Parallelität aufgesplittet werden, würde durch diesen lokalen Rückstau die Datenversorgung der Shader-Engine deutlich gebremst.
cruse schrieb:
ich lass meine 970 ziemlich oft auf UHD DSR laufen - mit annehmbaren fps. AA kann man ja ausschalten. diverse andere sachen kann man meistens auch ohne qualiverlust abschalten. texturen stell ich sogut wie immer auf ultra und schon sieht man kaum unterschiede.
UHD ist auf jeden fall jetzt schon spielbar
Genau das sagte ich ja auch bei der Frage von takeashi, aber laut BlauX ist diese Aussage ja "Bullshit"