Leserartikel VRAM-Usage aktueller Titel

Ich weis auch nicht genau ob das die AMD jetzt können oder nicht, y33h@ meint ja das sie das auch können sogar doppelt? Naja Tessellation ist ja auch in der 6. Stufe verbaut und sogar mit Treiber Update noch weit hinter Fermi. Von dem her funktioniert das hald einfach bei NV und bei AMD nicht.

Also DMA heisst ja Direct Memory Adressing (oder so xD) und ist nur die Technik um direkt auf den Speicher zuzugreifen.
Das ist das, war bei den Karten ab G80 gefehlt hat.
Fermi kann jetzt auch DMA, allerdings können sie angeblich Befehle beliebig abarbeiten, gerade wenn die Daten vorhanden sind oder eben nicht.

nVidia hätte demnach CPU-Technik in die GPU gebracht, ohne dass sie CPU-Technik hätten.
 
nVidia hätte demnach CPU-Technik in die GPU gebracht, ohne dass sie CPU-Technik hätten.
Also ich finde auch das man es mit der "out of Order" Technik vergleichen kann. Ich glaube das stand sogar auch im PCGH Artikel. :rolleyes:

Die NV GPUs gleichen sich sowieso von Architektur zu Architektur immer weiter an die CPUs an. Man sieht recht deutlich was NV mit den Intel Servern so alles machen will.

Nichtsdestotrotz würde eine GTX 580 3GB einen ordentlichen Schub in der 30" Liga bekommen und die alte Rangordnung zur HD 6970 wieder herstellen. Aber zumindest verhindert das Feature einen kompletten Reinfall, wie es noch bei der HD 5870 zu sehen war. Zb. Metro DX 11.

Allein wegen dem Feature sehe ich den Kauf der GTX 580 nun wesentlich gelassener entgegen. Das wird schon alles klappen, die Fermi Architektur hat ja auch sehr viel Potenzial, einzig das die GPU keine hohen Temps verträgt stößt mir sauer auf. Um auf die Performance per Watt von AMD zu kommen muss das ganze PCB so kühl wie möglich sein. Aber man kann eben nicht alles haben. Wenigsten ist es möglich die Effizienz relativ einfach zu steigern.

Bei HD 2900XT und 5800Ultra ging das noch nicht. Bzw. es hat keinen interessiert.
 
Selbst 3GB würden keinen wirklich großen Schub in der breiten Masse der Spiele geben. Dass die 6970 in 2560x1440 so stark ist liegt, meiner Meinung nach an den neuen ROPs die deutlich schneller sein solln als die des Cypress.

Zum Thema DMA: Wie du dir das vorstellst, dass die GPU Daten an den RAM schickt und weil der so langsam ist macht sie in der Wartezeit was anderes, kanns mMn nicht sein. Vielleicht macht sie dass, aber das kann keinen Totalausfall verhindern. Dann dropt sie viell von 40fps auf 10 und nicht auf 2, aber zB in F1 bringt selbst die GTX570 noch >30fps und wenn der 580 schon der VRAM ausgeht, dann müsste die 570 ja einfach nur krass einbrechen.

Ich denke du redest dir das ein bisschen schön, mag sein dass Fermi ein gutes VRAM Management hat, aber das kann keine 300-500MB auffüllen, wie dus hier beschreibst. In F1 geht reicht der RAM einfach noch.
 
Zitat von bensen

Was heißt alle Generationen? Bei Nvidia erst seit Fermi. Das direkte mappen von Systemspeicher ging bei G80-GT200 ja nicht, das war ja der ominöse VRAM-Bug.

Sorry, mein Fehler.

Zitat von HisN

Speicher im Systemram anfordern ist doch ein AGP-Feature. Überlegt mal wie lang es das schon gibt. Geforce2?

Jo, isses. :)

Direct Memory Adressing

Access wird es wohl sein, glaub ich. ;)

EDIT:

@ Jenergy

Was ich so im Kopf habe, wurden aber auch Verbesserungen an den ROPs selber vorgenommen.
 
Ich habe kurz mal das Datasheet zu der GTX 580 angeschaut und habe einfach mal alles rausgeschrieben was alles zusammen etwas mit der Speicherverwaltung zu tun haben könnte.
Vieles ist auch nur unter GPU-Computing abgelegt, allerdings glaube ich, dass nVidia die auch bei non-GPU-Computing Anwendungen automatisch anwendet.

BC6H and BC7 texture compression format

Advanced lossless compression algorithms for color, texture, and zdata

Out of order thread block execution


• Improved Memory Subsystem
NVIDIA Parallel DataCache hierarchy with Configurable L1 and Unified L2 Caches

Greatly improved atomic memory operation performance

EDIT: Ob die aber wirklich etwas damit zu tun haben weiss ich nicht. Ich wollte auch nur noch mehr Stichwörter einbringen um so mögliche Erklärungen herbeizuführen.
 
Zuletzt bearbeitet:
HisN schrieb:
Ich dachte das war genau andersrum, die haben so lange Speicher angefordert bis die Graka vor Swappen mit dem Systemram total eingebrochen ist.
So wie ich das mal gelesen habe, hat der G80 wenn der "VRAM" voll war, in den Sytsem-RAM geswapt anstatt direkt in den System-RAM zu schreiben. Und dieses andauernde swappen war dann eben die Krücke.

Wenn ich jetzt noch wüsste woher ich das habe.:D
 
meiner Meinung nach an den neuen ROPs die deutlich schneller sein solln als die des Cypress.
Du kannst ja mal ausprobieren was passiert wenn du 4x. HD 5870 1GB wassergekühlt extrem max. OC durch Stickstoff im CFX laufen lässt. Dann hast du massig mehr Rop Leistung bzw. Rohleistung als eine HD 6950 2GB. Du wirst es nicht schaffen Metro DX 11 oder all die anderen Vram Fresser flüssig zu bekommen. 30" Liga ist immer Vram Liga. Erst recht mit MSAA. Wenn die Karten keinen Vram Vorteil ziehen können sind sie ja allen zu langsam(22"), gibt ja genug Meckerer, "ach meine HD 5870 1GB ist ja genau so schnell wie eine HD 6950, da muss ich ja nur OC und dann bin ich schneller" usw...


In F1 geht reicht der RAM einfach noch.
Nope reicht nicht, guggst du CF v. SLI. Mit der entsprechenden Rohleistung kann dann eine Cayman eine Fermi weit überholen.

Außerdem haben wir die Vram Zweifler quasi immer wieder, bis dann immer wieder die Karten mit mehr Vram aufkreuzen und irgend wann dann mal die richtigen Settings getestet werden und dann sieht man es dann irgend wann mal wieder das der Vram so viel bringt. Warum wundert das euch denn überhaupt noch wenn man eine GPU kastriert das sie dann so einbricht. Eine 6Kern CPU mit 1-2GB Ram ist doch auch für die Tonne.

Der krasseste Beweis das Cayman so viel Vram braucht sind ja die 2 Karten mit 2GB in der Referenz für einen günstigen Preis. Es muss schon allerhöchste Zeit sein wenn sich AMD zu so einem teuren Schritt entschließt.


Ich denke du redest dir das ein bisschen schön,
Werden wir bald sehen, wenn eine Fermi mit HD Mod + MSAA immer noch nicht ins unspielbare einbricht hinter Cayman dann taugt die Verwaltung wirklich was, wenn nicht, dann hat Fermi versagt.

Aber ich glaub wir wiederholen uns schon zum 3. mal jetzt. Fermi kann zaubern, das ist Fakt(Benchmarks), da gibts nix schön zu reden.

Out of order thread block execution
Also ganze Threads werden out of order abgefertigt, wenn man bedenkt das eine GPU hunderttausende(CPUs mal wieder komplett in die Ecke gestellt) Threads hat, dürfte das gut reinhaun.

Vram Kompression wurde auch verbessert und
Greatly improved atomic memory operation performance
Da haben wir wahrscheinlich die 3 Bausteine die zum Wunder vom Fermi führen.
 
Zuletzt bearbeitet:
@ Fhat the Wuck

Die L1 und L2 Caches sollten aber rein gar nichts mit dem VRAM zu tun haben.
 
Kasmopaya schrieb:
GTX 580, was anderes lohnt sich bei dir fast nicht, wird aber ein teurer Spaß :D

Jo... der Preisunterschied ist einfach zu hoch für das was ich an Mehrleistung gegenüber der 5870 bekomme... da leb ich lieber mit reduzierten Details (betrifft ja nur ein Spiel) und überspring wie üblich eine Generation.

Aber danke für die Hilfe, lieber so, als dass ich mich nach dem Kauf einer 2. 5870 ärger, dass sie nichts bringt...

(ist mir mit meinen 2 HD3870 unter UT3 ja auch so gegangen... da lief auch nix)
 
Die L1 und L2 Caches sollten aber rein gar nichts mit dem VRAM zu tun haben.
Ja, das weiss ich, ich habe halt einfach den ganzen Abschnitt reinkopiert.
Aber ganz weglassen kann man den auch nicht. Wenn Fermi Out-of-Order kann, dann ist es von Vorteil wenn man schnelle Caches hat und noch besser wenn die Caches dynamisch verwendet werden können. grundsätzlich hast du aber recht und dieser Abschnitt würde sowieso unter GPU-Computing stehen.
 
Jop, ist auch wieder schlüssig.
 
Vermutlich wegen fehlender Schnittstellen nicht möglich.
 
Das mit color und zrate hat auch eher nichts mit Vramsparen, sondern eher Bandbreitensparen für MSAA zu tun. Zieht tendenziell sogar etwas Vram.
 
Wenn Fermi Out-of-Order kann, dann ist es von Vorteil wenn man schnelle Caches hat und noch besser wenn die Caches dynamisch verwendet werden können. grundsätzlich hast du aber recht und dieser Abschnitt würde sowieso unter GPU-Computing stehen.
Ich glaub auch das die Vram Verwaltung erst durch GPGPU möglich wurde. Ich mein die GPU L1 and Unified L2 Caches sind ja erst wegen GPGPU eingebaut worden. Und wir Gamer profitieren hald davon das man durch diese wiederum out of order realisieren kann und somit die Vram Veraltung verbessert hat.

Wirklich glänzen werden die Features aber erst im GPGPU Bereich, da man somit der CPU immer weiter auf die Pelle rückt. Dann ist es auch logisch warum AMD das nicht hat, die haben ihren Chip noch hauptsächlich auf Gaming ausgelegt und weniger GPGPU Features unter gebracht. Das Bild fügt sich Stück für Stück zusammen.
 
Ich glaub auch das die Vram Verwaltung erst durch GPGPU möglich wurde. Ich mein die GPU L1 and Unified L2 Caches sind ja erst wegen GPGPU eingebaut worden. Und wir Gamer profitieren hald davon das man durch diese wiederum out of order realisieren kann und somit die Vram Veraltung verbessert hat.

Die GPUs hatten immer schon Caches und die haben wohl kaum etwas mit VRAM-Nutzung zu tun.

Äußerst (!³) grob gesprochen wäre das so, als ob ich sagen würde: "Hey, meine CPU hat ein neues Cachesystem, dadurch wird mein RAM besser genutzt."
 
Warum nicht, das sind keine normalen Placebo Caches, sondern komplett neue, die sonst keiner hat.
Caches -> out of order -> Vram Mangement -> FPS. Also für mich ist das logisch.
Wird ja auch mal Zeit das uns der dicke Chip der auf max. GPGPU ausgelegt ist auch was in spielen bringt...
 
Was hat denn Out-Of-Order mit VRAM-Management zu tun?
Nehmen wir an, wir brauchen Berechnung A und Berechnung B für ein fertiges Bild.

Für A fehlen noch Daten, für B sind alle da.
Wenn man nun an B weiterechnet, weil einem für A noch die Daten fehlen, dann mag das toll sein, aber wenn ich nicht nur B sondern auch A fürs Bild brauche, habe ich dennoch ein gewisses Problem. Ergo sehe ich nicht, wie das eine mit dem anderen zusammenhängen soll. Und komm mir nicht mit einem PCGH, das du partout nicht zitieren willst. ;)
 
Zuletzt bearbeitet:
Der Caches ist ja gerade da um das Auslagern auf den Vram zu verhindern (schnelles zugreifen auf Daten) Aber das mit den VRAM-sparen klingt mir dennoch absurd.
 
Vor allem, wenn man die akkumulierte Cachegröße bedenkt, die wohl kaum derartigge Mengen an VRAM substituieren könnte.
 
Zurück
Oben