Leserartikel VRAM-Usage aktueller Titel

Aber das mit den VRAM-sparen klingt mir dennoch absurd.
Es wird ja auch nicht wirklich gespart, sonder nur damit anders umgegangen, also das Management wurde verbessert(das ist schon mal sicher anhand von Benchmarks) und zwar enorm. Man kann eben mit deutlich weniger Performance Verlust auf dem System Ram zurückgreifen.(das ist unsere Vermutung, anders lässt es sich gar nicht erklären)


Nehmen wir an, wir brauchen Berechnung A und Berechnung B für ein fertiges Bild.
Ne so krass ist es auch wieder nicht, ich glaub das wird immer innerhalb eines Bildes gemacht. Ansonsten hätte man ja unter Umständen einen Art µRuckler Effekt. Du kannst zb. vergessen das die GPU Sekundenlang auf irgend welche Daten wartet, das sind sehr kurze Zeiten, aber wenn GPU 1 dafür komplett anhalten muss und GPU 2 dabei an was anderen Weiterrechnen kann ist das ein sehr großer Unterschied.

Die Caches werden dazu benutzt damit die GPU überhaupt die out of Order Berechnung stemmen kann, das muss ja irgend wo gespeichert werden welcher Teil grad wo rumliegt und welcher Teil auf welchen wartet und welcher Teil als nächstes dran kommt, ohne das die GPU dafür anhalten muss. Also was ich damit sagen will, die neuen Caches ermöglichen erst eine so komplexe(hunderttausend Threads) out of order Funktion.

So um das mal so simpel wie möglich zu formulieren kommt jetzt wieder einer meiner berühmten Automobil Vergleiche: :D
Also ein Auto hat ein Doppelkupplungsgetriebe(DSG) das 2. Auto nicht. Ansonsten ist alles gleich. Motor, Modell, Farbe etc.
Auto 1 kann ohne Zugkraftverlust beschleunigen, während das 2. Auto beim schalten immer kurz für ein paar Millisekunden vom Gas muss. Klare Sache wer da schneller unterwegs ist.

das du partout nicht zitieren willst.
Es gibt nix zum zitieren, weil es online nix gibt. Durchforste mal selber die letzten 4-5 Ausgaben da isses drin. Also von 12/10-8/10. Außerdem hast du die Kurzversion schon bekommen nicht nur von mir. Da waren schon genug Fakten dabei.

So mal wieder keine Zeit.

MfG Kasmo

PS: Nice neues Futter für die GTX 580: http://www.4players.de/4players.php...66757/Total_War_Shogun_2/Battle_Report_2.html
PS II: Dragon Age II mit DX 11 und SGSSAA kann man mit einer 6970 auch vergessen. Bricht der Karte zum 2. mal das Genick.
 
Zuletzt bearbeitet:
Fermi ist mit SGSSAA auch nicht besser als Cayman außer es wird so ein HackAA wie in SC2 oder mit Unrealegine-Spielen verwendet.
 
Es gibt nix zum zitieren, weil es online nix gibt. Durchforste mal selber die letzten 4-5 Ausgaben da isses drin. Also von 12/10-8/10. Außerdem hast du die Kurzversion schon bekommen nicht nur von mir. Da waren schon genug Fakten dabei.

Wieso sagt mir dann y33h@, dass er sich in keinster Weise an einen derartigen Artikel erinnern kann, obwohl er mit einem Kollegen bei PCGH die Grafikkartenabteilung schupft? :D Ich denke nicht, dass er plötzlich Alzheimer bekommen hat.^^

Was deinen Vergleich betrifft, so mag der im Grunde richtig sein, nur hat das eigentlich nichts mit VRAM zu tun und um das ging es ja ursprünglich. Das Fermi so toll sei, dass er auch mehrere 100MB mehr als der VRAM eigentlich groß ist, wegstecken könne ohne einen typischen VRAM-Overflow mitsamt "Ende-Gelände-fps-Einbruch" zu haben. Das halte ich für nicht realistisch, zumal du für deine Behauptung außer deinen Vermutungen nichts wirklich belastbares dargelegt hast.

Nicht böse sein, aber ich finde das Humbug. Ich habe selber gesucht und absolut nichts darüber gefunden, was doch sehr kurios wäre, wenn das wirklich gehen würde, was du behauptest. Müsste doch zumindest in einem Whitepaper stehen, nVidia wäre doch blöd, würden sie ein derartiges Feature im Verborgenen schlummern lassen. Das macht keine Firma, deren Produkte eine möglichst hohe Leistungsfähigkeit haben müssen.

Irgendwelche Geeks hätten das zudem auf jeden Fall schon entdeckt, etwa die DS-Jungs im 3DC, weil DS nämlich VRAM ohne Ende säuft (genauso wie Shaderlast^^). Ich lass mich ja gerne eines besseren belehren, aber deine Aussagen sind eigentlich nur, wie erwähnt, deine eigene subjektive Ansicht ohne belastbares Material. Solange du da nicht mehr liefern kannst (wirst wohl oder übel du machen müssen, weil hier weder ich noch andere etwas dazu gefunden haben), kann ich dir schwer glauben. ;)
 
Wahrscheinlich, weil Carsten oder Raff es geschrieben haben ?^^


Ich denke nicht, dass er plötzlich Alzheimer bekommen hat.^^

Du, dass weiß man nie so genau :D
 
Zuletzt bearbeitet:
Spaßvogel, sowas erzählen die doch sicher einander, damit es einer aufm 3DC postet. :D
 
Wahrscheinlich, weil Carsten oder Raff es geschrieben haben ?^^
Rischtisch

Ich denke nicht, dass er plötzlich Alzheimer bekommen hat.^^
Oh doch das geht ganz schnell, merkt man ja bei dir, du vergisst auch ständig was ich ein paar Zeilen weiter oben schon ein paar mal geschrieben habe. ;)

nur hat das eigentlich nichts mit VRAM zu tun und um das ging es ja ursprünglich.
?Ähhh Vram Management? Seit wann hat das nix mit dem Vram zu tun? Stichwort Alzheimer. :D

Fermi ist mit SGSSAA auch nicht besser als Cayman außer es wird so ein HackAA wie in SC2 oder mit Unrealegine-Spielen verwendet.
Ich dachte Cayman kann unter DX 11 kein SGSSAA?

Das halte ich für nicht realistisch, zumal du für deine Behauptung außer deinen Vermutungen nichts wirklich belastbares dargelegt hast.
Alle Benchmarks die du so findest in denen Fermi nicht einbricht(obwohl der Vram eigentlich überlaufen müsste) zb. Metro. Ist ja nicht so das wir hier über 1 Game reden. Schau sie dir doch an die SGSSAA und sonst was Benchmarks im Netz. Oder die ganzen SLI Benchmarks mit absurd hohen Settings, hab mich schon des längeren gefragt warum die 1,5GB Karten fast nicht einbrechen obwohl die doppelte Rohleistung zur Verfügung steht. Guggst du wieder SLI v. CF 2GB Benchmarks. Unglaublich wie die da mithalten.(aber nicht schneller sind weil eben Vram fehlt) An Beweisen durch Benchmarks mangelt es definitiv nicht, nur an den Erklärungen wie Fermi das macht. Normalerweise bricht ja eine Karte immer komplett auf 0 FPS ein, aber Fermi wird nur langsamer.

Meine Benchmarks mit der GTX 580 werden dann auch bald folgen. Mit HD Mods, massiv MSAA und extra Settings um den Vram komplett überlaufen zu lassen. PCGH HD Textur Mod Settings sind auch unterwegs.


Außerdem sagt mal wie oft muss ich die Vram Management Benchmarks denn noch posten? :lol: Es ist ja schon lange außer Frage das Fermi ein überlegenen Vram Management hat.(hab ich schon vor etlichen Monaten festgestellt mit den 1GB Fermis v. HD 5/6) Die Frage um die es hier geht ist ja wie zum Henker macht Fermi das. Die Benchmarks gibts übrigens hier: https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/
 
?Ähhh Vram Management? Seit wann hat das nix mit dem Vram zu tun? Stichwort Alzheimer.

Stichwort Textverständnis :D Ich habe damit das gemeint:

Die Caches werden dazu benutzt damit die GPU überhaupt die out of Order Berechnung stemmen kann, das muss ja irgend wo gespeichert werden welcher Teil grad wo rumliegt und welcher Teil auf welchen wartet und welcher Teil als nächstes dran kommt, ohne das die GPU dafür anhalten muss. Also was ich damit sagen will, die neuen Caches ermöglichen erst eine so komplexe(hunderttausend Threads) out of order Funktion

Das, was du da sagst, hat ja wohl wirklich nichts mit VRAM-Management zu tun. Auch nicht entfernt, wie ich meine.

Oh doch das geht ganz schnell, merkt man ja bei dir, du vergisst auch ständig was ich ein paar Zeilen weiter oben schon ein paar mal geschrieben habe.

Dem ist nicht so, ich finde nur, dass du immer die selben Ansichten vorbringst und sie mit "So isses" begründest. Daher frage ich immer und immer wieder nach bis du mir, dem geistigen Minderleister, einen link postest, wo ich ganz genau Balkenlängen anschauen und vergleichen kann. ;)
 
Zuletzt bearbeitet:
as, was du da sagst, hat ja wohl wirklich nichts mit VRAM-Management zu tun. Auch nicht entfernt, wie ich meine.
Ich denk auch das du zu viel meinst. ;)
Out of order = GPU kann weiterrechnen ohne auf die Daten vom System Ram warten zu müssen -> massiver Speedschub wenn der Vram überläuft, im Vergleich zu Karten die das nicht können.
Die neuen GPU Caches von Fermi = Ermöglichung der out of order Befehle

Weiter runter brechen wie bei dem Autovergleich geht eigentlich gar nicht. Wenns jetzt nicht klick macht, hat das hier wohl keinen Sinn mehr. :rolleyes:


einen link postest, wo ich ganz genau Balkenlängen anschauen und vergleichen kann.
https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/
Glaub schon zum 10. mal wo ich das neue Speichermanagement verlinke, auch mit gaaanz langen Balken zum vergleichen.
Oder hast du den hier schon vergessen, der krasseste Vram Fresser den HisN kennt: https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/page-37#post-9010859
Die 1GB Karten sind komplett tot. Und die GTX 570 rechnet munter weiter... Noch dazu ist ein Cayman schneller als die GTX 580. Auch nur möglich über den Vram. Mehr Beweis geht nicht.

"So isses" begründest.
Ja klar weils ja so iss. :D Ich zeig dir Fakten, wenn du sie ignorierst kann ich auch nix machen. Zeig mir doch mal ein Setting wo Fermi wegen Vram einbricht und der Cayman noch flüssig rechnen kann. Die Beweislast liegt aktuell auf deiner Seite. Bis jetzt glänzt die GTX 580 in jedem einzelnen Test, jeder Seite, weltweit.
 
Zuletzt bearbeitet:
So Kosmo und 3x darfst du dich fragen warum im CB Test eine 5870 1GB in F1 nicht einbricht....
 
@Kasmo

Dann musst du uns erstmal ein Setting zeigen, wo ein Einbruch oder nicht Einbruch wirklich/sicher dem VRAM zu zuordnen ist. ;)
 
Noch dazu ist ein Cayman schneller als die GTX 580. Auch nur möglich über den Vram. Mehr Beweis geht nicht.

Reden wir jetzt von der VRAM-Größe oder vom VRAM-Management? Dass viel VRAM gut ist, habe ich nie angezweifelt, deine Erklärung, wie Fermis VRAM-Management funktionieren soll, hingegen schon. Nicht, dass wir hier aneinander vorbeireden.
 
So, hab bei dieser ganzen negativ VRam Histerie auch mal mein Crysis Warhead entstaubt. Ich halte von Mods und rum gefrickel an Spielen eh nichts, von daher lief's nur auf 1080p, allerdings mit 16xAA + 8xTSSAA.

Es wurden doch tatsächlich 1450 MB Vram benutzt :( , es lief aber bei ca. 55 durchschnitts fps :)

Da bräuchte ich wohl gar nicht erst anfangen mit Mod's, nicht mal in FullHD. Bei 2560x1440 bräuchte es wohl tatsächlich 3GB Ram, und das bei einer 3 Jahre alten Spiele Reihe, unglaublich.

So viel steht fest, meine nächsten Karten, werden welche mit herausragend viel Speicher. So wie seinerzeit die GTX 285 mit 2GB !
 
Kasmopaya schrieb:
Die Caches werden dazu benutzt damit die GPU überhaupt die out of Order Berechnung stemmen kann, das muss ja irgend wo gespeichert werden welcher Teil grad wo rumliegt und welcher Teil auf welchen wartet und welcher Teil als nächstes dran kommt, ohne das die GPU dafür anhalten muss. Also was ich damit sagen will, die neuen Caches ermöglichen erst eine so komplexe(hunderttausend Threads) out of order Funktion.
Nein, sowas steht bestimmt nicht in den Caches. Die Daten der Threads (aller Threads auf der GPU, das können mehrere Zehntausend sein, nicht nur die, an denen gerade gerechnet wird) liegen in den Registerfiles, die deswegen auch bis zu 6 MB groß sind (Cayman) und die Scheduler behalten den Überblick über bis zu ~40000 Threads bei den High-End-GPUs (100000 ist noch etwas zu hoch gegriffen). Deswegen können alle GPUs (sowohl von nv auch als von AMD) sehr schnell zwischen verschiedenen Threads umschalten, das hat mit den Caches gar nichts zu tun, das können die schon sehr lange.
Bei einem Switch zu einem anderen Warp/Wavefront (Organisationseinheiten von 32 bzw. 64 Threads, auf dieser Basis passiert das Management) sind die Caches gar nicht involviert, da wie gesagt alle aktiven Daten praktisch immer in den vergleichsweise riesigen Registern verbleiben. Dagegen sind die paar hundert kB Cache (Fermi im Grafikmodus hat 256kB L1) einfach zu klein und besitzen auch eine zu geringe Bandbreite, um solche Switches effektiv zu unterstützen.
 
@ Pumpi und all
Eines sollte nicht vergessen werden:
Der VRAM kann randvoll sein, ohne das die FPS in den Keller gehen. Entscheidend ist, wieviel VRAM das aktuelle Frame braucht. Wenn in diesem Moment der VRAM nicht ausreicht, wird ausgelagert. Zunächst in den Arbeitsspeicher, dann ggf. auf die Festplatte (erst jetzt gibt es den Einbruch).
Ich nutze XP. Ich bin also etwas im Nachteil.
Wenn bei der nächsten Graka die 2Gb VRAM nicht ausreichen sollten, wird entweder Win 7 bemüht, oder aber der RamDisk-Trick reicht dann aus.

Nachtrag: Unter Win 7, bzw. 64Bit, stehen einem erst ab 8Gb Arbeitsspeicher 4 Gb Speicher für die Graka zur Verfügung.
Hätte ich das früher gewußt, hätte ich mir damals 8Gb anstatt nur 4 gekauft. (Argh)
 
Zuletzt bearbeitet:
Arbeitsspeicher ist eh je nach Modell spottbillig. Für meine A-Data Gaming Series habe ich damals 110€ bezahlt. Und jetzt? 53 Euro bei meinem Händler. *WTF*

Aber eine 32-Bit-Anwendung (Spiel) kann doch nur 2GB adressieren?
 
Korrekt, aber der VRAM wird nicht zum Arbeitsspeicher (AS) dazugezählt. Es wird zwar ein Teil des AS abgezwackt, aber eben nicht 1:1. Die Graka kann auf eine bestimmte Menge AS zugreifen (abhängig von der Menge des verbauten AS). Ich wußte das damals auch noch nicht.
Raterunde:
Meine Graka hat 900Mb VRAM, vom AS habe ich 4Gb verbaut (3,25Gb stehen zur Verfügung). Die Graka kann sich angeblich etwas weniger als die Hälfte des AS bei Bedarf abzweigen, dann wären das bei 32Bit geschätzte 2-2,5 Gb (inkl. der 900Mb VRAM), die der Graka insgesamt in meinem Fall zur Verfügung stehen.
Ich hatte bei Oblivion mit QTP (riesige Texturmod) in bestimmten Bereichen extremen Frameeinbrüche, weil auf die Festplatte ausgelagert wurde. Die ausgelagerte Menge betrug max. 2,7 Gb.
Wenn ich bald eine neue Graka mit 2Gb VRAM kaufe, ist mit den Einbrüchen hoffentlich Schluß.
Andernfalls werde ich noch 2Gb AS, die hier rumliegen, einbauen und eine RamDisk erstellen. Dann wird die Auslagerungsdatei auf der RamDisk (also auf dem AS) anstatt der Festplatte angelegt. Das soll auch unter XP sehr gut funktionieren.

Vielleicht kann hier jemand mit fundiertem Wissen glänzen?

Nachtrag: Soeben auf Tomshardware ein Zitat vom User "Format C" entdeckt:
... Die Grafikkarte besitzt eine einfache Memory-Management-Einheit GMP (graphics memory page table bei PCIe-Systemen, bei AGP wars früher GART) die verwendet wird, um die verschiedenen Seiten des System-Speichers in den Adressraum der GPU einzublenden. Das Ergebnis ist dann, dass zu jeder Zeit, eine beliebige (auch weit verstreut liegende) Teilmenge der RAM-Pages für die GPU zugänglich sind. Im Gegenzug muß natürlich auch der Grafikkartenspeicher für das System adressierbar sein. Das, was dem System-RAM dann verloren geht, ist ein von der Größe des Grafikkartenspeichers abhängiger Adresspuffer, der sich im RAM befinden muss, aber trotz allem kleiner als die tatsächliche Menge des Grafikkartenspeichers ist...
 
Zuletzt bearbeitet:
So Kosmo und 3x darfst du dich fragen warum im CB Test eine 5870 1GB in F1 nicht einbricht....
Also 1. bricht die Karte ein(8xMSAA) im Vergleich mit HD 6950 und 2. gehts um ein anderes Setting von einer anderen Seite, bei der die 1GB Karten komplett auf 0 eingebrochen sind. Das ist ein 1000%iger Vram Überlauf Hinweis.
Eindeutiger können Benchmarks gar nicht sein.
Dann musst du uns erstmal ein Setting zeigen, wo ein Einbruch oder nicht Einbruch wirklich/sicher dem VRAM zu zuordnen ist.
Metro 2033 - 2560x1600, 4xMSAA
https://www.computerbase.de/2010-12/test-nvidia-geforce-gtx-570/15/#abschnitt_metro_2033
https://www.computerbase.de/2010-11/beratung-geforce-gtx-460/6/#abschnitt_speicherverbrauch
Laut CB min. 1400MB Vram Verbrauch der NVs.(Fakt) So und nun war das aber 1900*1200. Also sollte das 30" Setting Richtung 1500-1600MB brauchen. Mal wieder eindeutiger Beweis das Fermis Vram Management zaubern kann, eine GTX 570 1,3GB rechnet unbeeindruckt weiter und überholt die GTX 480 mit mehr Vram! Ca. 100-300MB Vram einfach kompensiert... Sehr schönes Beispiel wie ich finde.

Reden wir jetzt von der VRAM-Größe oder vom VRAM-Management?
Hauptsächlich vom Management, Vram Größe der Karte ist ja immer fix. Wenn eine GTX 570 1,3GB wie oben rechnet hat sie 1,3GB im Vram, und 300MB im Ram das durch das Management verwaltet wird.
deine Erklärung, wie Fermis VRAM-Management funktionieren soll, hingegen schon. Nicht, dass wir hier aneinander vorbeireden.
Vergiss mal meine Erklärung zum Vram Management, das war ja teilweise Spekulation vermischt mit Fakten. Merk dir einfach das es Fakt ist das Fermi in der Praxis ein überlegenes Vram Management besitzt. Weit vor HD 5/6. Das Management scheint so gut zu sein das es fast keine Limits gibt für die Karten, sie werden ja nur langsamer fast im Verhältnis zur Rohleistung.
So viel steht fest, meine nächsten Karten, werden welche mit herausragend viel Speicher. So wie seinerzeit die GTX 285 mit 2GB !
Der Karte haben die 2GB sehr gut gestanden, zu den Zeiten war ja das Vram Management von NV noch für die Tonne. Starcraft II konnte man mit der Karte sehr gut aufdrehen. Was man von den 1GB Karten nicht sagen konnte. Noch dazu ist die Karte noch lange nicht am Ende. Sieht man mal wie lange man von 2GB profitieren kann, auch wenn man es zunächst nicht war haben will.

Da bräuchte ich wohl gar nicht erst anfangen mit Mod's,
Probiers doch mal aus, du hast ja ne Fermi. ;)Normalerweise müsste dein Gespann ca. 1500-1700MB verkraften oder sogar noch mehr. Am besten berichtest du wie es ausgegangen ist und wann es dann endgültig eingebrochen ist.

Die doppelte DMA sollte vor allem bei "Kleinkram" etwas bringen, also eher GGPU statt fette Texturen.
Bestätigt meine Vermutung das AMDs Version in Games nicht viel bringt. Wahrscheinlich bringt es bei NV im GPGPU Sektor und im Gaming Sektor was. Aber von theoretischen Specs. hab ich noch nie viel gehalten. Ich glaub nur was man testen und eindeutig belegen kann mit Praxisnahen Settings. Und Fermi scheint keine richtigen Schwachstellen zu haben wenns um den Vram geht.
 
Zuletzt bearbeitet:
Bzgl. Metro2033:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8461472#post8461472

Ab Post 20. :)

Weit vor HD 5/6. Das Management scheint so gut zu sein das es fast keine Limits gibt für die Karten, sie werden ja nur langsamer fast im Verhältnis zur Rohleistung.

HD5 mag sein, HD6 halte ich für sehr unwahrscheinlich, da sich die in Sachen DMA (was ja das wichtigste bei VRM-Overflow ist) technisch gleich sind. Der Treiber sollte bei beiden das ungefähr ähnlich brauchbar hinbekommen.
 
Zuletzt bearbeitet:


Metro mit und ohne DOF
300 MB Unterschied mit einem Klick, und das schon im Menü :-)
 
Zurück
Oben