News RTX 3080 Ti und 3070 Ti: Nvidia soll einmal mehr am Grafikspeicher sparen

Jake Grafton schrieb:
Seit Turing plappern das unglaublich viele Leute nach, dass man plötzlich weniger oder genauso viel VRAM braucht wie 2016. "Spezialisten" wie Gamers Nexus machen da sogar auch mit. Mit Ampere hat es nochmal nen ordentlichen Schub bei der Propaganda gegeben.

Ich habs vor einigen Monaten schonmal gepostet. Aber man kanns nicht oft genug wiederholen, da gefühlt keiner hier auf das Thema reagiert oder überhaupt darüber diskutiert, obwohl es die ganz VRAM Diskussion am Ende entscheiden kann...

Also nochmal:

DX12 Ultimate Sampler Feedback Streaming (SFS):

sfs.png


Der Ausschnitt ist aus einem Video von Microsoft. Kanns aktuell nicht mehr finden.
Aber selbst wenn das nur halb so gut ist wie angepriesen, dann ist es der Knaller.


Ich finds irgendwie traurig, dass sich keiner mehr für die Technik interessiert. Wie Spiele funktionieren, was die APIs an neue Features mitbringen und was AMD und Nvidia in den GPUs hardwareseitig ermöglicht.
Mesh Shader sind potenziell auch ein absoluter Gamechanger.
Das SSD -> VRAM Streaming hat man den meisten Leuten hier auch erstmal erklären müssen. Es hat Monate gedauert, bis die Leute mal ansatzweise kapiert haben, was fürn riesen Umbau das für die Entwickler ist und wie groß das Potenzial dahinter ist.

Stattdessen beharrt man auf überholten und festgefahrenen Ansichten, die in modernen Spielen oft gar nicht mehr zutreffen. Mein Beispiel mit RE2 verdeutlicht das ja auch nochmal...

Aber gut, haut euch weiter gegenseitig die Köpfe ein und schmeißt Geld für 24 GB VRAM und 64 GB RAM raus, weil anders sind Memory Management Probleme ja nicht zu lösen. Microsoft und Sony haben auch nur dumme Ingenieure und Nvidia weiß nicht, wie viel VRAM ne Grafikkarte braucht. :freak:


Die Diskussionen hier erinnern mich an meinen früheren Chef, der kurz vor der Rente war und sich im modernen IT Umfeld zurechtfinden wollte, aber irgendwo in den 80ern stecken geblieben ist.

Der hat auch fest darauf beharrt, dass bald die 10 GHz CPU kommt und 128 Bit Versionen von Windows geplant sind. :lol:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BorstiNumberOne, KenshiHH, XashDE und 7 andere
@B3nutzer

Sehe ich auch so,darum habe ich hier auch behauptet das die Menschen so übertreiben und am besten 100 Gb GPU speicher und auch beim Ram am besten nicht unter 128 Gb weil ja angeblich Spiele so viel brauchen würden.Was ja nicht stimmt.Sonst würden ja damals die gtx 570 und gtx 580 mit doppelten GPU Speicher gleich 50 % mehr an FPS haben was ja eben selbst beim extrem Bechmark nie der Fall gewesen war.Also von daher braucht man sich keine sorgen bei den GPU Speicher zu machen.Also viel hilft ja nicht immer.
 
B3nutzer schrieb:
Ach ja übrigens, wer es schafft, die restlichen Regler auch noch zu bedienen, der kann den Speicherbedarf auch auf unter 3 GB drücken... dann natürlich mit leichten grafischen einbußen. Wobei die Unterschiede nüchtern betrachtet immernoch lächerlich gering sind...
Aber ich weiß schon, das will hier keiner hören :lol::lol:
Anhang anzeigen 1058624
2,95 GB
Im vorherigen Post von mir siehst du den Vergleich zwischen Maxed Out (Texturen "High 8GB") im Vergleich zu Texturen "High 0,5GB".
Sag du mir, ob es sich für dich lohnt bzw. ob und wo du hier Unterschiede siehst.
Habe ich mir bei FF15 auch gedacht, dass mit max. locker fast die 11Gb meiner 1080TI gefüllt hat und ich mich gefragt habe, warum es so viel verbraucht.

Persönlich stören mich bei dem Screen eher die Treppen, als das die Texturen zu schlecht wären, aber jeder hat so seine Anforderungen und Sichtweisen.

Immerhin hat man derzeit bei AMD eine Alternative, wenn man Angst hat, dass der Vram zu gering ist bei NV.
 
B3nutzer schrieb:
Ich habs vor einigen Monaten schonmal gepostet. Aber man kanns nicht oft genug wiederholen, da gefühlt keiner hier auf das Thema reagiert oder überhaupt darüber diskutiert, obwohl es die ganz VRAM Diskussion am Ende entscheiden kann...

Also nochmal:

DX12 Ultimate Sampler Feedback Streaming (SFS):

Anhang anzeigen 1059054

Der Ausschnitt ist aus einem Video von Microsoft. Kanns aktuell nicht mehr finden.
Aber selbst wenn das nur halb so gut ist wie angepriesen, dann ist es der Knaller.


Ich finds irgendwie traurig, dass sich keiner mehr für die Technik interessiert. Wie Spiele funktionieren, was die APIs an neue Features mitbringen und was AMD und Nvidia in den GPUs hardwareseitig ermöglicht.
Mesh Shader sind potenziell auch ein absoluter Gamechanger.
Das SSD -> VRAM Streaming hat man den meisten Leuten hier auch erstmal erklären müssen. Es hat Monate gedauert, bis die Leute mal ansatzweise kapiert haben, was fürn riesen Umbau das für die Entwickler ist und wie groß das Potenzial dahinter ist.

Stattdessen beharrt man auf überholten und festgefahrenen Ansichten, die in modernen Spielen oft gar nicht mehr zutreffen. Mein Beispiel mit RE2 verdeutlicht das ja auch nochmal...

Aber gut, haut euch weiter gegenseitig die Köpfe ein und schmeißt Geld für 24 GB VRAM und 64 GB RAM raus, weil anders sind Memory Management Probleme ja nicht zu lösen. Microsoft und Sony haben auch nur dumme Ingenieure und Nvidia weiß nicht, wie viel VRAM ne Grafikkarte braucht. :freak:


Die Diskussionen hier erinnern mich an meinen früheren Chef, der kurz vor der Rente war und sich im modernen IT Umfeld zurechtfinden wollte, aber irgendwo in den 80ern stecken geblieben ist.

Der hat auch fest darauf beharrt, dass bald die 10 GHz CPU kommt und 128 Bit Versionen von Windows geplant sind. :lol:
Witzig. Du widerlegst dich ja selbst. Sowas muss erstmal unterstützt werden und für ältere Spiele wird das nicht mehr kommen, die aber auch schon ordentlich VRAM verbrauchen. DirectStorage gibts auch noch nicht, obwohl schon seit über nem halben Jahr angekündigt. Und dann müssen die Entwickler auch erstmal aufspringen. Wie langsam neue Features von DirectX übernommen werden, sollten ja gerade erfahrene User so langsam mal wissen. Scheinbar dann doch nicht. Wird sogar vollkommen umgedreht.

Mit Allocated und Used VRAM wurde ja auch viel Unsinn verbreitet. Dass selbst wenn es so ist wie gesagt wird, der Unterschied selbst bei 22GB nur 1GB ist, wurde natürlich verschwiegen.

Dass wenig VRAM auch die Entwickler zurückhält ist auch so eine Sache die Leute wie du immer ignorieren.

Hier redet auch keiner von 100GB VRAM. Was sollen solche Übertreibungen? Du behauptest dass Leute hier übertreiben und machst es dann selbst in Ausmaßen die einfach nur noch lächerlich sind.
 
Seid doch froh, dass Nvidia bei seinen Mining-Karten so wenig Speicher verbaut - bleibt mehr davon übrig für die Gaming-Karten von AMD. :evillol: AMD hat in seinen Karten eine Mining-Bremse eingebaut, die im Gegensatz zu der von Nvidia wirklich in Hardware und nicht zu knacken ist: Das schmale Speicherinterface. Fürs Gaming können sie das anderweitig kompensieren, da reicht die Leistung, fürs Mining nicht. Ist doch schön, dass, wenn es schon nur zwei Konkurrenten auf dem Markt gibt, wenigstens beide unterschiedliche Strategien verfolgen.
 
ThommyDD schrieb:
Seid doch froh, dass Nvidia bei seinen Mining-Karten so wenig Speicher verbaut - bleibt mehr davon übrig für die Gaming-Karten von AMD. :evillol:
Ahhh, deswegen wird der Markt gerade von den AMD Karten überschwemmt :D
 
  • Gefällt mir
Reaktionen: Gsonz und Fuchiii
@Jake Grafton

Wenn auf Konsolen und PC die gleichen Features bereitstehen, dann dürften Entwickler davon auch Gebrauch machen.

Zumal DX12 Ultimate ja auf DX12 aufsetzt. Viel Arbeit ist also eh schon getan.

Zudem hat DX12 damals erstmal nicht viel bzgl Performance verbessert. Im GPU Limit war Async Compute schon eines der größeren Features, was jetzt aber auch nicht so krass viel gebracht hat. CPU seitig wurde das Multithreading am PC verbessert, was aber „dank“ der lahmen Konsolen CPUs selten ein problematischer Falschenhals war. DX11 war meist ausreichend schnell.

Mit DX12U sieht das meiner Meinung nach anders aus. Die Features sind deutlich umfassender/radikaler und könnten einen sehr viel größeren Einfluss auf die Spiele haben als bisherige neue Features. Aufwand/nutzen könnten sich hier eher rechnen als bisher mit der DX12 Umstellung.

Dass das ganze noch Zeit braucht. Ja richtig.
Dass es schon jetzt Spiele gibt, die wirklich zwingend mehr VRAM brauchen? Jap gibt es.

Aber ist das ein Problem? Meiner Meinung nach nicht..

Ich sehe das Problem eher in der Zukunft, wenn 8/10 GB hinten und vorne nicht für next-gen reichen sollten.
Aber wenn jetzt ne Handvoll Titel das Limit sprengen aber dann in 1-2 Jahren die Spiele mit SFR weniger oder gleich viel bei besserer Grafik brauchen, dann ist das aus meiner Sicht völlig okay.

Wer unbedingt für jetzt mehr VRAM will, der muss es sich eben kaufen. Oder alternativ die Settings anpassen.

Ich will nur zeigen dass sich in Zukunft einige Variablen ändern könnten und man die ganze Geschichte dann wahrscheinlich neu bewerten muss.

Die Ansicht dass 8 GB heute zu knapp sind und deshalb für morgen zwingend 12 und 16 GB notwendig sind teile ich eben aufgrund der Ankündigung neuer Features nicht so wirklich.

Klar zeigt uns die Vergangenheit dass der Bedarf steigt. Aber man sollte wie gesagt auch mal zur Kenntnis nehmen was Microsoft und Sony zu dem Thema gesagt haben und seine Ansichten in Frage stellen.

Ich weiß doch selbst nicht wie die Zukunft aussieht. Ich kann nur diese festgefahrenen Meinungen mancher Leute nicht teilen..

Und ja, ich vertrete hier meinen kontroversen Standpunkt gerne, weil es sonst keiner macht und ich darauf aufmerksam machen möchte. Von mir aus liege ich damit völlig daneben. Mir persönlich ist das egal. Dann haben Microsoft und Sony eben Unsinn erzählt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BorstiNumberOne
Lol, dieses Posting ist doch ein Scherz oder? Gingst du ernsthaft davon aus, dass es eine technische Limitation für die 8GB gab?
 
  • Gefällt mir
Reaktionen: Mracpad, DaHell63 und Fuchiii
Fuchiii schrieb:
Aber - ab einer gewissen Preisklasse, möchte ich mir da auch schlicht keinen Kopf mehr machen müssen.

Es gibt keine Preisklasse die schlechte Programmierung komplett auffangen kann!
 
"Früher" stieg der Speicherausbau ja stärker als die Rechenleistung, so dass man durchaus Argumentieren kann, dass es ok ist, wenn der Speicherausbau nun langsamer steigt oder (wie bei Turing) stagniert.
Auch scheint der Speicherbedarf in den letzten paar Jahren nicht so stark gestiegen zu sein, wie in den Jahren davor.
Aber: Dennoch steigt der Speicherbedarf langsam, aber stetig. Neue Konsolen erhöhen hier ja auch idR den Bedarf wieder etwas.

Es gibt nun einmal schon heute Szenarien, in denen die 8/10 GB von 3070/3080 nicht ausreichen. Wenn eine Karte 6 Monate nach Release schon in Probleme kommt, dann hat das nichts mit zu hohen Erwartungen zu tun, sondern mit zu wenig Speicherausbau.
Cyberpunk bekomme ich z.B. auf 9,5GB mit RTX, da ist es schon fraglich, ob eine 3070 das auch noch so locker packen würde.

Insbesondere bei den Preisen, die seit einigen Jahren für GraKas aufgerufen werden, sollte es selbstverständlich sein, dass die "großen" Modelle ausreichend Speicher für heutige und auch zukünftige Spiele haben. 10GB sind dies nun einmal nicht.
Wer Mittelklasse kauft, erwartet sicherlich keine Spitzenleistung und Spitzendetails, aber es kann durchaus passieren, dass ein Spiel auf der 3060 gut läuft, auf der 3080 jedoch nicht - und das darf einfach nicht passieren.
NV ist in der ungünstigen Situation durch das SI entweder 10/12 + 20/24GB verbauen zu müssen - und man entscheidet sich leider für die knappere Bestückung. 16GB sind meiner Meinung nach ein rundes Paket, was auf absehbare Zeit ausreicht, 24GB eher overkill wie damals die Titan Maxwell. Aber bei Karten für >500€ UVP, erwarte ich als Kunde nun einmal auch, dass diese auf absehbare Zeit gut genug ausgestattet sind.
 
  • Gefällt mir
Reaktionen: Fuchiii
Thanok schrieb:
... da ist es schon fraglich, ob eine 3070 das auch noch so locker packen würde.

CP1.jpg

CP2.jpg


Wir haben ein ganz anderes Problem als VRam denn wer möchte mit HDMI 2.1 und 4K 120 bzw.144Hz
mit 24-30 FPS zocken ? Dann kann man sich auch eine Konsole kaufen und damit genauso rumruckeln.
 
  • Gefällt mir
Reaktionen: DaHell63, BorstiNumberOne, cruse und 3 andere
Sehe ich genauso wie @0ssi. Die 3070 ist halt "nur" gehobene Mittelklasse, wer damit in 4K mit Raytracing auf Ultra zocken will hat generell einen Denkfehler.
 
  • Gefällt mir
Reaktionen: DaHell63, BorstiNumberOne und foo_1337
Meine Messung habe ich mit 1440p ohne DLSS durchgeführt - und es ging mir weniger darum 60+fps zu bekommen, sondern einfach zu schauen, was CP an Speicher frisst. Das waren zwar Konsolen-fps, aber mit GSync war es dann doch erstaunlich erträglich.
Im Normalbetrieb schmeiße ich mit RT auch DLSS dazu an, damit die Framerate dann auch vernünftig wird.

Vielleicht ist es auch falsches Anspruchsdenken auf meiner Seite, aber ich finde eh, dass auch die aktuellen Karten eher für 1440p denn 4k geeignet sind. Mit meinem jetzigen OC liegt meine 2080Ti einstellig hinter einer 3080 und ich sehe nun endlich mal 3-stellige frameraten in 5 Jahre alten Spielen. So eine Leistung würde ich mir von einer aktuellen Generation auch in aktuellen Titeln wünschen, aber da sind wir noch weit von entfernt.
Für höhere Auflösungen, die Ampere ja auch benötigt um sich gut auszulasten, wird dann NVs Geiz beim Speicher immer mehr ein Argument.

Ich lese hier zum Teil die gleichen Argumente die damals bei der Fury gekommen sind. Wieso braucht man denn mehr, es reicht doch derzeit aus? Die 2 Extremszenarien sind doch nicht Ausschlaggebend! Ich weiß nicht, wie Ihr das seht, aber für mich ist ausreichend immer noch nur eine 4. Für 500+€ erwarte ich als Kunde mehr als ausreichend, sondern wenigstens gut- und das sage ich als jemand, der zuvor 7 Jahre lang Titans im PC hatte. Wobei die 500€ natürlich auf die UVP bezogen sind, im aktuellen Markt ist man ja schon froh, überhaupt eine Karte bekommen zu können.

Wenn man bereits kurz nach Release eine Karte aufgrund des Speichers an die Grenze bringen kann, dann wird es in den kommenden Jahren nur schlimmer werden. Bedenkt außerdem, dass es neue Konsolen mit doppelter Speichermenge gibt, auch von dieser Seite her wird der Speicherbedarf steigen. Es kann nicht sein, dass die einzigen Karten mit einer vernünftigen Speicherausstattung bei NV eine 3060 (auf die Leistung bezogen) und eine 3090 sind.
@HisN wird euch im Zweifel bestimmt noch etwas zu dem Thema sagen können, er ist da glaube ich etwas bewanderter als ich.

AMD hat es mit ihrem IC wirklich elegant gelöst, eine ordentliche Speichermenge zu verbauen, ohne es gleich zu übertreiben. Das bringt NV natürlich in eine für sie ungünstige Situation, die sich scheinbar nicht zu Gunsten des Kunden lösen wird.
 
  • Gefällt mir
Reaktionen: HisN
Thanok schrieb:
Wenn man bereits kurz nach Release eine Karte aufgrund des Speichers an die Grenze bringen kann, ...
Warum aufgrund des Speichers ? Die 30FPS sind wegen der zu schwachen GPU Leistung !
Welchen Vorteil hätte mehr Speicher für die Zukunft wenn mehr GPU Leistung nötig ist !?
 
  • Gefällt mir
Reaktionen: DaHell63
Thanok schrieb:
AMD hat es mit ihrem IC wirklich elegant gelöst, eine ordentliche Speichermenge zu verbauen, ohne es gleich zu übertreiben.
Der IC ist eher ein Boost für das Speicherinterface als für die Speichermenge. Der IC hat mit der tatsächlichen VRAM Menge rein gar nichts zu tun.
 
B3nutzer schrieb:
Und ja, ich vertrete hier meinen kontroversen Standpunkt gerne, weil es sonst keiner macht und ich darauf aufmerksam machen möchte. Von mir aus liege ich damit völlig daneben. Mir persönlich ist das egal. Dann haben Microsoft und Sony eben Unsinn erzählt.
Das ist doch das tolle am Forum. Man kann über seinen Standpunkt reden.
Ich hänge halt noch in den 80er fest, wo man Probleme mit Hardware erschlagen hat, anstatt darauf zu hoffen das irgendwer in der Zukunft eine Software-Krücke für das Problem entwickelt. Ich begrüße ja jede Entwicklung in dieser Hinsicht, auch wenn ich es schade finde, wenn man fehlende Hardware mit Software-Krücken umgehen muss, anstatt das die Hardware (wenn sie denn in ausreichendem Maße vorhanden ist) genutzt wird.
Wenn ich JETZT ein Problem haben, dann erschlage ich es JETZT mit Hardware anstatt zu erzählen: Aber in der Zukunft wird es XXXX geben, und das Problem wird verschwinden. Hilft mir JETZT nicht. Ich hab meine Hardware immer für das JETZT gekauft, und nie für die Zukunft.
In der Zukunft ist die Hardware (hoffentlich wieder) billiger und leistet mehr. Kauf ich mir dann für die zukünftigen Probleme^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fuchiii, DDM_Reaper20 und Thanok
@0ssi
Wir können uns hier an Cyberpunk aufhängen, ich kann dir auch einen Screenshot aus Planet Coaster (ungemoddet) zeigen, wo ich auf 10GB Speicherauslastung bei >60fps komme. Ich habe Cyberpunk lediglich als Beispiel genommen, weil es ein bekanntes Spiel ist. Mal Hand aufs Herz, mit RT ist das Spiel VIELLEICHT auf einer 3090 und 1440p (ohne DLSS) lauffähig.

@foo_1337 Da habe ich mich undeutlich ausgedrückt - dank IC können sie ein schmaleres Interface und weniger übertriebene Speichermengen nutzen. 16GB halte ich derzeit für angemessen und hinreichend zukunftssicher. Die 10GB der 3080 werden in 2 Jahren wahrscheinlich zu Problemen führen und die 3 Leute, die eine besitzen, dazu zwingen Texturauflösungen zu reduzieren obwohl die Rohleistung ausreichen würde.
NV hat mit Pascal das Problem gehabt, dass die Karten ziemlich gut ausgestattet waren, und daher auch heute noch beliebt sind. Seit Turing versuchen sie das Problem zu lösen, indem sie die Speichermenge bei gleicher Leistung reduziert haben.
1080Ti -> 2080: 11GB->8GB
1080 8GB-> 2060 6GB
Die 3000er führt das Schema leider fort. Die 3070 erreicht die Leistung einer 2080Ti bei 3GB weniger Speicher, und die schnellere 3080 hat immer noch 1GB weniger Speicher.


RT ist im Moment ja ohnehin noch unausgereift. Relativ wenig Support, sowohl quantitativ als auch qualitativ. Die meisten Spiele nutzen es gefühlt noch oft als Techdemo, anstatt es einfach für tolle Reflektionen zu nutzen. Und die, die es tun leiden oft unter der geringeren Auflösung der RT Reflexionen. Ich war selbst enttäuscht, dass die 3000er die RT Leistung quasi linear zur Rasterizerleistung zugenommen hat. 30-50% mehr RT Leistung bei gleicher Rasterizerleistung wäre schon wünschenswert gewesen um die Probleme, die bei RT nun einmal auch Prinzipbedingt sind, mit Hardware zu erschlagen.
Wenn man den Entwicklern einen Anreiz gibt, einfach RT für die Beleuchtung zu benutzen, wird die Rasterizer-Leistung auch kein großes Problem mehr sein, auch wenn dies natürlich noch zig Jahre dauern wird, bis RT der neue Standard ist. Aber mit großen Leistungszuwächsen, kann man schon heute das Interesse erhöhen.

NV selbst hat ja den Leistungsgewinn der 3080 geschönt, indem sie Benchmarks genutzt haben, in denen der 2080 der Speicher ausging. Die 3080 hat bei ca. 50% Mehrleistung nur 25% mehr Speicher, das kann schnell ein Problem werden.
 
Thanok schrieb:
@0ssi
Wir können uns hier an Cyberpunk aufhängen, ich kann dir auch einen Screenshot aus Planet Coaster (ungemoddet) zeigen,

Dazu brauchtes nicht mal CP 2077, wir können die Liste gerne mit UWQHD Auflösung (also nicht mal volle 4k Auflösung) erweitern: Watch Dogs Legions, GTA 5, CoD usw. die bereits an der 10 GB Marke kratzen oder übersteigen, ein Ghost Recon Wildlands welches an der 8 GB Marke kratzt, selbst ein x jahre altes Skyrim kriege ich mit vielen Grafik Mods auch auf 8 GB VRAM und ja, Grafik Mods gehören dazu. Wird auch für CP 2077 früher oder später folgen. Heute sagen einige, braucht man nicht, wenn sie aber dann mal kommen und massiv (oder deutlich) die Grafik aufbohren, will das dann jeder und so ist es auch mit GTA 5, welches heute schon wie ein GTA 6 aussehen kann und falls die Frage zwecks Fps kommt, die langen dann dennoch zum vernünftigen zocken in UWQHD.

Aber da stoßt man halt oft auf taube Ohren, die VRAM Disku ist eine ergebnislose disku. Es gibt zwei Meinungen, aber keinen Mittelweg....
 
Zurück
Oben