News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

vforce schrieb:
16GB VRam sollten längst der Standard sein
Ist bei meinem PC schon länger Standard:evillol:Radeon VII.

Die Nachfolger Graka sollte natürlich auch wider 16GB VRAM haben und mehr Leistung versteht sich.

NV wird sich das mehr an VRAM sicherlich fürstlich bezahlen lassen.
Mal schauen was AMD mit Big Navi RDNA2 so raushaut.
 
  • Gefällt mir
Reaktionen: russianinvasion, DarkerThanBlack, Onkel Föhn und eine weitere Person
Also das halt ich für ein Gerücht, dass nVidia solche krassen Speichermengenunterschiede nach oben udn unten auffahren wird.
Das ist für mich einmal zu viel udn einmal zu wenig.
Selbst für eine 3060 sollten es schon mindestens 10, 11 oder besser 12GB sein, selbst wenn man nur FullHD damit spielt.
Sobald Raytracing angestellt wird, oder doch vielleicht WQHD bevorzugt gespielt wird, ist der RAM je nach Spiel näcmlich schnell mal voll.
Und eine 3070 würde ich ohne 12 oder 16GB Ram auch nicht anpacken wollen, ihr etwa?
Ich weiß auch nicht, ob es Sinn macht, von einer Karte 2 Speicherbestcükungen veröffentlichen zu wollen, wenn man im Vorfeld weiß, dass die kleinere Speichermenge eigentlich schon längst zu klein ist, um damit noch die nächsten Jahre über die Runden zu kommen. 24GB wären für NVidia sicherlich ein ultimatives Premiumfeature, was extra teuer bezahlt werden muss. ;-P Braucht man das in den 3-5 Jahren Lebenszyklus wirklich?
Anderereseits will man sich bei 1,5K Euro da nicht wirklich Gedanken drüber machen müssen, so wie derzeit.
Die 1060 mit 3GB und die 2060 mit 6GB waren schon so eine Totgeburt, wie auch die 5500Xt 4GB PCI-E 4.0x8(!!), eigentlich sollten Herstelelr dazulernen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v3locite, Onkel Föhn und Mcr-King
Precide schrieb:
Keine Sorge, das wäre auch vor einem halben Jahr dumm gewesen :D
2080S vor 2 Monaten. Allerdings langt mir die Leistung auch erstmal, selbst in UWQHD.
 
  • Gefällt mir
Reaktionen: Leon_FR
Raytraycing wird der neuen Generation an GPUs auch noch ordentlich eins zwischen die Beine hauen, aber da mich RT gar nicht interessiert wird AMD immer interessanter für mich!

Ich bin echt gespannt was AMD bringt, denn ich glaube nicht das Nvidia sooo einen großen Vorsprung haben wird sondern fast nur noch mit Raytraycing punkten kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack, Onkel Föhn und Mcr-King
Na bin gespannt auf die 3070 @16GB ... ich warte eigentlich seit der AMD 390 8GB nur auf eine halbwegs leistbare Karte mit deutlich mehr Speicher. ^^
 
  • Gefällt mir
Reaktionen: fox40phil, Onkel Föhn und Mcr-King
Floppy5885 schrieb:
Und bei einer 3070 reden wir immer noch von Mittelklasse

naja, zum einen weiß noch keiner was die karte an ps auf die straße bringt.
zum anderes ist es im portfoilio die designierte mittelklasse karte.

aber genausogut könnte ich auch sagen dass (achtung, autovergleich! :D :evillol:) ein porsche 911 carerra s ja nur die mittellklasse ist - abgesehen von den "kleinen" 718ern, gibt ja noch den 911er targa und die 911 turbo und den 911 gt3 sowieso...

dabei ist schon so ein "normallo" 911er nicht wirklich billig und bringt mehr auf die straße als 80% der anderen hersteller selbst in ihrer oberklasse (jetzt nur auf die fahrleistung bezogen natürlich).
aber die allerwenigsten würden wohl auf die idee kommen einen 911er carerra s als "mitellklasse" zu bezeichnen, nur weil es darüber weitere modelle gibt.

ich spekuliere mal: mit der 3070er dürfte man beim 3dmark wohl bei der ergebnisgrafik in diesem bereich liegen in dem man dann "better than 85% (90%?) of tested systems" liest.

Garack schrieb:
Meine 1080TI ist beim neuen FS2020 auch am VRAM Ende.. Zeigt für ne 3080TI

oder einfach mal den textur/detailregler ein kleines stückchen zurücknehmen - für so eine 3 jahre alte karte kann man schon auf die "altersschwäche" rücksicht nehmen. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, Lan_Party94 und Mcr-King
knoxxi schrieb:
Dieses Jahr wird teuer. :)
Same, zuerst die Reverb G2, dann ne neue Grafikkarte, je nach Leistungsaufnahme ein neues Netzteil, und nur 16GB RAM ist ja eigentlich auch nicht mehr Zeitgemäß. :evillol:

Replay86 schrieb:
Die meisten die über die 970 gemeckert haben waren die, die nie eine hatten. Ich hatte eine damals.
Doch, hier, ich! Mindfactory hat da auch noch groß rumdiskutiert dass das ja eigentlich kein Mangel ist, hab sie aber trotzdem zurückgeschickt bekommen (und mich von MF verabschiedet). Hatte in dem damaligen Far Cry Mikroruckler die aufgetaucht sind, wenn die VRAM-Auslastung auf >3,5GB gegangen ist.

Falc410 schrieb:
Wenn man aber für ein Spiel von 2017? (Wann kam FF15 raus?) eine Karte mit 24Gb VRAM drauf werfen muss - dann ist das einfach mehr als schlecht programmiert.
Ich versteh das ganze "Schlecht programmiert/optimiert" als Argument nicht, denn was ändert das? Wenn ich bestimmte AAA-Titel ordentlich zocken möchte, und die dann halt schlecht programmiert/optimiert, dann hab ich ja nur die Wahl zwischen dem Lösen des Problems mithilfe von Hardware, oder halt optisch ordentlich downgraden bis es läuft. Und ne neue Karte, bei der man auf Variante 2 zurückgreifen muss, ist doch auch irgendwo bitter - vor allem wenn wir über Preise rund um 1000€ sprechen.

k0ntr schrieb:
Ich glaube die Preise werden in die Höhe schiessen und eine "Knappheit" wird erzeugt... jetzt wo Bitcoin wieder im Vormarsch ist.
Es gibt eigentlich für jeden populären Coin dedizierte Miner, mit Grafikkarten kommst du da nicht mehr weit. Vor allem nicht mit Nvidias Preisgestaltung und den veranschlagten TDPs.
 
  • Gefällt mir
Reaktionen: Shoryuken94, [wege]mini und Onkel Föhn
vforce schrieb:
Viele Leute haben sich 4k Monitore angeschafft aber der Grafikkartenspeicher erhöht sich seit 5 Jahren kaum.

hmm. vielleicht hätten die leute lieber vorher überlegen sollen womit sie diese monitore den hardwaretechnisch füttern wollen....
es wurde ja schon damals weit darüber diskutiert dass die verfügbare hardware nicht alles an games ausreichend performant rendern kann und dass sich das auf absehbare zeit nicht so schnell ändern wird, wie dass der wunsch nach uhd suggerieren mag.
 
  • Gefällt mir
Reaktionen: TorgardGraufell und Laphonso
Deathless schrieb:
Nö, mit RTX lassen sich die Kunden besser melken
Vllt sind die karten mit halben VRAM GTX Karten. das wäre mal interessant. Für RTX braucht man auch mehr RAM.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
vforce schrieb:
16GB VRam sollten längst der Standard sein ab der xx70er Serie von Nvidia, zumal Nvidia die Preise ja extrem erhöht hat. Viele Leute haben sich 4k Monitore angeschafft aber der Grafikkartenspeicher erhöht sich seit 5 Jahren kaum.
Weil eben nicht nur die Auflösung eine Rolle spielen. Bei 4K muss man bei vielen Spielen die Grafik runterschrauben, da reichen dann zumeist 8Gb. In den allermeisten fällen bricht die GPU ein bevor es mit dem Ram zu knapp wird. Ausnahmen bestätigen die Regeln.
 
  • Gefällt mir
Reaktionen: Laphonso und cypeak
Bright0001 schrieb:
Ich versteh das ganze "Schlecht programmiert/optimiert" als Argument nicht, denn was ändert das? Wenn ich bestimmte AAA-Titel ordentlich zocken möchte, und die dann halt schlecht programmiert/optimiert, dann hab ich ja nur die Wahl zwischen dem Lösen des Problems mithilfe von Hardware, oder halt optisch ordentlich downgraden bis es läuft. Und ne neue Karte, bei der man auf Variante 2 zurückgreifen muss, ist doch auch irgendwo bitter - vor allem wenn wir über Preise rund um 1000€ sprechen.

das ändert nichts an der tatsache, dass du selbst die beste hardware mit mieser software in den boden rammen kannst.
wenn 95% der anderen games auf deiner hardware ordenlich laufen und dann kommt ein titel der ohne erkennbaren grund mies läuft, käme ich nicht auf die idee die schuld bei der hardware zu suchen.
dann muss man wohl die lösung 2 - allein schon aus vernunft - präferieren, oder?
 
  • Gefällt mir
Reaktionen: Mcr-King, Oneplusfan, Schokolade und eine weitere Person
derseb schrieb:
Ich bezweifle das es zum Release der 3000er mehr Leistung für weniger Geld geben wird... und da Du nicht das teuerste gekauft hast was es gab, hattest Du wohl ein Budget in dessen Rahmen Du die bestmöglichste Karte gekauft hast... Generell erstmal kein Fehler ;-). Interessant werden die Preise vermutlich erst wenn die neuen ATI ähm AMD Karten draußen und ausreichend Verfügbar sind und da hast Du dann schon 6 Monate Spaß mit deiner Karte gehabt ;-).
Natürlich wird es mehr Leistung für weniger geld geben. Wie kommt man auf so ein Blödsinn?

Ansonsten würde nur die Ti Sinn Machen. Die 3080 müsste also nach deiner Theorie genau so viel kosten wie die 2080ti... ernsthaft?

Und was die Leute hier schreiben... Die 3080 für 1000€+ , dass glaube ich niemals. Dann bin ich raus und sehr viele andere auch. Da bin ich mir sicher und das bringt Nvidia dann auch nix..

Die werden eher die Bombe krachen lassen!
Gleiche Preise ungefähr für verdammt viel Leistung, Speicher und Raytracing und alle drehen durch...
 
  • Gefällt mir
Reaktionen: Acedia23
Strikerking schrieb:
Ist bei meinem PC schon länger Standard:evillol:Radeon VII.
Das stimmt wohl nur leider nicht mit der Leistung einer 2080Ti .
Die Leistung sollte dazu passen .
Mit der jetzigen Gen Big Navi und Ampere wären 16 GB top zur Leistung .
 
BxBender schrieb:
Also das halt ich für ein Gerücht, dass nVidia solche krassen Speichermengenunterschiede nach oben udn unten auffahren wird.

Ist ja auch aktuell eines :D
 
Nureinnickname! schrieb:
Mit dem Unterschied, das sich diese Personen nicht über die Kosten beschweren.
Dieses mimimi finde ich so ätzend mittlerweile.
Es gibt nunmal Luxusgüter die sich nicht alle leisten können.
Woher kommt überhaupt dieser Anspruch?

Arbeiten, weiterbilden, sparen oder mit dem zufriedengeben was man hat.
 
  • Gefällt mir
Reaktionen: Vendetta192, m0bbed, Laphonso und 2 andere
legenddiaz schrieb:
Und was die Leute hier schreiben... Die 3080 für 1000€+ , dass glaube ich niemals. Dann bin ich raus und sehr viele andere auch. Da bin ich mir sicher und das bringt Nvidia dann auch nix..

Kannst Dich aber schon noch daran erinnern, dass für "gute" Custom Modelle der RTX 2080 1000 € ausgeben konntest ?!?

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Mcr-King, GERmaximus, rasenschach und 2 andere
Discovery_1 schrieb:
Kommen keine GTX-Karten mehr?
Das würde mich auch interessieren. Aber egal: ich habe mir vor kurzem (nur für FullHD!) erst eine neu Grafikkarte gekauft. Überspringe somit die neue Generation.
 
Chillaholic schrieb:
Im Fazit spricht CB aber auch davon, dass DLSS weiterhin fehlerbehaftet ist, diesen Fakt scheint du weiterhin zu ignorieren.
Ist CB eigentlich deine einzige Quelle? In der Pressewelt wurde nicht nur einmal gesagt, dass das Spiel in DLSS 2.0 4K sogar besser aussieht als in nativem 4K. Und das einfach mal bei doppelten FPS.

Dein Einwand RTX Karten führen automatisch dazu, dass du mehr Geld pro FPS bezahlen musst, ist leider damit völliger Schwachfug.
Ergänzung ()

Linmoum schrieb:
Natürlich haben sie das, das ist schon seit Ewigkeiten bekannt. Wie kommst du zu der falschen Annahme?
Ganz einfach: Bei RDNA2 läuft Raytracing über die ganz normalen, nicht für Raytracing spezialisierten Shader der GPU. Es gibt keine speziellen RT-Kerne. Das ist schon seit Ewigkeiten bekannt. WIe kommst du zu einer anderweitigen, falschen Annahme?
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben