Test Doom Eternal Update 6 im Test: Hohe FPS mit Raytracing wollen viel Grafikspeicher

DaHell63 schrieb:
Mist ist ein wenig hart :D. Sie sind nur nicht ganz das was wir uns wünschen.
"Nicht ganz das was wir uns wünschen" ist dann aber ein wenig arg weich. ;) :D

Schaut man sich das P/L-Verhältnis an, erreichen wir dank sinkender Preise nun solangsam wieder das P/L-Verhältnis von 2019. Bei gleichem oder sogar schlechteren Speicherausbau (vgl. 3070(Ti) zu 2080Ti).
Technologischer Fortschritt sieht anders aus.

Klar gibt es am oberen preislichen Ende Leistung, die vor zwei Jahren noch nicht verfügbar war, da ich die Hersteller aber auch für Hobbys nicht sinnlos mit Geld überhäufe haben wir aus meiner Sicht für die allermeisten Spieler aktuell einen technologischen Rückschritt.

Würden die High-End Karten zu diesen Preisen wenigstens restlos überzeugen wäre das ja noch irgendwie ok, aber die im letzten Post genannten (und allseits bekannten) Nachteile der aktuellen Generation von Nvdia und AMD machen diese Modelle trotz schon unverschämt hoher Preise trotzdem noch zum Kompromisslösungen, die ihre Zielauflösungen allesamt nur mit Abstrichen befeuern können.
Daher sind die Karten für mich Mist.
 
.Sentinel. schrieb:
Das siehst Du nicht. Du siehst erst, ob der VRAM der Karte voll ist, wenn Du einen Dump davon machst und die dort gespeicherten Daten mit dem aktiven Working- set und dem inflight- Budget vergleichst.
Und das wird inzwischen auch immer mehr dynamisch angepasst, da man inzwischen eher mit der Nutzung einer SSD Rechnen kann, als dass noch alte HDDs zum Einsatz kommen.

Mit den Konsolen gibt es da jetzt sowieso einen "Bruch" mit veralteten Speicher- und Streaming- Systemen, die aus Angst vor Wartezyklen beim Datennachschub alles ins RAM oder VRAM packen, was nicht bei 3 auf den Bäumen ist.
VRAM ist ja letztlich auch nur ein Cache und Caches müssen nun wirklich nicht alles vorhalten. Moderne Ansätze sind da viel dynamischer wie du ja bereits erwähnt hast...

Nvidia sollte alleine aus psycholgischen Gründen den VRAM erhöhen, wenn man sich die Beiträge so anschaut. ^^
 
  • Gefällt mir
Reaktionen: Maggolos und .Sentinel.
Habe mal hier hochgeladen, weil 3060 Karten hier nicht getestret wurden.

DOOMEternal RTX 3060 12GB WQHD RTX ON DLSS ON​

 
Zuletzt bearbeitet:
Sahit schrieb:
@DaHell63 du versteht es nicht (oder stellst dich absichtlich dumm). Nicht jeder ist willens sich jede Generation eine neue Karte zu kaufen. Sondern kauf halt alle 2-3 Generationen eine. Der VRAM der RTX3070 ist aber nicht gewachsen, nein er ist noch genauso groß wie bei der GTX1070 und kommt bereits heute ans Limit. Das heißt es wird wohl keine option sein eine RTX3070 4-5 Jahre zu behalten da der VRAM einfach voll läuft.
Na klar stelle ich mich extra dumm...versteh nur nicht was Du an meinem Satz: Wer sich eine RTX 3070 kauft, mit der Erwartung die Karte 4-5Jahre zu nutzen, hat sich m.M.n verspekuliert. nicht verstehst. Ich sage ja nichts anderes.
Was hat das Kaufverhalten anderer mit meinem Kaufverhalten zu tun? Ich kauf eben jede Gen. Andere können/dürfen das nach ihrem Gusto tun. Aber gut, daß wir solche Leute wie Dich haben die einem erklären, daß nur ihre Meinung zählt und anders denkende sich dumm stellen 👍.
Wenn Du mit der Leistung der GTX 1070 glücklich bist...deine Sache, aber laß einfach andere in Ruhe die mehr Leistung wollen und einen anderen Aufrüstrytmus als Du haben.
 
Zuletzt bearbeitet:
Sahit schrieb:
@Laphonso Ja ich sag ja auch Garnichts dagegen jeder muss abwägen und du hast ja selbst gesagt das die NV Karten bis auf die RTX3090 alle zu wenig Speicher haben. Mit dieser Einstellung bin ich 100% gleich auf.
Moooment ;) Wir sprechen über die 8 GB VRAM und darüber, dass dann differenziert werden muss.
Ich sehe nicht so, dass alle Ampere GPUs "zu wenig" Speicher haben.

Ich war und bin eher enttäuscht, dass die 3080 Performance nicht noch weitere 10-15% vor einer 2080Ti hatte.
noseferatu hatte hier im Forum mit einer 2080Ti unter Wasser ja sogar die 3090 in SotTr überholt, das war schon tragisch. Aber ein anderes Thema.
 
  • Gefällt mir
Reaktionen: Maggolos
@DaHell63 Oh man (man merkt dir deutlich an das du dich persönlich angegriffen fühlst weil ich sage eine 3070 hat zu wenig VRAM).
Ich wage zu behaupten das nicht jeder, jede Generation ne neue Karte kauft (ich denke soger die Mehrheit aller User wechselt erst nach 2-3 Generationen). Ist das dein Usecase hast du mit der RTX3070 genau die richtig Entscheidung getroffen. Ändert nichts daran das man auch andere Meinungen akzeptieren sollte. Die halt der Meinung sind eine GPU für ~600€ sollte länger durchalten als nur eine Generation.

Das NV extrem knausrig beim VRAM der RTX3070 und 3080 war kann wohl keiner bestreiten und das hätte bei ~600€ und mehr nicht sein müssen. Technisch stellt es kein Problem da eine 3070 mit 16GB auszustatten.
Ich kritisiere hier das sich NV bewusst dafür entschieden hat die RTX3070 so zu beschneiden das der Lebenzyklus der GPU so kurz wie möglich ist. Stichwort: geplante geplante Obsoleszenz

@Laphonso ok dann habe ich als ich in #199 falsch zwischen den Zeilen gelesen für mich kam das so rüber :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli, Laphonso und TexHex
B3nutzer schrieb:
Das Avatar Game für 2022 wird auch schon mit RT beworben. Mainstreaminger als ein Ubisoft Multiplattform Spiel mit Mainstream Setting und Mainstream zielgruppe wirds nicht mehr.
Wird hoffentlich besser als das letzte Avatar-Game:

 
  • Gefällt mir
Reaktionen: Laphonso und ZeroStrat
Welches Spiel hat denn derzeit das Maximum an VRAM mit "üblichen" Mods? Skyrim mit 16 GB VRAM und allem, was 4K und 8K Texturen betrifft oder wie?
 
Sahit schrieb:
Oh man (man merkt dir deutlich an das du dich persönlich angegriffen fühlst weil ich sage eine 3070 hat zu wenig VRAM).
Wieder eine Unterstellung. Und wieder ignorierst Du meinen Satz: Wer sich eine RTX 3070 kauft, mit der Erwartung die Karte 4-5Jahre zu nutzen, hat sich m.M.n verspekuliert
Ich habe mir die RTX 3070 gekauft weil ich eben weiß, daß die nur bis zur nächsten Gen halten muß. Ausserdem sind die 189€ Aufpreis, zur verkauften RTX 2070 super, jetzt nicht die Welt.
Ihr solltet die RTX 3070 Käufer nicht alle für so Blauäugig halten. Ich hab mir ja auch die RX 6800 gekauft...mit dem Wissen, daß max RT in vielen Spielen nicht drin ist und es in Zukunft sicher nicht besser wird. Aber das erwarte ich von der Karte auch nicht. Genausowenig erwarte ich von einer 8GB VRam Karte, daß sie X Jahre Dienst in meinem Rechner tut.
 
Zuletzt bearbeitet:
Sahit schrieb:
@.Sentinel. Ja und warum machst du dann in #220 Speicher an der Auflösung fest. Ach komm hör auf.....
Ich find dazu jetzt echt keine Worte mehr. Erst wird Speicher an der Auflösung fest gemacht und in der nächsten Äußerung wird gesagt ne das ist gar nicht so und wieder wird sinnlos NV Politik der Speicherkrüppel verteidigt.
Ich zitiere eine Art der Argumentation, die man hier im Forum oft antrifft (VRAM/Ausgabeauflösung), schildere aber zugleich den korrekten technischen Sachverhalt, dass eben die Backbuffer mit den Frontbuffern nichts gemein haben müssen.

Und zudem kritisiere ich, dass die von NVIDIA für Realtime- Raytracing entwickelte Komplementärtechnik (DLSS) für die Beurteilung von älteren Karten und Karten mit wenig VRAM keine Beachtung findet.

Das ist wie wenn ich bei einem Autotest bezüglich der Maximalgeschwindigkeit einfach den Turbolader abschalte und dann zum Ergebnis komme, dass das Auto zu schwach sei.

Der User sieht nur das hier:
1625830512397.png


...und stuft dadurch automatisch eine 2060 als "untauglich" ein.

Obwohl das hier der Praxis entspricht:
https://www.computerbase.de/forum/t...len-viel-grafikspeicher.2031468/post-25815551

Man lässt also einfach eine 240 Rechenkerne außen vor,
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dampflokfreund
Laphonso schrieb:
Man muss keine 3090 haben, um Doom Eternal mit Raytracing spielen oder genießen zu können.
Dass die Nvidia GPUs stärkere roh-Raytracing Leistung haben und dazu dank DLSS aktuell hier mehr Möglichkeiten haben als AMD GPUs, ist nun nichts Neues mehr, aber auch mit RDNA 2 kann man das Spiel mit Raytracing bereichern.

Daher passt:
less QQ more pew pew ;)

Hinweis oder „Kritik“ wie es der der Artikel von CB hier erwähnt ist sehr sehr wichtig.

Wenn du eine 8GB Karte gut findest, besteht nächstes Jahr wieder die Möglichkeit einer weiteren 8GB 70er Karte.

Vor 5 Jahren waren auch alle mit ihrem Intel 4Kerner zufrieden und brauchten nicht mehr Leistung….

Viel VRam öffnet auch Türen für Mods welche nicht perfekt optimiert sind.
Jene sind es welche Spiele wie TW3 oder Skyrim am Leben halten.

Meiner Ansicht nach ist RT komplett überflüssig, da ein gut ausgebildeter Designer auch ohne RT mein Auge hinters Licht führen kann.
geben dem ganzen aber viel Pluspunkte da es DLSS/FRS nötig gemacht hat.
 
DaHell63 schrieb:
Wieder eine Unterstellung. Und wieder ignorierst Du meinen Satz: Wer sich eine RTX 3070 kauft, mit der Erwartung die Karte 4-5Jahre zu nutzen, hat sich m.M.n verspekuliert
Ja und jetzt akzeptiere doch mal das du damit wohl die Ausnahme bist. Mehr sag ich doch nicht. Ich bin aber ganz und gar nicht deiner Meinung. Eine 600€ GPU muss länger halten als nur eine Generation und ich denke mit der Meinung bin ich nicht alleine.

Du findest es also gut das NV sagt: alle Kunden die ne 3070 kaufen für 500-600€ müssen damit rechnen das die GPU aufgrund unserer VRAM Politik bereits mit der nächsten Generation ersetzt werden muss.

Naja und ob man bei ausreichender Verfügbarkeit der Karten wirklich mit 189€ hin kommt ist mal dahin gestellt. Also ich würde mir keine Karte der letzten Generation gebraucht kaufen wenn ich für ~200€ mehr 50% mehr Leistung + Garantie + neue Features haben kann. Geht man von den UVP preisen aus 519€ für ne RTX3070 müsste du die RTX2070 noch für 319€ verkaufen. Wer sowas kauft dem ist in meinen Augen nicht mehr zu helfen.

@.Sentinel. man könnte auch sagen du legst es dir so hin wie du es brauchst.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Erzherzog schrieb:
Also bevor ich hier äußere das ich mit der 3070 dann nur in FullHD zocke gebe ich mir lieber 4k auf der Konsole mit 30 FPS RT, aber jeder wie er will :p
Man muss ja eh dazu sagen das ist seit Jahren die Strategie von Nvidia, die Mittelklasse Karten soll man möglichst schnell Upgraden. Glaube kaum das hier viele schreien das sie noch eine 970 oder so im Rechner haben. Das AMD Pendant zuletzt in Form der RX580 / RX5500 mit mehr VRAM kann man ja jetzt noch easy in FullHD fahren. Ist halt blöd wenn man immer am VRAM spart (auch an der Qualität) und das noch als Premium verkauft.

Wenn einem 30 fps ausreichen, dürfte auch die 3070 für fast alle Spiele in 4K gewappnet sein. Bei 33 Millisekunden pro Bildwechsel wird vermutlich nicht mal mehr das Nachladen von Texturen bei speicherlastigsten Spielen ein Problem sein.

Ich hoffe ja, dass Ratchet&Clank: Rift Apart mit seinem optionalen 40 fps-Modus einen Konsolentrend einleitet: falls 60 fps nicht möglich sind, fällt man nicht auf 30 fps zurück, sondern auf deutlich angenehmere 40 fps zurück (entsprechender 120Hz-Fernseher oder AdaptivSync-Fernseher mit 40-fps-Range vorausgesetzt).

Zudem muss man bei Vergleichen auch immer bedenken, dass die 4K bei PS5 und Xbox Series X oft nicht nativ sind und dass auch nicht die maximalen Einstellungen der PC-Version verwendet werden, sondern geringere.

Als Beispiel die PS5-Version von Control Ultimate Edition:

control_ps5.png

Das AMD Pendant zur GTX970 (2014) waren übrigens nicht die RX580 (2017) oder RX5500 (Ende 2019).

Das AMD Pendant zur GTX970 (2014) waren die R9 290/X (überwiegend auch nur mit 4 GB) und die R9 380... wegen Irrelevanz werden diese jedoch seit etlichen Jahren gar nicht mehr getestet, während die GTX 970 immer noch in den meisten Testparkouren ist.

Laut Steamumfrage hatte die GTX 970 im Mai immerhin noch einen Anteil von 1,54%, während die komplette R9-200-Serie bei 0,11% herumdümpelt und die R9 380 bei 0,14%.

So viel zur Langlebigkeit...
 
Sahit schrieb:
@.Sentinel. man könnte auch sagen du legst es dir so hin wie du es brauchst.
Nein- Weil Du das genau so x- Fach in den Foren zu lesen bekommst.

Allein in diesem Thread legen sich technikunabhängig alle User alles so hin, wie sie es brauchen, obwohl technisch eindeutig evident ist, dass es in dieser Generation keine eindeutigen Gewinner, geschweigedenn zukunftssichere Karten in herkömmlichen Sinne gibt (außer der 3090).

Und darum wird hier seitenweise ein Trara gemacht. Es kommt hier rein auf die eigene Präferenz und den Usecase an - und auf sonst garnichts. Da muss man nichts rechtfertigen, nichts schönreden oder sonstwas.

Bei allen aktuellen Karten ist die Wahrscheinlichkeit sehr hoch, dass sie schnell outdated sein werden.
Seis bei dem einen der Speicher oder bei dem anderen der Mangel an AI Einheiten und schwächerer Raytracing- Leistung.

Wir befinden uns im technischen Umbruch (Streaming/Direct storage/Sampler feedback/Realtime raytracing).
Und in solchen Zeiten war die Hardwareaktualität nie von sonderlich großer Dauer.

Sind die Leute halt nicht mehr gewohnt, weil es vorher 10 Jahre lang immer nur more of the same gab.
Also sollte man sich den Grabenkrieg, wessen Grafikkarte nicht noch weniger zukunftsfähig ist als die andere einfach mal schenken.

Dafür sind die möglichen Entwicklungsszenarien einfach zu vielfältig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schattenspender, Maggolos und TexHex
Sahit schrieb:
Nun fressen Texturen aber kaum GPU-Power ergo kann es im Lebenszyklus einer GPU mit wenig VRAM auftreten das das Game trotz noch ausreichender GPU-Power nicht mehr gut Läuft
Ja! Dem möchte ich gar nicht widersprechen.
Aber es existieren meines Erachtens mehr Faktoren die zum Ende einer GPU führen.
Und da ist meiner Erfahrung nach der Speicher der geringste Faktor, es sei denn die GPU war schon zum Launch deutlich unterbestückt.
 
Fuchiii schrieb:
Ah..also benutzt die Mods niemand..Ja..gut dann...
Man fragt sich, wie man Skyrim & Co. mit Mods gespielt hat, als es noch gar keine Grafikkarten mit mehr als 8 GB (.... oder 6 GB ... oder 4 GB) gab.

Das ist ja jetzt nicht unbedingt ein neuer Trend, der erst durch 11GB+ Grafikkarten überhaupt ermöglicht wurde.
 
Cohen schrieb:
Laut Steamumfrage hatte die GTX 970 im Mai immerhin noch einen Anteil von 1,54%, während die komplette R9-200-Serie bei 0,11% herumdümpelt und die R9 380 bei 0,14%.
Das zeigt, dass nicht der V-Ram zu Aufrüstungen führt, sondern eine Mischung aus allem.
Meine bessere Hälfte spielt noch mit einer RX 470 4GB in Full HD und hat nie Speicherprobleme.
Natürlich nicht auf ultra, aber wer muss das schon.
 
@.Sentinel. Dann haben wir wohl ewig aneinander vorbei geredet. Ich bin der Meinung das 8gb zu wenig sind. Wenn jemand anderer Meinung ist bzw es klar für sich abgewogen hat das 8gb in seinem Usecase reichen ist das OK.
Wenn man hier aber viele hört (einschließlich dich) wird so getan als wenn bei NV alles extrem gut ist.
Nein ist es eben nicht die 3070 ist nen VRAM Krüppel. Bekomme ich echt einen zu viel.
Die negativen Punkte von AMD hab ich bereits schon mehrfach genannt.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und .Sentinel.
Zurück
Oben