Test Doom Eternal Update 6 im Test: Hohe FPS mit Raytracing wollen viel Grafikspeicher

Nolag schrieb:
Mit Metro Exodus gibt es aber nun auch ein gutes Beispiel für RT Global Illumination und das ist schon eine dramatische Verbesserung.
Danke für den Tipp, schaue ich mir mal an.
 
Lasyx schrieb:
Ja, so wars 😉.
Vor Allem wenn sich Alles unrealistisch spiegelt obwohl es realistisch aussehen sollte.

Die Möglichkeit Off-Screen-Elemente zu Reflektieren und der Effekt von Ray-Traced-Global-Illumination ist ein deutlicher Sprung Richtung "Realismus".

Dass Dinge momentan häufig "zu spiegelnd" sind, hängt wohl damit zusammen, dass Reflexionen auf glatten Oberflächen weniger Leistung benötigen, als auf matteren. Das wird sich in Zukunft, wenn leistungsfähigere Hardware am Markt ist, sehr wahrscheinlich ändern.

Mit diesem Verständnis sollte klar sein, dass Ray Tracing DER Weg zu realistischerer Beleuchtung ist. Weswegen es auch seit Jahrzehnten in der Filmindustrie genutzt wird und dort unerlässlich ist.

Dass das heute (mit reduzierten Details) in Echtzeit möglich ist, statt mehreren Stunden pro Frame, ist ein enormer Fortschritt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, Volvo480, RogueSix und eine weitere Person
.Sentinel. schrieb:
?
Dir ist schon klar, dass es bereits erfolgreich in mehreren Titeln zum Einsatz kommt?
...die Konsolen das beherrschen und einsetzen?
Bessere Grafik ist kein Kaufargument bei einer Grafikkarte?

Interessante Sichtweise....
Bessere Grafik in wie fern? Unrealistische Spiegelungen?
Mir wurde Metro Exodus ans Herz gelegt. Die youtube vids sehen da wirklich beeindruckend aus und der unterschied ist wirklich stark, aber das scheint ein ausnahmebeispiel zu sein. So eine Umsetzung ist was anderes als reflexionen auf nasser Strasse.
 
  • Gefällt mir
Reaktionen: Redundanz und Pleasedontkill
Lasyx schrieb:
Vor Allem wenn sich Alles unrealistisch spiegelt obwohl es realistisch aussehen sollte.
Diesen Satz liest man relativ oft. Das stimmt zu Teil, was man aber nicht vergessen sollte:
Spiele versetzen uns auch oft in Szenarien, in denen man normalerweise eher weniger unterwegs ist und die bewusst interessant aussehen sollen. Damit meine ich nichtmal irgendwelche Kriegschauplätze sondern schlicht sowas:
Dunkelheit + Nass + extreme Beleuchtung z.B. durch Werbeanzeigen:
"Übertriebene" Reflexionen können also in der richtigen Situation durchaus realistisch sein.
 
  • Gefällt mir
Reaktionen: Maggolos und .Sentinel.
Das mit dem Realismusargument ist auch immer komisch, wenn RT abgelehnt wird und man dann lieber zum Rasterizer zurückkehrt, wo man so Sachen hat, wie dass ein Raum hell beleuchtet ist und Kisten tiefschwarze Schatten werfen und am besten auf derselben Seite die Kiste aber heller dargestellt wird. Oder wo einfach Schatten fehlen oder Licht auf Stellen geworfen wird, wo gar kein Licht hinkommen kann.

Siehe hier: https://i.ytimg.com/vi/Ltcfj9ff0e0/maxresdefault.jpg

Das Licht an der Decke links, die Wand, die aber dunkler ist. Die Beleuchtung mit RTX ist natürlich nicht perfekt, aber ohne RTX fast überall komplett falsch. :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maggolos, .Sentinel. und Laphonso
Turrican101 schrieb:
Das Licht an der Decke links, die Wand, die aber dunkler ist. Die Beleuchtung mit RTX ist natürlich nicht perfekt, aber ohne RTX fast überall komplett falsch. :freak:

In Tomb Raider haben wir reines Schatten-Raytracing, und das verändert nicht die Immersion in der Form, aber es ergänzt das Stimmungsbild.
Control und auch Cyberpunk z.B. profitieren dagegen enorm von den RT Facetten, sie bereichern die Stimmung. Watch Dogs Legion dagegen war mir auch eine Spiegelungsnuance zu viel.

Metro Exodus verliert dermaßen an Atmosphäre in den relevanten Passagen ohne Raytracing, das ist beeindruckend, was das ausmacht. Wenn man RT ausmacht.


Leider kommt das in den Videos nicht so rüber, es ersetzt den "selbst gespielt"-Erlebniseffekt nicht.
Es ist in der Realität noch beeindruckender in der Empfindung als im Video.

Das GI/Licht/Schatten-Raytracing leistet nach den Erfahrungen der letzten 2 Jahre den größten atmosphärischen Beitrag.

Und dort, um auf Dein Beispiel zu kommen, Turrican, stößt man auf Phänomen in vielen RT Games, "you can't unsee it", sofern man den Unterschied gesehen hat.
 
Nolag schrieb:
Ja, SVOGI und VXAO funktioniert gut, benötigt aber auch richtig Leistung und ist daher nicht sehr verbreitet. Lumen ist im Vergleich zu RT Global Illumination ziemlich träge, weil die Bounces über die Zeit akkumuliert werden müssen. Für schnelle Änderungen der Beleuchtung ist Lumen daher ungeeignet.
Ja VXAO habe ich nicht gekannt, habe es damals 2016 komplett ignoriert weil es auch eher so eine proprietäre Umgebungsverdeckung sei.
Hat irgendwie auch keinen Entwickler interessiert und ist heutesschon wieder tot.
Kennt jemand ein Spiel welches das nutzt, TombRaider?

Danke für den Hinweis.
 
Laphonso schrieb:
Die RT Assoziation = "kommt von Nvidia".
Das alleine reicht schon, denn wenn man sich die Grundgesamtheit des aktiven CB Forums ansieht, "versteht" man das Gebashe. Die AMD Gruppe findet immer Ventile.

Ich hätte zudem mal eine qualitätsgesicherte Umfrage, "wer" RT abwertet (mit welchen System spielen die).
Ich vermute das 90% der RT Basher keine 3080, 3080Ti und 3090 am Start haben, also die 3 schnellsten Raytracing GPUs.
Von daher kann man das RT Bashen gut filtern, ist nur verdecktes Nvidia hating, wie immer hier.
Und der Neid der non-High End - GPU - Gruppe. Business as usual in Foren ;)
Habe eine MSI 3090 und finde RT ein momentan überflüssiges Feature so wie es eingesetzt wird. In Watch Dogs zuviel, in Cyberpunk ok, sieht aber ohne auch super aus.
Natürlich kann man meine Meinung nun als abweichende Einzelmeinung abweisen, aber das geht ja immer.
DLSS finde ich allerdings eine gute Technologie wenn die Karten trotzdem nur mit nativer Leistung eingepreist werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Pleasedontkill schrieb:
Ja VXAO habe ich nicht gekannt, habe es damals 2016 komplett ignoriert weil es auch eher so eine proprietäre Umgebungsverdeckung sei.
Hat irgendwie auch keinen Entwickler interessiert und ist heutesschon wieder tot.
Kennt jemand ein Spiel welches das nutzt, TombRaider?

Danke für den Hinweis.
Von Nvidia gabs ja auch bei den Schatten PCSS und HFTS propitär in The Division. Ka ob das noch in einem anderen Spiel danach eingebaut wurde bzw. mit RT hat sich das auch quasi erledigt.

Sahit schrieb:
Edit: Jeder der eine RTX3070 sein eigen nennt sollte halt genau wissen das Probleme auf ihn zu kommen könnten weil NV zu geizig beim VRAM war bzw. die GPU für den geboten VRAM einfach zu schnell ist und das es für NV kein Problem gewesen wäre 16GB zu verbauen (man tauscht die 1GB Module einfach geben 2GB Module).
Dann wird die Karte aber auch wieder teurer und man muss ja preislich auch mit AMD gleichbleiben einigermassen. Und wenn man halt doch 2gb Module nimmt, muss man das ganze so wie AMD voll durchziehen von der kleinen 6700 mit 12gb an bis zur 6900 mit dann 3x 16Gb Karten. Würde aber bei NV mit ihrem Speicherinterfaceproblem nicht optimal lösbar sein. Dazu müsste man eben genug 1,5 Gb Steine haben damit man eine 3070/3070Ti mit 12Gb anbieten kann und dann die 3080/3080Ti mit 15GB um auch nicht zu viel unnötigen vram draufzuballern. Den den Aufpreis sind wieder nur die 3090 Enthusiasten Käufer berreit zu zahlen bzw. verwendet man die aktuellen 2 GB Chips lieber auf den Serverkarten wo man ordenlich dafür anbassieren kann.
Denke mal bei der Servermarge geht es NV ziemlich am Arsch vorbei wenn sich in Foren über den Vram Mangel ihrer Karten aufregt wird. Wenn das Gaminggeschäfft nicht mehr rentabel wird dann gibt man es halt auf. Das läuft sowiso nur so nebenbei mit weil es sich anbietet.

Da hat AMD derzeit halt mit den 256bit und dem IF und 16Gb vram eine sehr gute Lösung am Start. Damit besteht aber auch das Problem das RDNA 3 wohl beim Vram nicht so viel mehr bieten wird können und bei 16Gb max verharren, da das derzeit eine sehr gute Lösung darstellt und ausreicht. Dann zieht man wieder über die 7900 und 8900 her weil die auch "nur" 16Gb vram bieten bei viel besserer Leistung, was so eine absolute Frechheit ist, die müssten dann ja mindestens 24 - 32Gb haben usw.

Ich sehe das ganze gelassen und finde zwar, dass wenn ich eine 3070TI oder 3080 kaufen würde für die aufgerufenen Preise mehr vram haben wollen würde, aber dann kauft man halt einfach nicht. Alternativ muss man halt zu AMD greifen. Derzeit im RT übergang gibt es keine perfekte Karte und die RT Anforderungen werden geschätzt die nächsten Jahre noch ordentlich steigen bis die Karten bei der RT performance auf einem annehmbaren Niveau sind. Daher wenn man auch RT nutzen will dürfte derzeit sowiso maximal die 3090 einige Zeit halten, aber auch nicht ewig. Und die 3060 hat zu wenig Rohleistung und RT Leistung, sodass hier die 12Gb halt auch nicht helfen werden.

Somit muss jeder für sich eine Prioritätenliste erstellen und dann das beste Produkt aus dem aktuellen Pool auswählen. Alternativ kann man ja immer noch versuchen eine gebrauchte 2080Ti zu ergattern, die haben einen annehmbaren Mittelweg von allen.

Für mich ist die 3060Ti, auch mit nur 8Gb Vram ein ganz passables Produkt, wenn denn die UVP erreicht werden. Mal schauen, was die RX 6600 XT so abliefert, wobei hier die 3060 mit 12GB vram, dlss sowie RT Leistung eine sehr starke Konkkurenz wird.
 
Zuletzt bearbeitet:
GERmaximus schrieb:
Das ist doch bei jedem Game so mit den „richtigen“ Einstellung.

Dennoch empfinde ich es als ungünstig schon direkt Textur settings reduzieren zu müssen, bei einer so starken Karte wie die 3070ti.
Gerade weil Textursettings keine Bzw. marginal Leistung kosten.

Diese völlig vermurkste Speicherbestückung der Ampere Generation ist einmalig.

Da bin ich mal auf nextgen Speicherbedarf gespannt.
Dafür bringen sie umgekehrt oft noch kaum noch einen sichtbaren Mehrwert. Oft muss man den Unterschied zwischen Mittel, Ultra, Super X Ultra, etc.... mit der Lupe suchen...

Aber vielleicht muss man sich das bei der 3070 wirklich noch mal überlegen.... Man muss sich halt vorher bewusst sein was man wie und auch wie lange zocken will.

Zb scheint ja die 1060 3gb wirklich langsam der Speicher General zu wenig zu werden. Hat mich fast schon überrascht das Video
Aber man sollte jetzt auch bedenke, wann die 1060 auf den Markt gekommen ist. Von meiner 480 mit 8gb kann ich sagen, da muss generell eine neue Karte her.... ohne das ich den Speicher voll bekomme...

Ich für meinen Teil denke schon, das man mit den aktuellen Amperkarten durchaus ähnlich lange Spaß haben kann wie mit einer 1060 3gb. Und die war nochmal eine ganze Leistungsklasse drunter.
 
Vitec schrieb:
Wenn das Gaminggeschäfft nicht mehr rentabel wird dann gibt man es halt auf. Das läuft sowiso nur so nebenbei mit weil es sich anbietet.
Gaming ist das Hauptstandbein von Nvidia.

Jetzt wo ihnen AMD am Hintern hängt kann ich mir nicht vorstellen dass die nächte Generation wieder so eng am VRAM bemessen sein wird.

Zu der ganzen Diskussion hier muss ich aber auch sagen, dass ich mit meinen 8 GB VRAM noch nie Probleme in einem Spiel (4k) hatte. Nur in Control wäre es zu eng geworden, aber da gab es DLSS. Ohne DLSS hätte auch die Rohleistung nicht gereicht.

Vitec schrieb:
Daher wenn man auch RT nutzen will dürfte derzeit sowiso maximal die 3090 einige Zeit halten, aber auch nicht ewig.
Für 1080p ohne DLSS vielleicht.
In 4k+RT+DLSS ist die 3080 doppelt so schnell wie die 2080. Nvidia hat gut an RT+DLSS gearbeitet und wird das sicherlich auch weiterhin tun. Ich könnte mir vorstellen, dass die 4070 die 3090 in 4k+RT+DLSS schlagen wird.
 
Das Zeitalter der 8GB-Karten ist eben bald vorbei. Oh wait...
https://winfuture.de/news,123299.html
Ergänzung ()

Vitec schrieb:
Da hat AMD derzeit halt mit den 256bit und dem IF und 16Gb vram eine sehr gute Lösung am Start. Damit besteht aber auch das Problem das RDNA 3 wohl beim Vram nicht so viel mehr bieten wird können und bei 16Gb max verharren, da das derzeit eine sehr gute Lösung darstellt und ausreicht. Dann zieht man wieder über die 7900 und 8900 her weil die auch "nur" 16Gb vram bieten bei viel besserer Leistung, was so eine absolute Frechheit ist, die müssten dann ja mindestens 24 - 32Gb haben usw.
RDNA3 wird auch nicht mehr bieten müssen. Die VRAM-Menge richtet sich primär nach der Konsolengeneration, da die Entwickler und die Engine sich auf die Konsolen spezialisieren und nur sehr selten wird nur rein auf dem PC entwickelt.
Daher war nun 8 GB für viele Jahre noch gut ausreichend (Lebensdauer der PS4 und der XBOX One), aber jetzt kommen eben Titel welche mehr benötigen werden, da die neuen Konsolen nun über mehr Speicher verfügen und die Entwicklungsstudios natürlich alles aus der Konsole herausholen.

Das ist eigentlich eine sehr einfache Rechnung, wenn man sich einmal überlegt wie Spiele entwickelt werden um sie so gewinnbringend wie möglich zu vermarken.

Ergo: Wird 12-16GB so lange ausreichen, bis neue Konsolen erscheinen, welche 24 oder mehr GB haben.
Wenn, dann wird erst RDNA4 oder RDNA5 mehr als 16GB Speicher benötigen.
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Das Zeitalter der 8GB-Karten ist eben bald vorbei. Oh wait...
https://winfuture.de/news,123299.html
Ergänzung ()


RDNA3 wird auch nicht mehr bieten müssen. Die VRAM-Menge richtet sich primär nach der Konsolengeneration, da die Entwickler und die Engine sich auf die Konsolen spezialisieren und nur sehr selten wird nur rein auf dem PC entwickelt.
Daher war nun 8 GB für viele Jahre noch gut ausreichend (Lebensdauer der PS4 und der XBOX One), aber jetzt kommen eben Titel welche mehr benötigen werden, da die neuen Konsolen nun über mehr Speicher verfügen und die Entwicklungsstudios natürlich alles aus der Konsole herausholen.

Das ist eigentlich eine sehr einfache Rechnung, wenn man sich einmal überlegt wie Spiele entwickelt werden um sie so gewinnbringend wie möglich zu vermarken.

Ergo: Wird 12-16GB so lange ausreichen, bis neue Konsolen erscheinen, welche 24 oder mehr GB haben.
Wenn, dann wird erst RDNA4 oder RDNA5 mehr als 16GB Speicher benötigen.
Nvidia richtet sich nach den Konsolen, nicht AMD.

Du vergisst völlig, dass bei den Konsolen der Speicher zwischen CPU und GPU aufgeteilt wird und auch ein fester Teil dessen für das OS allociert wird. Für den Videospeicher bleibt da nicht mehr viel übrig.

Real haben die großen Konsolen nur 6-8 GB, die Series S nur 3-4 GB als Videospeicher zur Verfügung. Dazu gibt es dutzende Hinweise, beispielsweise nutzt Watch Dogs auf den Konsolen das High Res Texturen Pack nicht, sondern es werden nur Medium Texturen genutzt, auf dem PC passt das High Res Pack bei 8 GB VRAM Karten mit Raytracing noch rein. Control nutzt ebenfalls nur Medium Texturen auf den Konsolen, obwohl Karten mit 8 GB VRAM+ RT und 1440p keine Probleme mit High haben. Sea of Thieves auf der Series S nutzt Texturen, die man mit Low vergleichen kann. Doom Eternal mit Raytracing läuft nicht mal auf der Series S, wohingegen eine 2060 mit 6 GB das Spiel sogar in 120 FPS mit Raytracing darstellen kann und in nativen 1080p60 ohne DLSS (wenn man den Texture Pool reduziert, was man auf der Series S sicherlich gemacht hätte und auch auf den großen Konsolen macht)

Du liegst faktisch also komplett auf dem Holzweg wenn du denkst, die Konsolen hätten 12-16 GB allein für den VRAM zur Verfügung. Denn wäre das wahr, so würden die derzeitigen Spiele alle auf höchsten Textur-Settings laufen, was aber ganz klar so gar nicht der Fall ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever und .Sentinel.
dampflokfreund schrieb:
Nvidia richtet sich nach den Konsolen, nicht AMD.
Also verwendet Sony und Microsoft NVIDIA-Hardware in ihren Konsolen? Wäre mir jedenfalls neu. 🤔
dampflokfreund schrieb:
Du vergisst völlig, dass bei den Konsolen der Speicher zwischen CPU und GPU aufgeteilt wird und auch ein fester Teil dessen für das OS allociert wird. Für den Videospeicher bleibt da nicht mehr viel übrig.
Der Speicher wird für CPU und GPU gleichzeitig verwendet. Wobei man hier wohl nicht zu erwähnen braucht, dass der Löwenanteil immer zur GPU ausgelagert wird. Die Konsole braucht für die CPU keinen so großen Speicher. Auch dein PC benötigt nicht die volle Speicherbestückung, wenn du nur mit ihm spielst und darauf sind die Konsolen primär ausgelegt und die Games werden dahingehend optimiert.
dampflokfreund schrieb:
Real haben die großen Konsolen nur 6-8 GB, die Series S nur 3-4 GB als Videospeicher zur Verfügung. Dazu gibt es dutzende Hinweise, beispielsweise nutzt Watch Dogs auf den Konsolen das High Res Texturen Pack nicht, sondern es werden nur Medium Texturen genutzt, was auf dem PC bei 8 GB VRAM Karten mit Raytracing noch knapp reinpasst. Control nutzt ebenfalls nur Medium Texturen auf den Konsolen, obwohl Karten mit 8 GB VRAM und 1440p keine Probleme mit High haben. Sea of Thieves auf der Series S nutzt Texturen, die man mit Low vergleichen kann. Doom Eternal mit Raytracing läuft nicht mal auf der Series S, wohingegen eine 2060 mit 6 GB das Spiel sogar in 120 FPS mit Raytracing darstellen kann und in nativen 1080p60 ohne DLSS (wenn man den Texture Pool reduziert, was man auf der Series S sicherlich gemacht hätte und auch auf den großen Konsolen macht)
Du vergisst, dass die Spiele noch alle für die PS4 und die XBOX One ausgelegt werden oder wurden?
Daher ist es logisch, dass sie noch nicht die volle Speichergröße benötigen. Ich rede aber von Next-Gen.
Das beste Beispiel ist Cyberpunk 2077. Dies lief absolut grottig auf PS4 und XBOX One. allerdings auf PS5 und PC ging es deutlich besser. Woran lag dies? Wohl primär am Mangel an Speicher der Last-Gen!

dampflokfreund schrieb:
Du liegst faktisch also komplett auf dem Holzweg wenn du denkst, die Konsolen hätten 12-16 GB allein für den VRAM zur Verfügung.
Nein, bin ich absolut nicht, denn es ist immer so gewesen. Schon damals, als die PS4 erschien so hat AMD mit ihren ersten 8GB-Speicher auftrumpften(R390x 8GB oder VEGA64 8GB). Zuvor waren Spiele oft noch mit 4 GB völlig zufrieden. Kann man Heute noch sehen, wenn man einmal die Speicherauslastung betrachtet, selbst wenn man selber deutlich mehr Speicher zur Verfügung hat.
Was glaubst du wer sich am besten mit den Konsolen auskennt, schließlich baut AMD die Hardware dazu. 🤨

Ergo: Absolut korrekt meine Analyse und trifft wie immer 100% zu. 😊👍
 
Sahit schrieb:
Du triffst den Nagel mit deiner Aussage auf den Kopf siehst das ganze aber nur einseitig. Was nützt dir eine RTX3070 wen ihr trotz DSLL für WQHD der Speicher ausgeht? Ich sag nur Stichwort Texturmods usw.
Weiterhin was passiert wenn RT immer und immer mehr Leistung frisst und du dann mit der RTX3070 kein RT mehr verwenden kannst.
Richtig genau dann wäre wohl eine RX6800er die bessere Wahl gewesen.

Und jetzt frage ich dich wie kann man es Verteidigen das NV dann nur 8GB VRAM auf der RTX3070 verbaut und 10GB auf der RTX3080?
Jeder kann ja kaufen was er will aber den 8GB VRAM Ausbau bis aufs Blut verteidigen WIRKLICH?

Edit: Jeder der eine RTX3070 sein eigen nennt sollte halt genau wissen das Probleme auf ihn zu kommen könnten weil NV zu geizig beim VRAM war bzw. die GPU für den geboten VRAM einfach zu schnell ist und das es für NV kein Problem gewesen wäre 16GB zu verbauen (man tauscht die 1GB Module einfach geben 2GB Module).

Raytracing wird mittelfristig zur Mindestanforderung. Wenns die Entwickler so machen wie bei Metro, dann wird das Lighting für Rasterizing gar nicht mehr von den Entwicklern implementiert.

Und dann bist du natürlich immer im Vorteil, wenn die Karte mehr RT Leistung hat.
Da das ganze auch auf den Konsolen laufen muss, würde ich mir da als AMD User aber keinen großen Kopf machen.



Was den VRAM angeht muss ich dir hart widersprechen.
Auch da stehen die Konsolen mit ihren nur 16 GB Gesamtspeicher vorm gleichen Problem und genau dafür gibt es auch die groß angekündigten und vielfach beworbenen SSD Streaming features.

Auf der Xbox nennt sich das Velocity Architecture und die beiden Kernfeatures davon sind Sampler Feedback Streaming und Direct Storage. Damit wird das VRAM Problem entschärft, weil das gesamte Memorymanagement auf den Kopf gestellt wird und massiv an Speichereffizienz dazugewonnen wird. Kurz, der VRAM Verbrauch sinkt drastisch bei gleicher Qualität (Laut Microsoft um einen Faktor von bis zu über 2x)

Und genau diese beiden Features kommen auch auf den PC.
Das heißt, wenn ein Entwickler auf den neuen Konsolen mit dem Speichermangel umgehen muss und auf die dafür bereitgestellten Streaming Lösungen zurückgreift, dann funktioniert das 1:1 so auch am PC.


Sollte sich der Faktor 2 bei der Speichereffizienz auch in der Praxis bewahrheiten, dann würde ein Spiel, das mit aktueller Technik 16 GB VRAM benötigen würde, dank Sampler Feedback Streaming und Direct Storage nur noch 8 GB benötigen.

Aber wie auch immer es in der Praxis funktionieren wird. Die Devise ist: Abwarten!
Sich aktuell die Köpfe gegenseitig einzuhauen ist völlig sinnfrei, da die Situation in einigen Monaten völlig neu bewertet werden muss, sobald erste next-gen Spiele auf dem PC erscheinen, die davon gebrauch machen.



Was man auf jeden fall im Hinterkopf behalten muss ist, dass es für den Speichermangel bereits eine Lösung gibt, von der auch die Konsolen abhängig sind!
 
  • Gefällt mir
Reaktionen: .Sentinel., DaHell63 und dampflokfreund
lynx007 schrieb:
Zb scheint ja die 1060 3gb wirklich langsam der Speicher General zu wenig zu werden. Hat mich fast schon überrascht das Video
Aber man sollte jetzt auch bedenke, wann die 1060 auf den Markt gekommen ist. Von meiner 480 mit 8gb kann ich sagen, da muss generell eine neue Karte her.... ohne das ich den Speicher voll bekomme...
In den Test hätte er noch eine GTX 970 4 GB und eine GTX 1060 5 GB reinnehmen sollen.
 
@DarkerThanBlack Obs Current oder Next Gen Spiele sind, ist doch irrelevant. Fakt ist, dass nicht mal die höchsten Texturstufen in den heutigen Titeln geladen werden. Wenn genügend Speicher vorhanden wäre, dann würden Control und co nicht auf mittlere Texturen laufen, sondern hohe. Man kann anhand den aktuellen Spielen davon ausgehen, dass die CPU beträchtlich viel vom Speicher abknüpft, sodass für den Videospeicher rund 6-8 GB übrig bleiben. Microsoft selbst hat ja 10 GB an den schnellen Speicher für die GPU angebunden, aber 3.5 GB werden, vor allem zukünftige Next Gen Titel die ja dann voll von den Ryzen CPUs profitieren, wohl kaum für die Game Logik ausreichen.

Was Next Gen Spiele angeht, so werden dort die von B3nutzer angesprochenen Technologien genutzt, die auch auf den PC kommen.
 
Zuletzt bearbeitet:
Bei der PS4 waren ja schon 2,5 GB vom Hauptspeicher für das OS reserviert. Kann mir kaum vorstellen, dass das bei der PS5 weniger geworden ist.
Gerade kurz geschaut und Control sowie CP2077 gönnen sich bei mir kurz nach Spielstart schon jeweils 4 GB vom Hauptspeicher. Bei RDR2 sind es sogar 5,5 GB. Das wird in Zukunft nicht weniger.
Klar, lass es auf den Konsolen ein bisschen weniger sein aufgrund der berühmten Optimierungen. Aber zaubern können die Kisten auch nicht. Dauerhaft denke ich nicht, dass die Entwickler auf Konsolen mit sehr viel mehr als 8 GB VRAM rechnen können.

Womit ich 8GB-Karten gar nicht mal verteidigen will. Ich halte sowohl solche als auch den Speicher bei den Konsolen für unterdimensioniert. ^^
 
Sahit schrieb:
Weiterhin was passiert wenn RT immer und immer mehr Leistung frisst und du dann mit der RTX3070 kein RT mehr verwenden kannst.
Richtig genau dann wäre wohl eine RX6800er die bessere Wahl gewesen.
Echt? Wenn RT noch mehr Leistung fordert, was willst Du dann mit einer RX 6800?
Schon mal versucht Call of Duty Black Ops Cold War/Cyberpunk 2077/The Medium/Minecraft RTX/Watch Dogs Legion max mit einer RX 6800 in 2560x1440 zu spielen?
Es verteidigt die RTX 3070 auch keiner bis aufs Blut...man wehrt sich gegen das blindwütige Gebaschhe von Leuten die eine RTX 3070 zu gerne abstürzen sehen...da muß dann alles max sein. Ob man einen Unterschied sieht oder nicht ist zweitrangig. Durch die ganzen Spieleverschiebungen reicht die RTX 3070 vielleicht sogar länger als angedacht.
Es wird auch nicht auf Gedeih und Verderb eine RTX 3070 empfohlen, wenn die Anfordung nicht passt.
https://www.computerbase.de/forum/threads/rx6800-oder-3070-3070-ti.2030681/page-2#post-25804137
 
  • Gefällt mir
Reaktionen: lynx007
Zurück
Oben