Lasyx
Lt. Commander
- Registriert
- Juli 2006
- Beiträge
- 1.124
Danke für den Tipp, schaue ich mir mal an.Nolag schrieb:Mit Metro Exodus gibt es aber nun auch ein gutes Beispiel für RT Global Illumination und das ist schon eine dramatische Verbesserung.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Danke für den Tipp, schaue ich mir mal an.Nolag schrieb:Mit Metro Exodus gibt es aber nun auch ein gutes Beispiel für RT Global Illumination und das ist schon eine dramatische Verbesserung.
Lasyx schrieb:Ja, so wars 😉.
Vor Allem wenn sich Alles unrealistisch spiegelt obwohl es realistisch aussehen sollte.
Bessere Grafik in wie fern? Unrealistische Spiegelungen?.Sentinel. schrieb:?
Dir ist schon klar, dass es bereits erfolgreich in mehreren Titeln zum Einsatz kommt?
...die Konsolen das beherrschen und einsetzen?
Bessere Grafik ist kein Kaufargument bei einer Grafikkarte?
Interessante Sichtweise....
Diesen Satz liest man relativ oft. Das stimmt zu Teil, was man aber nicht vergessen sollte:Lasyx schrieb:Vor Allem wenn sich Alles unrealistisch spiegelt obwohl es realistisch aussehen sollte.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Turrican101 schrieb:Das Licht an der Decke links, die Wand, die aber dunkler ist. Die Beleuchtung mit RTX ist natürlich nicht perfekt, aber ohne RTX fast überall komplett falsch.![]()
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ja VXAO habe ich nicht gekannt, habe es damals 2016 komplett ignoriert weil es auch eher so eine proprietäre Umgebungsverdeckung sei.Nolag schrieb:Ja, SVOGI und VXAO funktioniert gut, benötigt aber auch richtig Leistung und ist daher nicht sehr verbreitet. Lumen ist im Vergleich zu RT Global Illumination ziemlich träge, weil die Bounces über die Zeit akkumuliert werden müssen. Für schnelle Änderungen der Beleuchtung ist Lumen daher ungeeignet.
Habe eine MSI 3090 und finde RT ein momentan überflüssiges Feature so wie es eingesetzt wird. In Watch Dogs zuviel, in Cyberpunk ok, sieht aber ohne auch super aus.Laphonso schrieb:Die RT Assoziation = "kommt von Nvidia".
Das alleine reicht schon, denn wenn man sich die Grundgesamtheit des aktiven CB Forums ansieht, "versteht" man das Gebashe. Die AMD Gruppe findet immer Ventile.
Ich hätte zudem mal eine qualitätsgesicherte Umfrage, "wer" RT abwertet (mit welchen System spielen die).
Ich vermute das 90% der RT Basher keine 3080, 3080Ti und 3090 am Start haben, also die 3 schnellsten Raytracing GPUs.
Von daher kann man das RT Bashen gut filtern, ist nur verdecktes Nvidia hating, wie immer hier.
Und der Neid der non-High End - GPU - Gruppe. Business as usual in Foren![]()
Von Nvidia gabs ja auch bei den Schatten PCSS und HFTS propitär in The Division. Ka ob das noch in einem anderen Spiel danach eingebaut wurde bzw. mit RT hat sich das auch quasi erledigt.Pleasedontkill schrieb:Ja VXAO habe ich nicht gekannt, habe es damals 2016 komplett ignoriert weil es auch eher so eine proprietäre Umgebungsverdeckung sei.
Hat irgendwie auch keinen Entwickler interessiert und ist heutesschon wieder tot.
Kennt jemand ein Spiel welches das nutzt, TombRaider?
Danke für den Hinweis.
Dann wird die Karte aber auch wieder teurer und man muss ja preislich auch mit AMD gleichbleiben einigermassen. Und wenn man halt doch 2gb Module nimmt, muss man das ganze so wie AMD voll durchziehen von der kleinen 6700 mit 12gb an bis zur 6900 mit dann 3x 16Gb Karten. Würde aber bei NV mit ihrem Speicherinterfaceproblem nicht optimal lösbar sein. Dazu müsste man eben genug 1,5 Gb Steine haben damit man eine 3070/3070Ti mit 12Gb anbieten kann und dann die 3080/3080Ti mit 15GB um auch nicht zu viel unnötigen vram draufzuballern. Den den Aufpreis sind wieder nur die 3090 Enthusiasten Käufer berreit zu zahlen bzw. verwendet man die aktuellen 2 GB Chips lieber auf den Serverkarten wo man ordenlich dafür anbassieren kann.Sahit schrieb:Edit: Jeder der eine RTX3070 sein eigen nennt sollte halt genau wissen das Probleme auf ihn zu kommen könnten weil NV zu geizig beim VRAM war bzw. die GPU für den geboten VRAM einfach zu schnell ist und das es für NV kein Problem gewesen wäre 16GB zu verbauen (man tauscht die 1GB Module einfach geben 2GB Module).
Dafür bringen sie umgekehrt oft noch kaum noch einen sichtbaren Mehrwert. Oft muss man den Unterschied zwischen Mittel, Ultra, Super X Ultra, etc.... mit der Lupe suchen...GERmaximus schrieb:Das ist doch bei jedem Game so mit den „richtigen“ Einstellung.
Dennoch empfinde ich es als ungünstig schon direkt Textur settings reduzieren zu müssen, bei einer so starken Karte wie die 3070ti.
Gerade weil Textursettings keine Bzw. marginal Leistung kosten.
Diese völlig vermurkste Speicherbestückung der Ampere Generation ist einmalig.
Da bin ich mal auf nextgen Speicherbedarf gespannt.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Gaming ist das Hauptstandbein von Nvidia.Vitec schrieb:Wenn das Gaminggeschäfft nicht mehr rentabel wird dann gibt man es halt auf. Das läuft sowiso nur so nebenbei mit weil es sich anbietet.
Für 1080p ohne DLSS vielleicht.Vitec schrieb:Daher wenn man auch RT nutzen will dürfte derzeit sowiso maximal die 3090 einige Zeit halten, aber auch nicht ewig.
RDNA3 wird auch nicht mehr bieten müssen. Die VRAM-Menge richtet sich primär nach der Konsolengeneration, da die Entwickler und die Engine sich auf die Konsolen spezialisieren und nur sehr selten wird nur rein auf dem PC entwickelt.Vitec schrieb:Da hat AMD derzeit halt mit den 256bit und dem IF und 16Gb vram eine sehr gute Lösung am Start. Damit besteht aber auch das Problem das RDNA 3 wohl beim Vram nicht so viel mehr bieten wird können und bei 16Gb max verharren, da das derzeit eine sehr gute Lösung darstellt und ausreicht. Dann zieht man wieder über die 7900 und 8900 her weil die auch "nur" 16Gb vram bieten bei viel besserer Leistung, was so eine absolute Frechheit ist, die müssten dann ja mindestens 24 - 32Gb haben usw.
Nvidia richtet sich nach den Konsolen, nicht AMD.DarkerThanBlack schrieb:Das Zeitalter der 8GB-Karten ist eben bald vorbei. Oh wait...
https://winfuture.de/news,123299.html
Ergänzung ()
RDNA3 wird auch nicht mehr bieten müssen. Die VRAM-Menge richtet sich primär nach der Konsolengeneration, da die Entwickler und die Engine sich auf die Konsolen spezialisieren und nur sehr selten wird nur rein auf dem PC entwickelt.
Daher war nun 8 GB für viele Jahre noch gut ausreichend (Lebensdauer der PS4 und der XBOX One), aber jetzt kommen eben Titel welche mehr benötigen werden, da die neuen Konsolen nun über mehr Speicher verfügen und die Entwicklungsstudios natürlich alles aus der Konsole herausholen.
Das ist eigentlich eine sehr einfache Rechnung, wenn man sich einmal überlegt wie Spiele entwickelt werden um sie so gewinnbringend wie möglich zu vermarken.
Ergo: Wird 12-16GB so lange ausreichen, bis neue Konsolen erscheinen, welche 24 oder mehr GB haben.
Wenn, dann wird erst RDNA4 oder RDNA5 mehr als 16GB Speicher benötigen.
Also verwendet Sony und Microsoft NVIDIA-Hardware in ihren Konsolen? Wäre mir jedenfalls neu. 🤔dampflokfreund schrieb:Nvidia richtet sich nach den Konsolen, nicht AMD.
Der Speicher wird für CPU und GPU gleichzeitig verwendet. Wobei man hier wohl nicht zu erwähnen braucht, dass der Löwenanteil immer zur GPU ausgelagert wird. Die Konsole braucht für die CPU keinen so großen Speicher. Auch dein PC benötigt nicht die volle Speicherbestückung, wenn du nur mit ihm spielst und darauf sind die Konsolen primär ausgelegt und die Games werden dahingehend optimiert.dampflokfreund schrieb:Du vergisst völlig, dass bei den Konsolen der Speicher zwischen CPU und GPU aufgeteilt wird und auch ein fester Teil dessen für das OS allociert wird. Für den Videospeicher bleibt da nicht mehr viel übrig.
Du vergisst, dass die Spiele noch alle für die PS4 und die XBOX One ausgelegt werden oder wurden?dampflokfreund schrieb:Real haben die großen Konsolen nur 6-8 GB, die Series S nur 3-4 GB als Videospeicher zur Verfügung. Dazu gibt es dutzende Hinweise, beispielsweise nutzt Watch Dogs auf den Konsolen das High Res Texturen Pack nicht, sondern es werden nur Medium Texturen genutzt, was auf dem PC bei 8 GB VRAM Karten mit Raytracing noch knapp reinpasst. Control nutzt ebenfalls nur Medium Texturen auf den Konsolen, obwohl Karten mit 8 GB VRAM und 1440p keine Probleme mit High haben. Sea of Thieves auf der Series S nutzt Texturen, die man mit Low vergleichen kann. Doom Eternal mit Raytracing läuft nicht mal auf der Series S, wohingegen eine 2060 mit 6 GB das Spiel sogar in 120 FPS mit Raytracing darstellen kann und in nativen 1080p60 ohne DLSS (wenn man den Texture Pool reduziert, was man auf der Series S sicherlich gemacht hätte und auch auf den großen Konsolen macht)
Nein, bin ich absolut nicht, denn es ist immer so gewesen. Schon damals, als die PS4 erschien so hat AMD mit ihren ersten 8GB-Speicher auftrumpften(R390x 8GB oder VEGA64 8GB). Zuvor waren Spiele oft noch mit 4 GB völlig zufrieden. Kann man Heute noch sehen, wenn man einmal die Speicherauslastung betrachtet, selbst wenn man selber deutlich mehr Speicher zur Verfügung hat.dampflokfreund schrieb:Du liegst faktisch also komplett auf dem Holzweg wenn du denkst, die Konsolen hätten 12-16 GB allein für den VRAM zur Verfügung.
Sahit schrieb:Du triffst den Nagel mit deiner Aussage auf den Kopf siehst das ganze aber nur einseitig. Was nützt dir eine RTX3070 wen ihr trotz DSLL für WQHD der Speicher ausgeht? Ich sag nur Stichwort Texturmods usw.
Weiterhin was passiert wenn RT immer und immer mehr Leistung frisst und du dann mit der RTX3070 kein RT mehr verwenden kannst.
Richtig genau dann wäre wohl eine RX6800er die bessere Wahl gewesen.
Und jetzt frage ich dich wie kann man es Verteidigen das NV dann nur 8GB VRAM auf der RTX3070 verbaut und 10GB auf der RTX3080?
Jeder kann ja kaufen was er will aber den 8GB VRAM Ausbau bis aufs Blut verteidigen WIRKLICH?
Edit: Jeder der eine RTX3070 sein eigen nennt sollte halt genau wissen das Probleme auf ihn zu kommen könnten weil NV zu geizig beim VRAM war bzw. die GPU für den geboten VRAM einfach zu schnell ist und das es für NV kein Problem gewesen wäre 16GB zu verbauen (man tauscht die 1GB Module einfach geben 2GB Module).
In den Test hätte er noch eine GTX 970 4 GB und eine GTX 1060 5 GB reinnehmen sollen.lynx007 schrieb:Zb scheint ja die 1060 3gb wirklich langsam der Speicher General zu wenig zu werden. Hat mich fast schon überrascht das Video
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.Aber man sollte jetzt auch bedenke, wann die 1060 auf den Markt gekommen ist. Von meiner 480 mit 8gb kann ich sagen, da muss generell eine neue Karte her.... ohne das ich den Speicher voll bekomme...
Echt? Wenn RT noch mehr Leistung fordert, was willst Du dann mit einer RX 6800?Sahit schrieb:Weiterhin was passiert wenn RT immer und immer mehr Leistung frisst und du dann mit der RTX3070 kein RT mehr verwenden kannst.
Richtig genau dann wäre wohl eine RX6800er die bessere Wahl gewesen.