• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

MrBackslash schrieb:
Ich fand die hochgepriesenen Raytracing Effekte die bei der RTX Vorstellung gezeigt wurden eh schon nicht so pralle. Aktuell würde ich jedenfalls nicht aufrüsten sondern nächstes Jahr auf die 7nm Karten warten, dann gibt es vielleicht auch genügend Spiele und leistungsfähige GPUs damit Raytracing überhaupt Sinn macht. Die aktuellen RTX sind für mich nur teurer Early Adaptor Schrott.

In Rennspielen echte Spiegel zu besitzen, finde ich schon recht cool. Wenn es denn am Anfang oder überhaupt in Stufen zuschaltbar wäre, wäre es akzeptabel.
 
Naja die Antwort von Dice bestärkt meine Vermutung, dass Nvidia mit den RTX Karten über ein "heute noch" fragwürdiges Feature oder besser gesagt Testballon den Reibach machen möchte. Raytracing kostet bei den jetzt kommenden Nvidia Modellen sehr viel Leistung - in meinen Augen zu viel. Bis Raytracing richtig implementiert ist und auch in Massen der Games vorhanden, wird mindestens noch eine Generationen Grafikkarten ins Land ziehen. Erst ab 7nm wirds das richtig interessant, denn da kann man über den Shrink den heute schon enormen Paltzbedarf der RTX-Cores mit deutlicher Mehrleistung kompensieren.
Ich hoffe ich halte das bis dahin durch ;)
 
Krautmaster schrieb:
is doch heute schon so wenn sich der mit dem Geld ne schnellere GPU + Moni mit 120 hz leisten kann oder?
Die 120Hz bringen dir bei Battlefield reichlich wenig. Dafür ist das zu lahm. Bei Quake live sieht es schon etwas anders aus ab einem gewissen Skill-Level. 120Hz bringt dir nur dann was wenn das deine Reflexe auch mitmachen. Abgesehen davon zocken echte Pros eh auf Niedrig um maximal FPs rauszuholen. Da kommst auch mit ner 1060 auf deine 120FPs in modernen Spielen.

Die Reflektionen vom Gegner hinter dir auf Oberflächen der Umgebung zu sehen wird einen viel größeren Unterschied machen als 120Hz Displays. 120Hz ist nice to have, RTX hingegen wird bei Shootern ein must have um halbwegs kompetitiv zu sein wenn dadurch Spieler-Reflektionen tatsächlich mehr zeigen als ohne.
 
Tapioka84 schrieb:
Stimmt, die Wahrheit wird ans Licht kommen. Sie wird sein, dass die 2080Ti die schnellste verfügbare Grafikkarte für Spieler ist und man RT in ausgewählten Spielen für mehr Eyecandy zusätzlich aktivieren kann. Gleichzeitig wird "ans Licht kommen", dass RT noch nicht flächendeckend sinnvoll einsatzbar ist, da die Leistung noch nicht vorhanden ist - ähnlich wie bei Tesselation zu Beginn. Als 32-Bit-Farbtiefe vor Urzeiten erstmals verfügbar war, war es in vielen Spielen auch nicht sinnvoll einsetzbar, da zu langsam.

Trotzdem werden die neuen Grafikkarten wieder die längsten Balken unter "klassischen" Bedingungen haben. Um RT wird ein Aufstand gemacht, als würden Spieler praktisch wollen, dass es scheitert. Dabei vergisst ein großer Teil dieser Käuferschicht, dass auch beim Einsatz von gutem, altem Rasterizing der gottgleich verehrte Balken länger wird.

Naja hier muss man aber unterschieden, dass deine genannten Vergleiche keine proprietären Entwicklungen waren, sondern offene - oder etwa nicht?! Das ist bei den von NV an Entwickler gebenden RT Bibliotheken oder Funktionen nicht der Fall.
 
guillome schrieb:
Naja die Antwort von Dice bestärkt meine Vermutung, dass Nvidia mit den RTX Karten über ein "heute noch" fragwürdiges Feature oder besser gesagt Testballon den Reibach machen möchte.
Quatsch....... Dice ist mit den Effekten AllIn gegangen und hat erkannt das es zu viel war..... aber ein Aha Effekt gabe es zumindest. Es gibt auch andere Beispiele von Menschen die es besser gemacht haben.
http://www.pcgameshardware.de/Enlis...ytracing-lief-in-4K-mit-ueber-90-Fps-1263737/
Aber ist wie bei allem neuen...man muss sich erst mal rein finden.
Außerdem würde mich brennend interessieren wie sich Variable Rate Shading und DLSS in entsprechenden Spielen in Szene setzen können. Aber teuer ist es!
 
sTOrM41 schrieb:
immer solche pauschalisierungen..

es gibt genug spiele in denen eine 1080ti dafür zu lahm ist.

Auch eine Pauschalaussage, genau wie meine jetzige: ALLE Spiele die es gibt kaufen mit einer 1080Ti unter 4k flüssig. Gut, man muss wahrscheinlich Details sehr runterziehen, aber sie laufen :).
 
Darkscream schrieb:
Es gibt auch andere Beispiele von Menschen die es besser gemacht haben.
http://www.pcgameshardware.de/Enlis...ytracing-lief-in-4K-mit-ueber-90-Fps-1263737/
Aber ist wie bei allem neuen...man muss sich erst mal rein finden.

Wo ist das ein gutes Beispiel? Die nutzen lediglich RT für die Beleuchtung. Das sieht nicht wirklich besser aus, als mit herkömmlichen Mitteln. Dazu machen sie natürlich keine Angabe was eine 1080 Ti unter 4k schafft.

Die nutzen ja die "groundbreaking just works" Features nichtmal (Reflektionen, Spiegelung), daher auch nicht verwunderlich das sie wenig Performance-Einbußen haben.
 
Pisaro schrieb:
Gut, man muss wahrscheinlich Details sehr runterziehen, aber sie laufen :).

Schatten runter und AA aus bringt einiges an FPS in UHD.
 
Vitec schrieb:
Müssen die Enthusiasten halt eine 2te 2080Ti dazustecken und WQHD läuft in 60+ fps
Immer noch billiger als eine Titan V.

Die Frage ist, ob Battlefield 5 in SLI-Modus läuft
 
Vollkorn schrieb:
Das Raytracing ist eine Generation zu früh auf dem Markt genau wie PhysikX zu seiner Zeit und jetzt benutzten es nurnoch eine Handvoll Spieleschmieden. Eigentlich schade bei den gezeigten beeindruckenden Bildern.
PhysX hat NV ganz alleine durch seine Politik geschreddert. Proprietäre Software wird von dritten eben nur eingebaut wenn der Hersteller Zahlt.

ZeroZerp schrieb:
Ich weiss garnicht, was alle immer gegen PhysX haben.
ZB. die massive Limitierung auf singelcore CPUs um die GPU Version zu schützen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Krautmaster schrieb:
das ist eben die Frage ob das in dieser sehr latenzkritischen Umgebung funktioniert. Schön wäre das natürlich, eine tensor + RT karte zur GTX 980 TI einbasteln und schon kann ich Raytracing Effekte nutzen.

Zum Leistungseinbruch. Man darf eben nicht vergessen dass es eine ganz andere Art von Effekt als bisher ist. Wie das AVX bei CPU erstmal selten genutzt wird.
Man hätte natürlich auf 3nm und 4k 60p Raytracing warten können, ganz theoretisch, aber den frühen Start muss Nvidia gehen um die Community dafür aufzubauen und Erfahrung damit zu sammeln. Nur dann kann man die nächsten Gens auch optimieren. Dazu reicht Nvidia auch ein kleines aber nicht zu kleines Klientel.
Seitens der Latenz sehe ich da keine sonderlichen Probleme denn der Effekt ist ähnlich aufgepfropft wie GPU PhysX, was seinerzeit auch mit Beschleuniger Karten lief und wie die MOD Treiber bewiesen haben wäre auch der Einsatz einer kleinen Geforce als Beschleuniger für eine Radeon kein Problem wenn nvidia keine entsprechende Treiber Sperre eingebaut hätte.

Ausgehend von nder aktuellen Situation wäre 3nm und 4k 60p Raytracing nur dann ein Punkt wenn sich bis danin nichts an den Anforderungen der Spiele ändert, was Jahre langen technischen Stillstand bedeuten würde. Das halte ich für äußerst unwarscheinlich.
 
Der Stillstand herrscht doch bereits heute. Optisch tat sich seit Battlefront eigentlich fast nichts und den Unterschied zwischen den oberen Presets sieht man kaum. Dazu gibt es haufenweise Games die durchschnittliche Grafik bei massivem Grafikhunger auf den Schirm bringen.

Gerade letzteres kommt dem Verbrennen von Performance gleich. Kaum ein Studio kann die Grafik so optimieren wie es bei BF V der Fall sein wird.

Wird Zeit dass sich die Herangehensweise ändert. Bei RT verlagert sich der Aufwand wieder von Aufwand bei der Grafik Engine hin zu Level Design und Material Definition. Der Horizont möglicher Grafik dürfte deutlich besser werden, realistischer. Dazu einfacher für kleinere Studios.

Ich denke es wird ein schleichender aber beständiger Übergang. Jahrzehnte hatte ich genannt aber nachvollziehbar dass Nvidia nun den ersten Schritt macht. Es geht ja auch um das Verhältnis der nötigen Ressourcen, für Rays, Rasterizing, Denoise usw...
Ggf geht man bei letzterem von Tensor weg und gießt das ganze in fixed Logic. Sollte deutlich platzsparender und effizienter sein aber weniger dynamisch als Tensor Kerne und Deep Learning algo.
 
Hardware_Hoshi schrieb:
Ok, nun einmal langsam.
Wenden wir diese Logik auch bei Bananenprodukten von AMD an? Vega ist immer noch nicht fertig entwickelt und reift beim Kunden. Entweder wir messen mit gleicherlei Maß oder der doppelte Standard ist fortan für beide Seiten ungültig.

Stimmt gewissermaßen, allerdings bezahlt man für Vega, ohne Miningpreise, auch keine Prototypenpreise.
Die RTX kosten allesamt mehr, und ob sich die 2070 für RT überhaupt lohnt, das steht noch in den Sternen.
Wenn sie auf 500€ fällt und schneller als Vega ist, dann ist das RT ein netter Bonus, solange man kein Sync braucht, was bei der RTX wieder extra kostet.
 
v_ossi schrieb:
@cypeak Bloß sagt die reine Die Größe nichts über deren Herstellungskosten und die Yield Rate aus.
[...]

ja, natürlich spielt die yield rate eine rolle, aber maßgeblich ist immernoch die chipfläche und das nicht erst seit gestern.

du erwähnst es ja selbst: 12nm ist jetzt kein riesiger technologischer sprung im vergleich zu den 16nm; umso "krasser" ist da der anstieg der chipfläche.
wir reden hier nich von plus/minus 20-25% sondern von plus 60-70%.
in meinen augen wäre es da, trotz unterschieden bei der yield rate, naiv zu denken das hätte keinerlei auswirkung auf den preis.

davon abgesehen: die yield raten tendieren bei größeren chipflächen logischerweise schlechter zu sein...
Ergänzung ()

Vollkorn schrieb:
Das Raytracing ist eine Generation zu früh auf dem Markt genau wie PhysikX zu seiner Zeit und jetzt benutzten es nurnoch eine Handvoll Spieleschmieden. Eigentlich schade bei den gezeigten beeindruckenden Bildern.

irgendwann muss man anfangen mit einer neuen technologie.
als damals die T&L engine einzug hielt,war die leistung der ersten generation auch eher "bescheiden" - zwei generationen weiter war das in einer gpu nicht mehr wegzudenken...
 
Darkscream schrieb:
Quatsch....... Dice ist mit den Effekten AllIn gegangen und hat erkannt das es zu viel war..... aber ein Aha Effekt gabe es zumindest. Es gibt auch andere Beispiele von Menschen die es besser gemacht haben.
http://www.pcgameshardware.de/Enlis...ytracing-lief-in-4K-mit-ueber-90-Fps-1263737/

Zumal der Framecounter, wenn man sich die Präse mal ganz anschaut zumeist bei 110-120FPS bei 4K liegt.

Und siehe da- Full global illumination (with many light- bounces), deren Last von den Shadern auf die Raytrace Cores ausgelagert werden und dann so eine bombastische Leistung unter 4K.

Das ist mal ein positives Statement, das von den Kritikern vielleicht auch mal aufgenommen werden sollte:
https://wccftech.com/gaijin-impressed-nvidia-rtx-performance/

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0
Man muss nur zwischen den Zeilen lesen können:
... zunächst weniger Raytracing-Effekte als geplant zu verwenden...

Daraus ergeben sich zwei Möglichkeiten:
1. "Zu faul" bzw. Zeitersparnis um eine vom Nutzer konfigurierbare Option zur Regulierung zu implementieren. Ein Nutzer mit der aktuellsten Hardware oder zwei, drei, vier Grafikkarten wird die Beschränkung nicht nötig haben.
2. Um es zukünftig kostenpflichtig als neues Feature zu verkaufen, da es sich hier um EA handelt.

Die Fanboys können sich denken:
zu 1: "Finde ich toll, dass die an die Performance denken"
zu 2: "Finde ich toll, dass am Spiel weiter arbeiten und neue Features bringen"

Die Hater können sich denken:
zu 1: "Warum werde ich bevormundet und kann nicht selbst über den Grad entscheiden?"
zu 2: "Mal wieder teilt EA ein Feature, um doppelt zu kassieren!"
 
  • Gefällt mir
Reaktionen: fox40phil
Zurück
Oben