Test Shadow of the Tomb Raider: Raytracing sorgt für etwas Feintuning an den Schatten

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.546
tl;dr: Shadow of the Tomb Raider unterstützt mit dem neuesten Patch nun Raytracing und DLSS. ComputerBase hat sich beide Turing-Techniken genauer angesehen. Raytracing kümmert sich im Spiel um die Schatten und kostet je nach Szene wenige bis viele FPS. Allerdings hält sich der optische Nutzen in Grenzen.

Zum Test: Shadow of the Tomb Raider: Raytracing sorgt für etwas Feintuning an den Schatten
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Averomoe und Labberlippe
Also vom Bild her finde ich Raytracing aus am besten. Zusätzliche sehe ich zwischen aus und der Stufe Mittel fast keinen Unterschied.
 
  • Gefällt mir
Reaktionen: Mcr-King, aid0nex, DeLiKanLi61 und 7 andere
Danke Wolfgang.
Nach dem man in BF5 im Blindtest schon kaum etwas sah, muss man hier nun wirklich mit der Lupe dran.
Ich finde Raytracing interessant, es ist aber bei weitem nicht das propagierte Über Feature im Sinne des optischen Mehrgewinnes

Evtl. mag RT in Zukunft der Burner sein, stand heute empfinde ich es als absolut zu heiß gekocht
 
  • Gefällt mir
Reaktionen: dsahm, Mcr-King, aid0nex und 10 andere
FPS-Leistungsverlust zwischen Aus und Ultra auf den jeweiligen Turing-Karten:

RTX 2080ti = 34%
RTX 2080 = 36%
RTX 2070 = 37%
RTX 2060 = 56%

Da "Hoch" ja schon das empfohlene Minimum ist, denke ich mal ist das gerechtfertigt.
Die Frametimes sehen ja noch schlimmer aus.
Die 2060 erscheint mir immer mehr wie ein ganz großer Witz.
6GB, deshalb nicht mal in der Lage Ultra anständig zu verarbeiten.
Das zeigt ja schon wie sinnlos diese Karte ist.
 
  • Gefällt mir
Reaktionen: Mcr-King, aid0nex, Hatch und 12 andere
Adler-Wolf schrieb:
Also vom Bild her finde ich Raytracing aus am besten. Zusätzliche sehe ich zwischen aus und der Stufe Mittel fast keinen Unterschied.
Das ist irgendwie nicht nachvollziehbar. Die Schatten sind mit RTX Ultra äußerst realistisch weich mit den entsprechenden Halbschattenzonen etc. Das sieht merklich natürlicher aus als bei RTX aus.

Das kostet angesichts des Gewinns viel Leistung, dass ist richtig, aber zu sagen aus sähe am besten aus ohne RTX, ist faktisch betrachtet wenig nachvollziehbar.
 
  • Gefällt mir
Reaktionen: Toni_himbeere, borizb und Luzifer71
Hätte mir jemand vor 6 Jahren gesagt, als ich Tomb Raider 2013 für PC auf meiner 499€ GeForce GTX 680 in 1080p mit 60-80fps gespielt habe, dass man in 2019 eine High End Nvidia Grafikkarte für 1200€ braucht um immernoch 1080p komplett zu maxxen in einem neuen Tomb Raider game dann hätte ich diese Person zwangseingewiesen.

Mich würde interessieren wie die RTX 2060 @ Ultra RayTracing sich in 4K schlägt. Schaffen wir da schon die cineastische Framerate Einstelligkeit?
 
  • Gefällt mir
Reaktionen: Mcr-King, Dark-Silent, Benji21 und 13 andere
@Mustis
er sagte doch das ER keinen Unterschied sieht, bzw. kaum.
ICH sehe auch kaum Unterschied und das was ich sehe steht in keinem Verhältnis aus Performance Verlust zu optischen Gewinn. Faktisch hast du recht, nur eben gefühlt nicht;)

JA RT mag physikalisch alles richtig berechnen, dies ist mir in einem Game aber völlig egal, solange die Immersion so gut ist, das geringfügige Abweichungen im Auge des Betrachters noch als korrekt durch gehen
 
  • Gefällt mir
Reaktionen: Bert, simosh, Herr Melone und 12 andere
Ich freu mich auf die Zukunft, wenn diese Effekte bezahlbarer Standard werden.
 
  • Gefällt mir
Reaktionen: simosh und Mort626
Ich sehe da halt 0 Unterschied.. das würde mir im inGame gar nicht auffallen.. :freak:
 
  • Gefällt mir
Reaktionen: simosh, Herr Melone, SubNatural und 11 andere
RT Ultra sieht gut aus bei den Bildern und da wird für 4K HDR nicht einmal eine RTX 2080Ti ausreichen. Ganz toll gemacht Nvidia :daumen:
Danke für den Test!
 
Mustis schrieb:
Das kostet angesichts des Gewinns viel Leistung, dass ist richtig, aber zu sagen aus sähe am besten aus ohne RTX, ist faktisch betrachtet wenig nachvollziehbar.

Mag sein das es "realistischer" Aussieht, aber für meinen Geschmack sieht das Bild mit Raytracing aus einfach stimmiger aus. Das ist immer noch Geschmackssache und muss nicht faktisch betrachtet werden. (Ähnlich wie der Musik Geschmack.
 
  • Gefällt mir
Reaktionen: derMutant
Zealord schrieb:
Mich würde interessieren wie die RTX 2060 @ Ultra RayTracing sich in 4K schlägt. Schaffen wir da schon die cineastische Framerate Einstelligkeit?

auf hoch und 4k.
15 AVG FPS
12,2 99th Percentile


Auf Ultra sollte es bestimmt unter die 10 FPS gehen ;)
 
  • Gefällt mir
Reaktionen: Mort626 und Zealord
Ich kann mich noch vage an die ersten AA Geschichten erinnern.
Ja AA hat massig Leistung gefressen, aber der optische Zugewinn sprang einem auch ins Gesicht.
Deutlich weniger Flackern, deutlich weniger Treppen.

Hier haben wir aber ein Feature was ebenfalls massig Leistung frisst, aber optisch inGame kaum bis gar keinen Mehrwert bietet.
 
  • Gefällt mir
Reaktionen: Benji21, derin und aldaric
Ich spiele mit einen RTX 2080 in UHD und Dank DLSS konnte ich jetzt einige Dinge weiter hochstellen und komme immer noch auf 60FPS. Wobei RTX aus, DLSS an und dafür andere Dinge hochstellen, den "Schönsten" Kompromiss darstellt.
 
  • Gefällt mir
Reaktionen: Luzifer71
fox40phil schrieb:
Für ein paar weichere Schatten so ein Leistungsverlust?! niemals - und das ginge 100% auch ohne RT Kerne!

Gabs bei AMD damals nicht auch weiche Schatten?
Da liegt mir irgend was an... GTA5 oder so...!??
 
GERminumus schrieb:
Evtl. mag RT in Zukunft der Burner sein, stand heute empfinde ich es als absolut zu heiß gekocht

Naja das ist jetzt eine eher zurückhaltende Umsetzung bei TombRäihdah.
Insofern bitte das nicht als Gesamteindruck für RT generell zu heiß mitkochen.

Und ich hoffe sehr, dass das auch so ist, weil ich nach dem zweiten NV Crash die Tage einiges von dem Zeug in mein Depot geschoben habe bei der Gelegenheit des günstigen Einkaufs...
 
Das komsche ist ja, warum verliert Turing mir aktiviertem Raytracing denn so viel Leistung, wenn es doch auf den dedizierten RT-Kernen passiert und nicht auf der GPU? Wo entsteht da der Flaschenhals, oder produziert das wiederum zusätzliche GPU-Last? Ich dachte genau das war ein Verkaufsargument, dass man quasi ohne Leistungsverlust und zusätzlicher Last auf der GPU echtes Raytracing berechnen kann.
 
  • Gefällt mir
Reaktionen: Stuxi, Friger, simosh und 13 andere
aha, das sieht ja mal ziemlich schlecht aus. zieht natürlich performance ohne ende und sieht dabei noch nichtmal gut aus. unglaublich was für ein riesen fail nvidia mit der rtx serie rausgehauen hat. den größten seit der berühmt berüchtigten geforce fx serie :D

solangsam tendiere ich mehr zu amd bei gpus als zu nvidia und ich hätte noch vor einem jahr niemals gedacht das ich jemals wieder eine amd in erwägnung ziehe (meine letzte ati graka die ich hatte, ist schon 12 jahre her, war ein einziger haufen müll, besonders der treiber damals. seitdem hab ich mir geschworen niemals wieder ati (amd) zu kaufen bei gpus).
 
  • Gefällt mir
Reaktionen: Deathless
Chillaholic schrieb:
Das komsche ist ja, warum verliert Turing mir aktiviertem Raytracing denn so viel Leistung, wenn es doch auf den dedizierten RT-Kernen passiert und nicht auf der GPU? Wo entsteht da der Flaschenhals, oder produziert das wiederum zusätzliche GPU-Last?
Die RT Cores übernehmen nicht die ganze Berechnung, sondern beschleunigen nur Teile davon. Die Shader bauchst du trotzdem und am Ende muss der beste Kompromiss gefunden werden aus RT und möglichst viel FPS.
Und bevor das übliche Gejaule gleich kommt, ohne RT Cores bräuchte man hierfür erheblich mehr Shader bzw. Rechenleistung.
@ZeroZerp kann dir dazu sicher noch genauer etwas sagen, falls er noch Lust hat, solche Themen zu kommentieren ;)
 
  • Gefällt mir
Reaktionen: Bert, simosh, Infi88 und 4 andere
Zurück
Oben