• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Resident Evil Village hat erst mit Raytracing Hunger

MMIX schrieb:
rein von der nativen Leistung (also was die Architektur ohne "Tricks" her gibt) sind die Radeons sogar schneller und drittschnellste Kraft - für die erste RT Generation wohlgemerkt.

Drittschnellste Kraft ist man auch ohne DLSS nicht durchweg. Die 3070 liegt im Mittel bei CB genau gleichauf mit der 6800XT und dabei kommen die Radeons hier bei CB im Schnitt noch besser weg als bei anderen Reviews. Bei PCGH mit anderer Spieleauswahl ist die 3070 im RT z.B. 10% schneller als die 6800XT.
Und die 2080Ti, die auf dem Niveau der 3070 liegt, gibts dann auch noch.
 
  • Gefällt mir
Reaktionen: foo_1337
Thor-75 schrieb:
hm dann solltest du das pc spielen lassen wenn du da keinen unterschied siehst :D
Diese Deine Aussage kotzt mich an. Allein deshalb hab ich geschrieben. Du maßt Dir mit einem mittelmäßigen System an, anderen was vorschreiben zu wollen.
 
  • Gefällt mir
Reaktionen: Usagi
Lindar schrieb:
Diese Deine Aussage kotzt mich an. Allein deshalb hab ich geschrieben. Du maßt Dir mit einem mittelmäßigen System an, anderen was vorschreiben zu wollen.
Wenn du den Unterschied nicht siehst solltest du dir ne Brille zulegen. Was durch das Grinsesmilie mehr als Spass zu verstehen war.Das du dich jetzt angepisst fühlst ist dein Problem und ich muss mich auch nicht so anfahren lassen von dir ;) Und wo schreib ich anderen was vor?

Da brauchste auch nicht den PC schlecht zu reden damit triffste mich kein Stück. So und jetzt troll weiter.
 
F4711 schrieb:
Und zu sagen das RDNA2 nicht für RT taugt stimmt auch nicht, denn sonst könnte man das auch zu allen Ampere 3070 und darunter auch sagen.
Bitte quote, wo ich das gesagt habe. Da fühlt sich wohl jemand mächtig auf den Schlips getreten?
Ich glaube es ist für uns beide besser, wenn wir die Zeit für etwas anderes nutzen. Du hast meinen Punkt nicht verstanden, macht nix, ich bin da nicht böse. Und du musst dich bei mir auch nicht für deinen Kauf rechtfertigen.

@MMIX Und deine Aussage, dass RDNA2 in RT besser als Turing ist, trifft erst zu, wenn AMD noch eine RDNA2 Karte bringt, die die 2080ti in allen Belangen schlägt.
 
60 FPS setzen eine eine Radeon RX 6900 XT voraus. Ein Nvidia-Gegenstück wird nicht genannt, eine RTX 3080 oder 3090 wird aber vorauszusetzen sein.
Wieso das? Eine 3070/2080 Ti sollten hier ebenfalls ausreichend sein.
 
foo_1337 schrieb:
@MMIX Und deine Aussage, dass RDNA2 in RT besser als Turing ist, trifft erst zu, wenn AMD noch eine RDNA2 Karte bringt, die die 2080ti in allen Belangen schlägt.

Zumindest in der 3Dcenter Analyse gab es kein einziges Review wo die 2080Ti besser als die 6900XT war, nur einmal sehr nah dran aber im Mittel 7% langsamer^^

Screenshot 2021-03-22 213229.png
 
Thor-75 schrieb:
Wenn du den Unterschied nicht siehst solltest du dir ne Brille zulegen. Was durch das Grinsesmilie mehr als Spass zu verstehen war.Das du dich jetzt angepisst fühlst ist dein Problem und ich muss mich auch nicht so anfahren lassen von dir ;)

Da brauchste auch nicht den PC schlecht zu reden damit triffste mich kein Stück. So und jetzt troll weiter.

Ich kann den Unterschied hier live sehen, "in farbe und bunt".

Fühle mich auch keineswegs angepisst, warum auch :). Aber ja, vielleicht hast Du recht mit dem Smiley (eben jenen; und dessen Bedeutung ich möglicherweise übersah).

Ich trolliere mich dann mal wo anders hin. Alles Gute!
 
Lindar schrieb:
Ich kann den Unterschied hier live sehen, "in farbe und bunt".

Fühle mich auch keineswegs angepisst, warum auch :). Aber ja, vielleicht hast Du recht mit dem Smiley (eben jenen; und dessen Bedeutung ich möglicherweise übersah).

Ich trolliere mich dann mal wo anders hin. Alles Gute!
wünsch ich dir auch :)

Gibt wichtigeres als sich über so ein Käse zu streiten finde ich. :)
 
Pisaro schrieb:
Alles klar, da sagen die CB Benchmarks was anderes. Ausser du findest 30-40 FPS (mal geschätzt) super... Zumindest 60 FPS packst du nicht dauerhaft.

RT auf Psycho oder Ultra kostet in Cyberpunk halt wieder irrsinnig viel Leistung.

Man kann gefühlt schon 90% dessen mitnehmen was RT in Cyberpunk optisch zu bieten hat, wenn man einfach nur die RT Beleuchtung auf mittel stellt und die Reflexionen aktiviert. RT Schatten kann man aus lassen, da die meiner Meinung nach zum Gesamteindruck des Bildes praktisch nichts beitragen.

Damit verändert sich schonmal die gesamte Beleuchtung vor allem in verschatteten Bereichen mit indirektem Sonnenlicht und durch die Reflexionen wird die Beleuchtung sämtlicher Materialien beeinflusst (nicht nur spiegelend, sondern auch matte Oberflächen).

Und so läufts auch auf einer 3060ti in 1440p noch ausrechend schnell mit DLSS Quality und sieht fantastisch aus.

Bei den CB Benchmarks bitte beachten, dass hier die RT Benchmarks ohne DLSS gemacht wurden bzw. die DLSS Benchmarks mit RT Ultra.

Man sollte das ganze auch allgemein als PC spieler etwas entspannter sehen. Wenn RT auf den Konsolen laufen soll, werden die Devs in Zukunft eh noch einiges an Zeit für eine bessere Effizienz investieren.

RE könnte da eh schon ein Vorbote sein. "4K" 60 auf Konsole incl. RT. Am PC für native 4K60 nur eine RTX3070 notwendig... Das passt doch.
 
  • Gefällt mir
Reaktionen: dampflokfreund und Thor-75
B3nutzer schrieb:
Bei den CB Benchmarks bitte beachten, dass hier die RT Benchmarks ohne DLSS gemacht wurden bzw. die DLSS Benchmarks mit RT Ultra.
Äh, nein?
Screenshot 2021-03-22 214310.png


Ich bin mit der 2080Ti auf Raster Hoch + RT Ultra + DLSS Balanced mit recht stabilen 60fps in WQHD durchgekommen und so weit hinterher ist die 3060Ti ja nicht.
 
  • Gefällt mir
Reaktionen: B3nutzer
@Taxxor hmm, ich hatte das anders in Erinnerung. Aber bevor ich jetzzt dumm da stehe mal kurz gegenchecken:

Alles in 4k.
1) BF5, 2) Control 3) Metro (Dunkelblau = 4k)


Das Problem hier ist z.B. auch, dass WD:L Beispielsweise bei den Launch Benchmarks nicht richtig funktionierte und daher die Werte nicht plausiblem sind, was die Punkte wiederum hochgezogen hat. Und in den RT-Shadow only Spielen wie Dirt 5 oder WoW fallen die RDNA2 Karten auch nicht so weit zurück, weswegen es positiver aussieht. Ich sagte deshalb ja "in allen Belangen".

Beispiel WD:L Launch (4) vs fixed Version (5)
Ergänzung ()

B3nutzer schrieb:
RE könnte da eh schon ein Vorbote sein. "4K" 60 auf Konsole incl. RT. Am PC für native 4K60 nur eine RTX3070 notwendig... Das passt doch.
Hätte ich auch nix gegen, aber das wird sicher die Ausnahme bleiben
 

Anhänge

  • 1616445454313.png
    1616445454313.png
    67,3 KB · Aufrufe: 243
  • 1616445514953.png
    1616445514953.png
    60,3 KB · Aufrufe: 237
  • 1616445873387.png
    1616445873387.png
    35,1 KB · Aufrufe: 231
  • 1616446012495.png
    1616446012495.png
    92,8 KB · Aufrufe: 254
  • 1616446053400.png
    1616446053400.png
    422,7 KB · Aufrufe: 240
foo_1337 schrieb:
Ich sagte deshalb ja "in allen Belangen".
Wenn das der anspruch dafür ist, dass eine Architektur in etwas besser ist, dann ist aber auch keine Architektur irgendwo besser, weil man immer Spiele findet, wo man nicht vorne ist, außer man vergleicht Architekturen die 5+ Jahre auseinander liegen^^
 
Taxxor schrieb:
Äh, nein?
Anhang anzeigen 1058302

Ich bin mit der 2080Ti auf Raster Hoch + RT Ultra + DLSS Balanced mit recht stabilen 60fps in WQHD durchgekommen und so weit hinterher ist die 3060Ti ja nicht.

Sag mal ist es gerade zu spät oder hab ich den falschen Link:
https://www.computerbase.de/2020-12/cyberpunk-2077-benchmark-test/

Ich finde es nicht.. :confused_alt:


EDIT: Okay, du meinst die Community Benchmarks:
https://www.computerbase.de/2020-12/cyberpunk-2077-community-benchmarks/
 
Zuletzt bearbeitet von einem Moderator:
@Taxxor Ich würde dir zustimmen, wenn es 1 oder 2 games wären. The Medium, Cold war, Minecraft RTX und Q2 RTX habe ich oben noch vergessen. Damit sind wir dann schon bei 7. Und ich wette, CP2077 wäre auch eines davon. Ich tendiere da eher zu gleichauf als zu geschlagen :) Was aber IMHO für die 1. Gen wie gesagt auch völlig ok ist.
 
Zuletzt bearbeitet von einem Moderator:
Warum kann man nicht einfach hinnehmen, dass die RT Leistung bei AMD Mist ist? Selbst AMD ist sich dessen bewusst und wird mit RDNA3 da eine Schippe drauf legen. Dieses ständige „in Schutz nehmen“ einer Marke ist so kleingeistig...

Ob es für einen selbst Relevanz hat, ist völlig unerheblich bei der Bewertung der Leistung. Dann noch den Leuten die RT sehen wollen den Sinn dahinter ab zu sprechen ist an Lächerlichkeit kaum zu überbieten...
 
foo_1337 schrieb:
Bitte quote, wo ich das gesagt habe. Da fühlt sich wohl jemand mächtig auf den Schlips getreten?
Ich glaube es ist für uns beide besser, wenn wir die Zeit für etwas anderes nutzen. Du hast meinen Punkt nicht verstanden, macht nix, ich bin da nicht böse. Und du musst dich bei mir auch nicht für deinen Kauf rechtfertigen.

@MMIX Und deine Aussage, dass RDNA2 in RT besser als Turing ist, trifft erst zu, wenn AMD noch eine RDNA2 Karte bringt, die die 2080ti in allen Belangen schlägt.
Lol.. Rechtfertigen.. Ganz bestimmt. Geh und spiel dein Minecraft in RT weiter und unterlass es einfach andere als amd fanboys darzustellen, die nicht deiner Ansicht sicht. Hier macht keiner mimimi, wie du es geäußert hast. So long
Ergänzung ()

Salamimander schrieb:
Warum kann man nicht einfach hinnehmen, dass die RT Leistung bei AMD Mist ist? Selbst AMD ist sich dessen bewusst und wird mit RDNA3 da eine Schippe drauf legen. Dieses ständige „in Schutz nehmen“ einer Marke ist so kleingeistig...

Ob es für einen selbst Relevanz hat, ist völlig unerheblich bei der Bewertung der Leistung. Dann noch den Leuten die RT sehen wollen den Sinn dahinter ab zu sprechen ist an Lächerlichkeit kaum zu überbieten...
Billige polemik... Lächerlich ist, sich dem Traum hinzugeben, das RT jetzt und Heute das Maß aller Dinge ist. Ist es Nunmal nicht, es sei denn man spielt ausschließlich Titel die RT bieten. Was ist daran so schwer zu verstehen?
Ich vermisse null komma nix mit meiner 6900er.. Habe seitdem ich sie habe nicht einmal einen RT Titel gestartet.. Juckt mich einfach nicht. Ändert sich, wenn es etwas wirklich gutes gibt.. Bis dahin.. Rt so what
 
Zuletzt bearbeitet:
Salamimander schrieb:
Warum kann man nicht einfach hinnehmen, dass die RT Leistung bei AMD Mist ist? Selbst AMD ist sich dessen bewusst und wird mit RDNA3 da eine Schippe drauf legen. Dieses ständige „in Schutz nehmen“ einer Marke ist so kleingeistig...

Ob es für einen selbst Relevanz hat, ist völlig unerheblich bei der Bewertung der Leistung. Dann noch den Leuten die RT sehen wollen den Sinn dahinter ab zu sprechen ist an Lächerlichkeit kaum zu überbieten...

Wenn die RT-Leistung von AMD nicht on par zu NV ist, kann man imho noch lange nicht von "Mist" reden. Es ist ja nicht so, dass RT bei AMD nicht geht oder unspielbar wäre. Ja, in den meisten Titeln hängen sie noch hinterher und ein DLSS-Äquivalent fehlt auch noch. Aber "Mist"?! Definitiv nein.
 
  • Gefällt mir
Reaktionen: F4711 und dampflokfreund
theGucky schrieb:
Na mal hoffen, das meine 3080 meine "schlappe" CPU unterstützen kann...
Ich würde ja 1440p mit 60-120 fps unr RT spielen...
Kommt drauf an wie "schlapp" deine CPU ist. Laut Hardware Unboxed und mittlerweile anderer Quellen bottlenecken alle CPUs unterhalb Ryzen 5000 und den 8 Kern Intel CPUs im CPU Limit die nVidia GPUs massiv. Die Vega 64 kann in diesem die RTX 3090 sogar uebertoelpeln. Liegt an dem Treiber Overhead den der nVidia Treiber in Verbindung mit dem Software Scheduler hat. Hier das Video dazu:

Jeder der in Zukunft (wenn die Preise geringer sind) plant eine nVidia GPU zu kaufen aber noch auf einer Zen2 CPU rumduempelt sollte sich ueberlegen ob er nicht lieber eine AMD GPU kauft, wenn unterhalb von 4K gezoggt wird.
 
Die Software Scheduler Geschichte ist die Behauptung von HWU bzw Nerdtech(?). Die Diskussion hier hatten wir mit @ZeroStrat & anderen schon ausführlich im demensprechenden Thread. PCGH war hier deutlich besser aufgestellt (19 anstatt 2 Titel) und da zeigt sich das ganze dann so:

1616451385429.png


Es ist also eher ein DX12 Thema als ein Scheduler Thema. Und ob das ganze bei real genutzen Auflösungen ein Thema ist, steht nochmal auf einem ganz anderen Blatt Papier. Bei HWU waren es halt wie gesagt nur 2 Games, was etwas wenig ist. Bei esports könnte das ein Thema sein, aber wer gurkt da mit einer alten CPU rum, wenn er eine aktuelle GPU hat? Zumal da auch noch viel < DX12 geht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Shoryuken94, owned139, Rage und 2 andere
Zurück
Oben