• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Resident Evil Village hat erst mit Raytracing Hunger

F4711 schrieb:
es war immer von vornherein klar, das RDNA2 erst in der ersten Iteration ihrer RT Hardware steckt und daher nicht mit Ampere im RT Bereich mithalten kann....
genau Jemand wie dich habe ich gemeint. Und du kommst auch noch genau mit den Ausreden die ich meine. Danke für dieses super Beispiel.
Es lebe AMD, denn Sie haben nur Top Produkte. Hurra 🙄
 
Warum muss sich jeder zweite Kommentarbereich in eine Nvidia vs AMD oder Intel VS AMD Diskussion auf Kindergartenniveau entwickeln?
 
  • Gefällt mir
Reaktionen: Fresh-D, Zitterrochen, Czk666 und 3 andere
fullnewb schrieb:
Du vergleichst halt zweite die Generation RT von nVidia mit erster Generation RT von AMD. Da die 6900XT deutlich mehr Rohleistung hat als die 3070 muss ich dir aber schon zustimmen, dass nVidia auch wenn man die ersten Generationen miteinander vergleicht klar die Nase vorn hat!
Eigentlich genau falsch. Beide haben ~20 TFLOPS, 20 vs 23. Die 3070 taktet aber mit ~1875MHz, nicht wie in der Berechnung mit 1700, was dann 22 vs 23 TFLOPS bedeutet.
Da sieht man wie schlecht Ampere seine Roheistung auf die Straße bringt, abseits von RT

https://www.computerbase.de/2020-09/geforce-rtx-3090-3080-3070-vorgestellt/
https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fullnewb
Shoryuken94 schrieb:
Warum muss sich jeder zweite Kommentarbereich in eine Nvidia vs AMD oder Intel VS AMD Diskussion auf Kindergartenniveau entwickeln?
Moment... du meinst, das Thema des Artikels war nicht die Notwendigkeit einer Raytracing-Implementierung und wie AMD das mit weniger Performance als Nvidia packen kann?
Dann hab ich da definitiv was falsch verstanden. Ich hatte gehofft es geht um das Spiel... :(
 
scootiewolff22 schrieb:
Raytracing, pleaaasseeee, wird erst mit der nächsten Generation relevant

SavageSkull schrieb:

lustig das du ausgerechnet diablo 3 nimmst als beispiel, ich war eine lange zeit der beste EU spieler in diablo3 und das genau mit diesem System und NUR mit 1600mhz ram.

Trotzdem lief alles butterweich, liegt wohl eher an deinen einstellungen wenn du mit so einem system nicht flüssig diablo3 spielen konntest XD

Davon abgesehen kann ich JEDES spiel in fast 4K (3440x1440) spielen was ich installiert habe mit ultra details, NUR cyberpunk ist das erste spiel wo der prozessor sowie die grafikkarte zu schlecht ist.
Selbst das neueste Battlefield läuft ohne probleme über 100fps mit höchsten settings (abgesehen von skalierung der auflösung, die bleibt natürlich bei 100%, die auflösung ist ja eh hoch genug)

und ich habe auch 144hz mit gsync, bin alter cs profi, fifa profi sowie diablo3 halt sehr erfolgreich gewesen, ich denke ich kann ganz gut sagen ob etwas flüssig läuft oder nicht ;)


Davon abgesehen ist ein 2700x schlechter als mein i7 3770k übertaktet für diablo3, dort zählt die single core performance!! Genauso sieht es bei csgo beispielsweise aus, dort kommt dein 2700x auch nicht an meinen ran! 100% nicht. Vielleicht solltest du dich erstmal mit der Programmierung der Spiele und der damit verbundenen Leistung der hardware informieren...
 
Zuletzt bearbeitet von einem Moderator:
F4711 schrieb:
oder wollen wir über die Wichtigkeit von Schatten in Spielen sprechen, die man im Spielablauf ohnehin nicht exakt warnimmt sondern auf Standbildern untersuchen muß um die Unterschiede zu bemerken.
Naja naja..... Es mag sein, dass solche Effekte nicht "exakt" wahrgenommen werden, dennoch trägt eine Verbesserung von eben genau diesen "Kleinigkeiten" dazu bei, dass ein Spiel dich in seinen Bann zieht. Je detailreicher und genauer die Umgebung, desto immersiver dein Erlebnis.
Im Umkehrschluss bedeutet das: Wenn z.B. Objekte aus dem Rahmen des Spieleweltkonzeptes fallen (eine blaue Kiste in einem schwarz-weiss Spiel), dann wird es sofort als störend empfunden. So geht es auch mit jeder Kleinigkeit, die du unterbewusst wahrnimmst.
Einfaches Beispiel zum selber testen: Nimm ein Spiel deiner Wahl und stelle alle Schatten ab. Du wirst feststellen wie "falsch" es wirkt.
Ergänzung ()

Daniel1337 schrieb:
Also mich würden die ganzen dunklen Stellen eher nerven als irgendwie das Spielgefühl verbessern. :D
Ich denke es liegt nur daran, dass du es auf einem statischen Bild siehst. Beim selber spielen wird es einen großen Teil zur Atmosphäre beitragen, wenn du mich fragst. :p
 
Zuletzt bearbeitet:
PTS schrieb:
lustig das du ausgerechnet diablo 3 nimmst als beispiel, ich war eine lange zeit der beste EU spieler in diablo3 und das genau mit diesem System und NUR mit 1600mhz ram.

Trotzdem lief alles butterweich, liegt wohl eher an deinen einstellungen wenn du mit so einem system nicht flüssig diablo3 spielen konntest XD
was hat ein Ranking vom Spieler mit der Leistung des Rechners zu tun?
Diablo 3 strotzt vor Nachladeruckler, sobald neue Gebiete kommen. Bridge of Korsikk ist das bekannteste Beispiel wo das jeder Blinde sieht. Auch Rifts sind bei Gebietswechsel anfällig.
Mein Wechsel vom 3770k@4,3Ghz auf den 2700X@Stock war dabei ein gewaltiger Sprung, da genau diese Ruckler spürbar weniger wurden. Mag sein, das der 2700X nicht viel schneller bei der Single Core Leistung ist, allerdings summiert sich auf der Plattform durch DDR4 Speicher, PCIe 3.0 auch für andere Bauteile neben der Grafikkarte usw...
Der Core I 3000 ist einfach ein Museums Stück, da gibt es nichts dran zu beschönigen.
Und wenn er dir auf 4K nicht limitiert, ist bei der hohen GPU Last auf der Auflösung sich nichts besonderes, da hier fast immer die GPU limitiert.
 
foo_1337 schrieb:
Spielst du in FHD? In WQHD wäre diese Aussage sehr unglaubwürdig.
Also ich spiels in 3200x1800 in Ultra mit ~50 FPS. Bin aber noch nicht sehr weit, habe andere Games, die mich gerade mehr anziehen :)
 
  • Gefällt mir
Reaktionen: foo_1337
bad_sign schrieb:
Also ich spiels in 3200x1800 in Ultra mit ~50 FPS. Bin aber noch nicht sehr weit, habe andere Games, die mich gerade mehr anziehen :)
Du hast ja auch ne XT und die 50FPS sind dann auch plausibel :)
 
  • Gefällt mir
Reaktionen: bad_sign
PTS schrieb:
Selbst das neueste Battlefield läuft ohne probleme über 100fps mit höchsten settings (abgesehen von skalierung der auflösung, die bleibt natürlich bei 100%, die auflösung ist ja eh hoch genug)
Auf einem großen Schlachtfeld?
Tut mir leid, aber das kann ich mir beim besten Willen nicht vorstellen....
Sieht das jemand genau so? Oder muss ich mal wieder in Battlefield reingucken?
 
Gesualdo schrieb:
Ich denke es liegt nur daran, dass du es auf einem statischen Bild siehst. Beim selber spielen wird es einen großen Teil zur Atmosphäre beitragen, wenn du mich fragst. :p

Möglich, aber ich bin wahrscheinlich auch nicht die Zielgruppe von sowas. Bin da eher so r_picmip 10 Spieler. :D
 
  • Gefällt mir
Reaktionen: Gesualdo
Gesualdo schrieb:
Auf einem großen Schlachtfeld?
Tut mir leid, aber das kann ich mir beim besten Willen nicht vorstellen....
Ist ja auch blödsinn:
1616513059745.png


In Foren wird halt viel geschrieben...
 
  • Gefällt mir
Reaktionen: Gesualdo
@foo_1337 Danke. Ich hab mir schon (beinahe :D) ernste Sorgen gemacht, warum es auf meinen System dann im Verhältnis so "wenig" FPS sind......
Oh man oh man... warum muss man immer so einen Quatsch schreiben. Es gibt ja schließlich Leute, die es dann am Ende noch glauben.

@Daniel1337 Kommt schon immer auf das Spiel an finde ich.
Ich bin tatsächlich eine kleine Grafikhu....ldigerin (auch als Mann :p), außer es handelt sich um kompetitive Spiele, wo mir die Performance wichtiger ist.
Beispielsweise spiele ich RDR2, GTAV, Cyberpunk auf Maximum. Overwatch dagegen in 50% Skalierung und alles auf low (mit Ausnahme der Schatten, die auf ultra stehen).
 
  • Gefällt mir
Reaktionen: foo_1337
PTS schrieb:
Davon abgesehen kann ich JEDES spiel in fast 4K (3440x1440) spielen was ich installiert habe mit ultra details, NUR cyberpunk ist das erste spiel wo der prozessor sowie die grafikkarte zu schlecht ist.
Dann hast du schlicht keine fordernden Spiele installiert :D

Die 1070 ist nicht mehr im aktuellen Parcour drin, daher schauen wir mal, was eine GTX1080 so in 1440p Ultra bringt, die ist erstens ca 20% schneller als eine 1070 und zweitens in 1440p sowieso nochmal mind. 10% schneller als in 3440x1440.

AC Valhalla: ~41fps
Borderlands 3: ~ 50fps
CoD BO Cold War: ~50fps
Control: ~ 34fps
Cyberpunkt: ~ 24fps
Gears 5: ~39fps
Horizon Zero Dawn: ~43fps
RDR2: ~34fps
Watch Dogs Legion: ~36fps


So, das ist 1440p und auch nur die average FPS, Einbrüche gehen deutlich tiefer. Durch 1440p UW kann man nochmal ca 10% davon abziehen und landet bei 30-45fps für eine Karte die 20% schneller als deine ist, also ca 25-37fps für eine 1070 in 3440x1440p Ultra in diesen Spielen, Cyberpunk als Ausreißer schafft es nicht mal auf 20fps.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337 und Gesualdo
Meine 1080ti ist für fast alles in 4k ausreichend. Außer rtx und Cyberpunk. Bin aber auch kein AAA Spieler. Und solange es keine Karte für 4k und rtx für cyberpunk gibt, wird nicht gewechselt
 
Technixt schrieb:
Meine 1080ti ist für fast alles in 4k ausreichend. Außer rtx und Cyberpunk. Bin aber auch kein AAA Spieler. Und solange es keine Karte für 4k und rtx für cyberpunk gibt, wird nicht gewechselt
Kommt drauf an, was du als ausreichend betrachtest, ne 3090 kommt schon mal auf 67 FPS in 1440p mit RT Ultra + DLSS Quality.

Dabei kann man durchaus auch Balanced nehmen bei Cyberpunk, nur Performance sollte man meiden.
Balanced liefert nochmal +15% und hebt sie damit auf 77fps.

RT wurde leider nur mit maximal 1440p getestet, betrachtet man den Unterschied zwischen 4K und 1440p ohne RT, kommt man noch auf 78% der fps beim Sprung auf 4K, das wären bei 77fps * 0,78 = 59,9fps.
Leider ist 4K hier mit Medium Preset aber man kann genausogut das High Preset nehmen und dafür beim RT auf Mittel stellen, dann kommt man immer noch über 50fps.
 
Taxxor schrieb:
Kommt drauf an, was du als ausreichend betrachtest, ne 3090 kommt schon mal auf 67 FPS in 1440p mit RT Ultra + DLSS Quality.

Dabei kann man durchaus auch Balanced nehmen bei Cyberpunk, nur Performance sollte man meiden.
Balanced liefert nochmal +15% und hebt sie damit auf 77fps.

RT wurde leider nur mit maximal 1440p getestet, betrachtet man den Unterschied zwischen 4K und 1440p ohne RT, kommt man noch auf 78% der fps beim Sprung auf 4K, das wären bei 77fps * 0,78 = 59,9fps.
Leider ist 4K hier mit Medium Preset aber man kann genausogut das High Preset nehmen und dafür beim RT auf Mittel stellen, dann kommt man immer noch über 50fps.
Das ist für mich nicht zukunftsfähig. Ich gebe keine 3k für eine Karte aus der jetzt schon die Puste ausgeht bei 4k rt und jetzt schon auf Tricks wie dlls zurückgreifen muss. Nönö.
 
  • Gefällt mir
Reaktionen: n4rti und Thor-75
Zwingt dich auch keiner, ich habe die Hälfte ausgegeben (okay, 1600 weil Custom) und genieße es, wo es geht :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gesualdo
Technixt schrieb:
Das ist für mich nicht zukunftsfähig. Ich gebe keine 3k für eine Karte aus der jetzt schon die Puste ausgeht bei 4k rt und jetzt schon auf Tricks wie dlls zurückgreifen muss. Nönö.
Ein Grund warum ich auf 4k scheisse.
 
Zurück
Oben