Test Cyberpunk 2077 1.2: Die Community testet GPUs und CPUs in Night City

5hred schrieb:
Diese Ergebnisse hier scheinen aber die Vermutung von oben teils zu widerlegen, dass die 1080 Ti nur wegen der schwachen CPU nicht die gewohnte Leistung abliefern kann: trotz einer recht aktuellen CPU (3700X) performt sie schlechter als eine 2070S und das Leistungsdelta zur 2080 in Kombination mit i7-6850K ist deutlich größer (21%) als dies normal sein sollte, da zum Launchzeitpunkt der 2080 die 1080 Ti mindestens gleichwertig war und teils auch schneller (wenn ich mich recht entsinne)...
Wird die 1080Ti nur noch stiefmütterlich behandelt? Man kann nur hoffen, dass Karten der älteren Generation nicht bewusst verlangsamt werden (treiberseitig oder spielseitig).


Du hast mir als GTX 1080Ti & 7700K User echt gerade meinen Frust von der Seele geschrieben. Das der olle 4 Kerner nicht mehr das wahre ist, ist mir auch klar, und das war vermutlich das erste & einzige Setup in meinem Leben, wo die CPU früher fliegt als die GPU - dachte ich.
Ich mein Ryzen hat gerade mit der 3xxx Serie gut aufgemischt, und schon vorher 6-8 Kerne als den neuen Standard definiert, da war der 7700K sowieso der größte Fehlkauf 2017.
Dass die 1080 Ti allerdings so abschmiert, eine GPU die locker auf dem Niveau einer RTX 2080 (nicht die Super) ist, und dazu noch 3GB mehr VRAM hat, regt mich gerade ehrlich gesagt nur auf. Wie kann meine 3 Jahre alte Highend GPU bei einem neu erschienenen Game nicht mal 60FPS in Full HD auf hoch-ultra packen, wenn der Trend doch eh zu WQHD und 4K geht?
Die 1080 Ti ist von der puren Benchmarkleistung immer noch in der Top 15 oder so, und schmiert hier ab gegen Vega Grafikkarten, gegen eine 3060, 2070, etc?
Das liegt ja wohl echt eher an der Optimierung als an der puren Leistung, ich hab mich drauf eingestellt den i7 bald zu ersetzen, aber die 1080 Ti wollt ich eig noch ne Weile behalten, gerade weil die neuen AMD Karten quasi nicht zu bekommen sind und die neuen Nvidia absolut unverschämt bepreist.
 
  • Gefällt mir
Reaktionen: 5hred
System: GTX 1070 TI OC, R7 3800X, 3200CL16, „AMD fix“
1920x1080 Preset Mittel: 57,9
1920x1080 Preset Ultra: 41,3
2560x1440 Preset Mittel: 38,9
2560x1440 Preset Ultra: 26,8
 
System: R9 Fury CD UV, R5 3600 OC, 3600CL16
1920x1080 Preset Mittel: 38,7
1920x1080 Preset Ultra: 25,7
 
@mooks
Welches "Custom Design" der Radeon VII hast du denn?
 
  • Gefällt mir
Reaktionen: Jan
EadZ1 schrieb:
@mooks
Welches "Custom Design" der Radeon VII hast du denn?
Naja Customdesign gabs von der VII ja leider nicht, ich habs aber unter Wasser gesetzt und da es WaKü nicht als Option gab, wurde CD von mir gewählt. Irgentwie musste ich angeben, dass es keine default Karte ist.
 
mooks schrieb:
ich habs aber unter Wasser gesetzt

Ah, ok. Das habe ich mir beinahe gedacht. ^^

Verrätst du uns bitte noch die Taktraten?
Hatte auch lange überlegt, die RVII unter Wasser zu setzen. Die Tests dazu hatten mich aber nicht überzeugt.
 
System: GTX 1080ti CD OC, i9-10850K, 3466CL16
1920x1080 Preset Mittel: 71,7
1920x1080 Preset Ultra: 53,6
2560x1440 Preset Ultra: 35,9
3840x2160 Preset Mittel: 25,7
 
WQHD RTX DLLS Qualität. Bekomme ich leider nicht immer durch und es bringt avg leider nicht mehr viel das sich der Post lohnen würde. Aber die karte macht einfach Spaß.
Screenshot (4).png
 
  • Gefällt mir
Reaktionen: darkspark und Esenel
Jan schrieb:
Hm, das scheint mir doch etwas zu gut zu sein in den RT-Szenarien. Ich habe das erst einmal nicht mit übernommen.
Ich teste das morgen nochmal meine es aber extra 2x durchgejagt zu haben.

Edit
timOC schrieb:
System: 2080 Ti FE OC, R7 3700X, 3533CL14
1920x1080 Preset RT Mittel + DLSS Qualität: 65,3
2560x1440 Preset RT Mittel + DLSS Qualität: 59,3
3440x1440 Preset RT Mittel + DLSS Qualität: 53,9
3840x2160 Preset RT Mittel + DLSS Qualität: 35,4
Scheint hier ja in 1440p und Full HD sehr CPU Limitiert zu sein. Was hatte ich getestet? 67 in 1440p?
Das kommt wenn man die anderen Benches den 3700X mit dem OC 7980XE vergleicht schon hin. Ich meine aber auch dass Mal ein Run mit "nur" 64.X dabei war.
 
Zuletzt bearbeitet:
Jan schrieb:
Hm, das scheint mir doch etwas zu gut zu sein in den RT-Szenarien. Ich habe das erst einmal nicht mit übernommen.
Wie brutal CPU Bound das mit RT und DLSS ist sieht man ja auch gut an kleinen Auflösungen (DLSS macht ja dasselbe).

Man muss sich nur anschauen wo die 3090 mit 2700X landet...

Finde da sind meine gemessen ~65 oder was das waren realistisch.
Screenshot_20201219-222251.png


65.7 hatte ich gemessen sehe ich gerade. Das passt ja gut wenn man den 3700X mit der 2080TI und den anderen Benches vergleicht, genauso beachtet, dass im Bench hier die 2080 CD schneller is als die RTX 3090 und das nur wegen der CPU ^^

DLSS bleibt halt ne kleine Auflösung und CP 2077 is teilweise extrem CPU Bound auf einem Kern, und zugleich trotzdem sehr gut parallelisiert.

Edit: Full HD RT Mittel + DLSS Quality genauso. Dass ist ja noch ne kleinere Auflösung. Wenn ich schaue wie pervers mein 18C da teils ausgelastet ist kann ich mir sogar gerade bei DLSS da durchaus vorstellen dass die Kerne nen Mehrwert haben. Da habe ich auch Frameraten wo die 3080 oft wildert. Und dennoch gibt's hochoptimierte CPU Settings die nochmal einen drauf packen :) meine Benches werden aber schon stimmen.

https://www.computerbase.de/forum/t...-und-cpus-in-night-city.1990119/post-25045610
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: basic123 und darkspark
System: RX Vega 64 СD OC, R5 3600 OC, 3800CL15
2560x1440 Preset Ultra: 36,4
3840x2160 Preset Mittel: 27,5CX_2020-12-20_00-33-10_Cyberpunk2077_.pngCX_2020-12-20_00-33-14_Cyberpunk2077_.png
 
System: GTX 1080 Ti CD OC / UV, Ryzen 3900X Stock, 3733 CL14
2560x1440 Preset Mittel: 50,9
1608414139766.png
2560x1440 Preset Ultra: 36,5
1608414155637.png
Jeweils 3 Runs und daraus der Mittelwert.

Mal zum Vergleich noch mit Max GPU OC
Medium: 54,7
1608415231102.png
und Ultra 39,0
1608415260809.png
/spoiler]
 
Zuletzt bearbeitet:
5hred schrieb:
Wird die 1080Ti nur noch stiefmütterlich behandelt?
Nein, liegt einfach daran, dass Pascal eine absolute Gurke ist was DX12 betrifft. Das war auch schon bei Red Dead Redemption 2 so unter Verwendung von DX12. Diese Mär der fehlenden Treiberoptimierung seitens Nvidia oder der steifmütterlichen Behandlung seitens der Entwickler ist halt nur eine Erzählung aus dem Reich der Mythen. Die Red Engine unterstützt meines Wissens nach auch Mesh Shading. Das kann Pascal in Hardware nicht. Das alte Hardware irgendwann den Anschluss verliert, ist nichts Neues und durch technologischen Fortschritt bedingt. Immerhin reden wir von Technologiekonzernen, da gibt es keine hohen Nutzungszeiten.
 
  • Gefällt mir
Reaktionen: Volvo480, Dan19, 5hred und 2 andere
RadeoForce schrieb:
System: RX Vega 64 СD OC, R5 3600 OC, 3800CL15
2560x1440 Preset Ultra: 36,4
3840x2160 Preset Mittel: 27,5
Sag mal hast du vergessen FiedlityFX CAS abzuschalten oder ist deine Vega auf Steroiden?
Ca. 20% mehr Leistung als meine Vega 64 lässt sich doch mit keinem OC der Welt bewerkstelligen 🤔
 
Das Problem ist doch, dass die Presets teilweise totaler Müll sind. Gerade Ultra hat Einstellungen, die quasi nichts an der Bildqualität verbessern aber ohne Ende Leistung kosten. Man kann also auch mit „schwächeren“ GPUs eine vergleichbare Grafikqualität mit ordentlichen Framerates erreichen. Siehe Digital Foundry
 
Die 1080ti suckt halt in Low Level Apis . War schon immer so. Das wird nicht besser in Zukunft.
 
  • Gefällt mir
Reaktionen: Krautmaster
Marcel55 schrieb:
Sag mal hast du vergessen FiedlityFX CAS abzuschalten oder ist deine Vega auf Steroiden?
Ca. 20% mehr Leistung als meine Vega 64 lässt sich doch mit keinem OC der Welt bewerkstelligen 🤔
I don't use a peace of soap like CAS, DLSS, TAAU and other scales.
1700/1108(+timings & infinity fabric 1200 mhz) with bandwith 535 gb/s in OCLMemBench (1108mhz with stock timings - 480 gb/s)
My card paired with Radeon VII ~1800/1000, and +25% in compare with vega64 reference


There are my parametres
09.png
 
Zuletzt bearbeitet:
Ich werde die nächsten Tage mal dazu kommen meine Ergebnisse zu posten. Jedoch decken sich meine ersten Durchläufe mit den hier veröffentlichten Benchmarks. Ich habe seit heute eine zweite RTX 3090 in meinem System, jedoch wird in Cyberpunk nur eine davon angesprochen. Dafür haben sich meine Renderzeiten in Blender nochmal halbiert.
 
  • Gefällt mir
Reaktionen: Sappen
Zurück
Oben