Reicht mein System für eine 40XX

Selbst meine rx 6700xt wird nahezu in allen Games in 1440p vom R5 3600 ausgebremst.
 
  • Gefällt mir
Reaktionen: sneen
fairhext schrieb:
Wenn ich 900€ ausgebe will ich aber nicht in einem Jahr schon die Regler runter ballern bis zum geht nicht mehr.
Ich hab auch 2 Jahre mit ner Vega56 in 4k gespielt... Schön war das nicht immer
Musst du ja auch nicht.
 
HyperXnew schrieb:
Selbst meine rx 6700xt wird nahezu in allen Games in 1440p vom R5 3600 ausgebremst.
Was an sich völlig egal ist, solange genug FPS Anliegen. Es zeigt nur, dass Du keine Lust hast die Regler höher zu stellen.

Fujiyama schrieb:
Sowohl der VRAM also auch Leistung der 4070 wird noch für mehrere Jahre in 4K reichen. Es ist alles eine Frage der Einstellung und der eigenen Anforderungen.

Die der TE ja genau definiert.

sneen schrieb:
Ja, also Spiele ehr in Richtung CyberPunk mit Ultra Einstellungen auf 4K natürlich.

Ich will Dich nicht entmutigen. Aber "Ultra" Einstellungen (es gibt kein Ultra-Preset in Cyberpunk) und 4k natürlich ist selbst einer 4090 zu viel.
Ohne sich wenigstens ein bisschen mit den Reglern zu beschäftigen landest Du da bei 30 FPS (oder noch weniger)
Aber dann brauchst Du Dir wenigstens keine Gedanken um das "restliche System" zu machen.
Das schafft 30 FPS.

Cyberpunk2077_2023_03_31_21_11_40_715.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sneen und fairhext
HisN schrieb:
Was an sich völlig egal ist, solange genug FPS Anliegen. Es zeigt nur, dass Du keine Lust hast die Regler höher zu stellen.



Die der TE ja genau definiert.



Ich will Dich nicht entmutigen. Aber "Ultra" Einstellungen (es gibt kein Ultra-Preset in Cyberpunk) und 4k natürlich ist selbst einer 4090 zu viel.
Ohne sich wenigstens ein bisschen mit den Reglern zu beschäftigen landest Du da bei 30 FPS (oder noch weniger)
Aber dann brauchst Du Dir wenigstens keine Gedanken um das "restliche System" zu machen.
Das schafft 30 FPS.

Anhang anzeigen 1342082
Nicht mit DLSS 3.0 da kommt man deutlich über die 30 fps
 
Gehört DLSS jetzt zu "alles Ultra" oder nicht. An sich ist DLSS ja eine Qualitätsverschlechterung, weil es nicht mehr in nativer Auflösung gerechnet wird und Artefakte produziert.
Da besteht Interpretationsspielraum. @alan_Shore
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe, OliMz1990 und fairhext
DLSS ist dafür da. Artefakte sind selten. Also ja, das gehört dazu und wirklich schlechter sieht es auch nicht aus.
 
Das ist Ansichtssache.
Also nicht dass ich DLSS verteufle, ich nutze es auch wenn die Performance nicht reicht.
Aber ich nutze lieber die native Renderauflösung (und wenn es geht sogar DL-DSR), weil DLSS mir zu viele Artefakte an Objektkanten produziert, was mich ungemein triggert. Und die Zwischenbildberechnung nutze ich gar nicht, weil ich auf noch mehr Artefakte gar kein Bock habe.

Ich sag ja. Da besteht Interpretationsspielraum. Jeder wie er gerne möchte.
 
  • Gefällt mir
Reaktionen: OliMz1990
Wobei der Urgedanke doch eigentlich mal eine Qualitätsverbesserung der Kantenglättung gegenüber
Temporal Anti Aliasing war also hieß es nicht mal DLSSAA Deep Learning Super Sampling Anti Aliasing.
Jetzt geht es irgendwie nur noch um mehr FPS oder vielleicht hat die Qualität von DLSS abgenommen.
 
Kommt drauf an welche rtx40 gpu es sein soll

rtx4090 definitiv cpu limit +63tf die realen (fp32) nicht die von nvidia angegebenen (fp16)
rtx4080 definitiv cpu limit +37,5tf
rtx4070ti definitiv cpu limit 29,5tf
rtx4070 geht klar ab 1440p darunter cpu limit 22,6tf
Und kleiner sollte alles kein ding sein.

das sind grobe Annäherungen

Zum vergleich deine rx5700xt erreicht in etwa 9,2tf das entspricht der rtx2060 12gb rtx3060 12gb
als upgrade kämen mir nur die rx7700xt (~48cu +-20-23tf) oder rtx4070 infrage
Der preis der rtx4070 dürfte hier zwischen 659-699€ sein
bisher die beste sku von ada aber zu teuer.
Diese sku entspricht einer rtx3080 10gb bzw rx6800xt je nach OC Takt der amd gpu.

Als Auflösung empfehle ich 1440p und später mit upscaled da der vram knapp wird
Von einen 4k tv oder monitor rate ich ab.
 
  • Gefällt mir
Reaktionen: sneen
HisN schrieb:
Was an sich völlig egal ist, solange genug FPS Anliegen. Es zeigt nur, dass Du keine Lust hast die Regler höher zu stellen.
Das stimmt nicht ganz ich spiele Cyberpunk auf ultra oder auch the Witcher 3 next Gen trotzdem ist gerade bei Cyberpunk nur eine GPU Auslastung von 70-90% da. Natürlich trägt fsr seinen Teil dazu bei aber es fällt mir immer auf , was aber wie du sagst nicht schlimm ist da mir die FPS noch ausreichen .
 
  • Gefällt mir
Reaktionen: sneen und HisN
fairhext schrieb:
Das Problem an der 4070ti in 4k ist nicht die Menge des VRAMs sondern das frech schmale Interface. Und damals bei der 3080 haben auch alle inklu Nvidia gesagt 10gb reichen, alles andere ist Panik mache.
Wer alle 2 Jahre upgraded für den is ne 4070ti auch für 4k ne super Wahl. Alle anderen sollten 4080 oder AMD kaufen
Aus das Interface reicht. Die Karten sind für Normalos, denen keiner abgeht, wenn man 200fps und 4K hat völlig ausreichend.
Ergänzung ()

HisN schrieb:
Das ist Ansichtssache.
Also nicht dass ich DLSS verteufle, ich nutze es auch wenn die Performance nicht reicht.
Aber ich nutze lieber die native Renderauflösung (und wenn es geht sogar DL-DSR), weil DLSS mir zu viele Artefakte an Objektkanten produziert, was mich ungemein triggert. Und die Zwischenbildberechnung nutze ich gar nicht, weil ich auf noch mehr Artefakte gar kein Bock habe.

Ich sag ja. Da besteht Interpretationsspielraum. Jeder wie er gerne möchte.
Ja das sind halt Luxusprobleme, wenn einen sowas trichtert. Mir ist sowas Wurscht. Ich schaue, auch wenn ich nicht auf das Geld achten muss auf den Kosten/Nutzen Faktor. Und 2k für ne Grafikkarte….. da fliege ich lieber 2 Wochen nach Asien
 
  • Gefällt mir
Reaktionen: sneen
alan_Shore schrieb:
Aus das Interface reicht. Die Karten sind für Normalos, denen keiner abgeht, wenn man 200fps und 4K hat völlig ausreichend.
Dein Wort in Gottes Ohr. Meine 6900xt XTXH @ 2,7ghz is net so weit von ner 4070ti entfernt und die wird sicher keine 2 Jahre mehr im System bleiben. Allein schon was die gerasterte Leistung angeht. Und UE5 Games haben noch gar nicht richtig los gelegt.

Ist klar, es ging ums Interface. Aber selbst von der Grundleistung her wär ne 4080 die bessere Wahl wenn man länger Ruhe haben will.
 
HyperXnew schrieb:
gerade bei Cyberpunk nur eine GPU Auslastung von 70-90% da.
Das dürfte aber nur sehr selten der Fall sein. Sobald du RT hochdrehst bricht deine 6700XT zuerst weg, auch wenn RT auch auf den Prozessor geht.
 
Ich mach doch kein rt an mit einer rx 6700xt 😅
 
Dann spielst du Cyberpunk aber auch nicht auf ultra ;)
 
Hmm, wenn das Budget es hergibt, dann kann man die cpu auf den 5800x3D upgraden und dann sollte der PC auch locker mit der rtx 4070ti klarkommen.

Wäre schon ein sehr starkes Upgrade vom 3600.
 
  • Gefällt mir
Reaktionen: sneen
Naja, eine 4070Ti und 4k ist wie ein Fiat Panda auf dem Nürburg-Ring xD. Meine RTX3080 reicht mir zum Beispiel in 1440p nur für Hogwarts Ultra (ohne Raytracing), aber mit DLSS Quality da ich die 12GB Variante habe. 10,7GB VRAM belegt...und das ist nicht 4k ;-)

Der Ryzen 3600 ist ne gewaltige Bremse mittlerweile. Selbst mein i7 10700 mit 4,6Ghz Allcore ist da nicht mehr der Brüller...aber liegt natürlich am Spiel.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Pisaro schrieb:
Dann spielst du Cyberpunk aber auch nicht auf ultra ;)
Natürlich meiner Meinung nach muss man das getrennt sehen . Ist ja nicht so als hätte man keine spiegelung/Beleuchtungs alternativen . Gerade bei AMD lässt man es meiner Meinung nach besser aus bis zu einer rx 6800xt .
 
  • Gefällt mir
Reaktionen: HisN
Nach ner kleinen "Kritik" in diesem Thread, möchte ich auch hier noch mal nen Update geben. Dachte auf "Gefällt mir" klicken würde für eine Beteiligung reichen :p

Also, ich überlege derzeit das Ganze System zu ersetzen. Wenn ich ehe ein neues Netzteil und mehr RAM zu der neuen CPU+GPU brauche, kann ich auch alles neu mache. Ne ATI möchte ich nicht mehr.

Da ich auch ein Schlüsselerlebnis hatte, würde ich wohl auch gerne auf eine bessere Multitasking fähigeren CPU gehen. Ich hatte Ark mit meiner Schwester angezockt und wollte alles auf 2k in epischen Einstellungen spielen. Ich war regelrecht geschockt. Also auf HD gestellt und mit kleinen Änderungen auf Episch gestellt. Das läuft flüssig. Leider hört dann der Twitch-Stream im Hintergrund dann immer auf zu laufen. Und ja, bei mir muss Twitch im Hintergrund laufen :D. Nun habe ich halt etwas Angst, dass es bei einer reinen Gaming-CPU wie dem 5800X3D auch so ist. Zumal die auch nicht gerade billig ist.
 
Zurück
Oben