Gtx 4080 vs 7800XTX

Ja, die 12GB VRAM wirken bei einer 900€ Grafikkarte wenig aber da DLSS quasi Pflicht ist für eine gute
Kantenglättung und hohe Frameraten auf 120/144Hz, sollte man das auf jeden Fall berücksichtigen. :cool_alt:

Frame Generation mag Geschmackssache sein aber ich finde den Kompromiss aus FPS Verdoppelung
bei minimal mehr Input Lag und gelegentlichen Bildfehlern sehr gut + Hilft auch gegen ein CPU Limit.
 
  • Gefällt mir
Reaktionen: Mettmelone
Ich hatte auch in Erwägung gezogen mir ne Amd Grafikkarte zu holen. Hatte bis jetzt immer ne Nvidia gehabt. Habe mich doch für eine 4080 entschieden, da 1. der Strom Verbrauch geringer ist und 2. ich ein Gsync Monitor mit 100Hz habe(UWQHD)
 
Trinoo schrieb:
Die Leute mit Nvidia Karten werden dir sagen das Raytracing nice ist... und die Amd Leutchen, die sowieso kaum Raytracing nutzen können, die werden dir sagen, das Raytracing absolut unnötig ist ;)
:)
Nun das ist der Normalfall aber nicht immer richtig. Habe noch eine 3090 im Rechner und eine 7900XTX schon hier. Für mich spielt RT keine Rolle. Ich habe kein einziges Spiel gespielt mit RT seit ich die 3090 habe. Dazu ist die 7900XTX leicht schneller als die 4080 (ohne RT) , günstiger, mehr VRAM.
Aber... das ist meinem used case geschuldet, jeder hat ein anderes Anwendungsprofil deswegen würde ich dem TE auch raten, sich darüber klar zu machen was einem wichtig ist, welche Spiele man spielt etc pp. Das kann ihm keiner abnehmen. Richtig falsch wird er es mit beiden Karten nichts machen.
Schau dir z.B. einzelne Spiele an. Wenn du hauptsächlich COD2 spielst ist ne AMD ein Nobrainer, bei Cyberpunk mit RT klar Nvidia.
 
was macht denn eine teure Graka ohne Raytracing überhaupt für einen Sinn? 4k mit 144hz oder was?

naja bei mir jedenfalls ist der Monitor noch mit so einem Hardware Gsync Modul ausgestattet (glaube ich jedenfalls) und in WQHD kann man auch Raytracing hinzuschalten. Gerade auch wenn man DLSS nutzt, das ja bei Nvidia überlegen ist (glaube ich ich jedenfalls).
 
Ray tracing ist super geil aber erst wirklich in 10 Jahren
 
  • Gefällt mir
Reaktionen: JoeDante, Windell und whtjimbo
0ssi schrieb:
Damit wirst du mit einer High End Grafkkarte ins CPU Limit laufen und dann ist Frame Generation hilfreich.

Eigentlich sogar anders. Hat man zu wenige Grund-Frames wird die Bildausgabe unrund, es tritt auch gerne Tearing auf (VSync ist idR. mit FG nicht nutzbar) und die gefühlte Framerate ist dann sehr niedrig. Hat man eine flotte CPU kann man mehr rausholen.

Easy1991 schrieb:
Ray tracing ist super geil aber erst wirklich in 10 Jahren

Also ich finde es jetzt schon sehr nice. In 10 Jahren wird die aktuelle Raytracing-Leistung vermutlich bereits mit einer IGP möglich sein. Normale Raster-Games wirken in meinen Augen nur noch falsch und zu statisch. Genauso, wie alles unterhalb von 90 Fps absolut unflüssig ist und 1080p wirkt, als wäre der Monitor kaputt. Wenn man sich erstmal an etwas gewöhnt hat gibt es leider keinen Weg mehr zurück.
 
sethdiabolos schrieb:
Wenn man sich erstmal an etwas gewöhnt hat gibt es leider keinen Weg mehr zurück.
Das mag sich so anfühlen, täuscht aber. Da gewöhnt man sich sich schon wieder dran im Ernstfall. ;)
 
sethdiabolos schrieb:
Also ich finde es jetzt schon sehr nice. In 10 Jahren wird die aktuelle Raytracing-Leistung vermutlich bereits mit einer IGP möglich sein. Normale Raster-Games wirken in meinen Augen nur noch falsch und zu statisch. Genauso, wie alles unterhalb von 90 Fps absolut unflüssig ist und 1080p wirkt, als wäre der Monitor kaputt. Wenn man sich erstmal an etwas gewöhnt hat gibt es leider keinen Weg mehr zurück.
Ich finde heute kostet es noch zuviel Leistung, allein Portal 2 kann eine rtx 4090 in die Knie zwingen ohne DLSS, heute würde ich noch nicht wegen RT eine graka kaufen, später sicherlich. Denke mit igpu kann man noch ewig warten, da spiele ja auch immer mehr Leistung brauchen
 
sethdiabolos schrieb:
Eigentlich sogar anders. Hat man zu wenige Grund-Frames wird die Bildausgabe unrund, es tritt auch gerne Tearing auf (VSync ist idR. mit FG nicht nutzbar) und die gefühlte Framerate ist dann sehr niedrig. Hat man eine flotte CPU kann man mehr rausholen.
Wen interessiert V-Sync ? Man zockt heute natürlich mit Adpative Sync (FreeSync/G-Sync/VRR).
Meine CPU schafft z.B. in CP2077 teilweise nur 80FPS aber ich habe 120Hz und möchte 120FPS.
Die Grafikeinstellungen kann man anpassen oder z.B. DLSS nutzen also schafft die GPU 120FPS.

Man hängt im CPU Limit bei 80FPS. Frame Generation errechnet daraus fast doppelt so viel FPS
aber da man einen Frame Limiter nutz (um innerhalb der Sync Range des Monitors zu bleiben)
werden nur 120FPS gebraucht, was bedeutet die CPU muss statt 80 nur noch 70FPS beisteuern.

Mit diesem Wissen kann man natürlich die Grafikeinstellungen erhöhen denn auch dort reichen
80FPS also z.B. Ray Tracing aufdrehen. Dank FG sind weder hoch GPU noch CPU FPS nötig. :daumen:
 
wrglsgrft schrieb:
Das mag sich so anfühlen, täuscht aber. Da gewöhnt man sich sich schon wieder dran im Ernstfall. ;)
wenn ein Spiel nur aus RT besteht, stimmt es
die Mitglieder der aussterbende Generation Gen-X (wie ich) hat CS (beta bzw. bis 1.6) mit 800x600 mit heuzutage lächerlicher Grafik gespielt, das Spiel wurde zum grösstmöglichen Erfolg, die Grafik war und ist nebensächlich
 
800x600 war damals aber auch in etwa das, was WQHD heutzutage ist. Ich kann mich noch gut daran erinnern, wie ich Ende der 90er froh war die Spiele in 512x384 oder maximal 640x480 spielen zu können. Man hat mal auf 1024x768 gestellt um zu schauen, wie geil das Game eigentlich ausschauen kann, aber flüssig war es dann nicht mehr wirklich. Hach, die gute alte Zeit...:)
 
Zurück
Oben