AMD oder Nvidia GPU für AM4 Board aber G-Sync Monitor..

C Punkt

Lt. Junior Grade
Registriert
Apr. 2020
Beiträge
510
Hallo Leute!

Der Fragenkatalog ist im Spoiler beantwortet. Ich habe aber schon relativ konkrete Vorstellungen, deshalb mal mein Clinch mit mir selbst vorab:

Ich war immer auf AMD aus, da mir FPS/€ einfach am wichtigsten ist. Daher habe ich mir auch ein AMD System zusammengebaut wie ich in meiner Sig, aber auch
Win 10 64 Bit auf: 256GB Sams. Evo 850 SSD +1TB SSD Sams. Evo Plus 970 + 1TB Cruc. MX500
AMD Ryzen 5800X3D (Eco Mode) und ASRock Taichi 6800 XT
MSI Tomahawk B450 Mainboard mit Crucial Ballistix 32GB (2x16GB), DDR4-3600 CL16 (OC)
in einem beQuiet Darkbase 700 mit einem NZXT C850 2022
nochmal sehen könnt. Also ein AM4 Board mit B450 Chipsatz aber schon SAM-fähig. Meine 6800 XT Taichi von November für 599€ ist mir leider abgeraucht. Mindfactory weigert sich leider auch mir eine andere gleichwertige (genau die gleiche gibt es leider nicht mehr) 6800 XT als Ersatz zu schicken, da die ja wieder teurer geworden sind.

Das einzigst positive daran wäre, dass ich jetzt etwas von dem leichten Preisfall der neuen GPU Generation profitieren könnte.

Zum ersten Mal stellt sich bei mir nun aber die Frage, ob nicht vielleicht doch diesmal auch NVIDIA eine Option sein könnte.

Aus dem Katalog die wichigsten Infos auf einen Blick:
Ich zocke 70% Warzone 2.0 auf einem WQHD Monitor, momentan 144hz, bald soll es aber ein OLED mit 240 HZ werden (ich meine die haben alle beides: G-/FreeSync) Da ist mir auch die Leistung samt niedriger Inputlag und hoher FPS Zahl besonders wichtig.

Die anderen 30% sind TripleA Games (Cyberpunkt, Hogwarts L., RDR2) auf 4K 120hz auf meinem LG OLED B9. Der sollte eigentlich VRR haben, es hat sich leider bei der 2019er B9/C9 Reihe rausgestellt, dass das nicht funktioniert und er auf G-Sync und Freesync ausweicht, letzteres aber nicht funktioniert und daher nur G-Sync funktioniert. Bei GoW hat mich das mit der 6800 Xt nicht soo gestört, da ich einfach V-Sync reingemacht habe und am TV mit Controller und ohne Multiplayer hab ich das jetzt nicht so arg mit dem Input Lag dadurch gespürt..

Trotzdem bin ich hin und hergerissen ob ich in meinem neuen Wissen, dass mein TV kein Freesync kann nicht auf lange Sicht das flüssigere Spielerlebnis habe, wenn ich eine Nvidia Karte habe. (das heißt: bestimmt ist das so, aber wie arg sollte es in meine Abwägung miteinfließen, denn da kommt noch mehr:) Auf der anderen Seite habe ich ein B450 Board mit rBar, also SAM und einem 5800 X3D. Wieviel besser ist SAM da mit Radeon im Gegensatz zu Nvidia (habe gehört Nvidia kann auch SAM, aber gleich gut?)

Meine Überlegungen sind momentan: 7900 XT für ca. 880€, 7900 XTX (gerade 1109€) oder eine 4070 (850€) oder 4080 für 1200€. Das sind die Bestpreise auf Mydealz heute.

Ich weiß nicht ob mir die 100€ mehr für die 4080 sinnvoll erscheinen, wo die XTX ja in einigen Spielen unter anderem Call of Duty (hier im Test wird zwar nur Vanguard getestet, aber ich nehm mal an bei MW2 wird es nicht anders sein?), welches mir am wichtigsten ist, sogar deutlich schneller ist. Auf der anderen Seite habe ich gehört, dass Nvidia natürlich besser mit Raytracing (das ich jetzt nicht brauche, aber in den RPGs am TV bestimmt schön aussieht wenn ichs schon hab) und DLSS umgeht. Aber das wäre zweitrangig, FPS/€ ist mir wichtiger. Zu allem anderen (reflex/antilag) etc, FSR/RSR hat Amd ja auch Counterparts.

Stromverbrauch ist mir nicht soo wichtig, da ich eh nicht soo viel, nur am WE, ca. 4-5 Stunden in der Woche zum Spielen komme. Oder ist auch der Unterschied im Verbrauch relevant?

Was meint ihr? Was sollte ich noch beachten?
Bitte keine Fanboy Speeches, es ist wirklich eine delikate Entscheidung.. sobald ich sowas lese wie 7900 XTX Schrottkarte weil Treiber Müll und Stromverbauch vom Atomkraftwerk, schalte ich schon ab...

1. Wie viel Geld bist du bereit auszugeben?
egal solange es sich lohnt und das P/L gut ist.

2. Möchtest du mit der Grafikkarte spielen?

  • Welche Spiele genau? Vor allem Warzone 2.0 auf dem Monitor. Sonst auch mal RPGs wie RDR2, GoW, Cyberpunk, RE4 Remake, Diablo IV, Forza Horizon und evtl. Elden Ring, Hogwarts Legacy
  • Welche Auflösung? Monitor wird vermutlich einer der angekündigten WQHD OLEDs mit 240hz sein für Warzone. Für den Rest (Single Player der LG Oled B9 in 4k mit max 120 Hz.)
  • Ultra/hohe/mittlere/niedrige Grafikeinstellungen? So hoch wie möglich
  • Genügen dir 30 FPS oder sollen es 60 oder gar 144 FPS sein? Bei Warzone soviel möglich, 200 sollten es bei dem Preis schon sein.
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen? NEIN nur Games
...

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
LG Oled B9, der hat VRR, jedoch scheint nur GSync wirklich zu funktionieren, mit Freesync hat die 2019er Reihe (B9,C9) wohl entgegen der Herstellerankündigungen große Probleme)

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
  • Signatur:
6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
Nein

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
Möglichst bald, diesen Monat sollte es aber schon durch sein.
 
Ich würde dir eigentlich ganz klar zur 4070 ti raten, nach Hogwarts L. sieht das aber etwas anders aus. Die 12 GB könnten und werden eben echt zu einem Problem. Hast du das Geld, dann nimm die 4080, damit wirst du am meisten spaß haben, ansonsten eben die 7900 xt. Der Aufpreis zur xtx ist momentan zu hoch. Dlss3, RT und Treiber sprechen natürlich klar für Nvidia, AMD bietet aber mehr Videospeicher und eine etwas bessere Leistung pro Euro.
 
  • Gefällt mir
Reaktionen: Gagapa und coasterblog
Also das gsynch aber freesynch nicht funktioniert auf dem OLED ist fast unglaublich... Ist er doch gsynch fähig und basiert auf freesynch... By the way... Beides sind Methoden des VRR (variable refresh rate)
Kurz gesagt: VRR basiert in Verbindung mit PCs eigentlich immer auf freesynch esseiden es ist ein gsynch Modul verbaut.
HDMI VRR hat der OLED aber auf alle fälle
 
@Moorbert Die AAA werden ja auf nem 4k OLED gespielt.

Finde da ist ne 4070ti definitv keine Option.
Da AMD Karten ja nen Stromverbrauch jenseits von gut und böse haben (was ein schwachsinn sorry) bleibt nur ne teure 4080. Muss man dann halt in den finanziell Sauren Apfel beißen für bessere Effizienz.

Was natürlich nicht bedeutet das ne 4080 keine Empfehlung ist. Im Gegenteil. Sehr sehr geile Karte
 
Zuletzt bearbeitet:
Moorbert schrieb:
war das aber nicht nur bei 4k so?
In wqhd genügen momentan noch 10-11 GB, das stimmt. Aber wie fairhext bereits erwähnte, möchte er die Spiele aber in 4k spielen. Ansonsten sind die 12 GB für wqhd bald wahrscheinlich auch zu wenig, wenn man sich momentan die Entwicklung anschaut und da der te die Karte wohl etwas länger nutzen wollen wird, würde ich zumindest davon abraten.
 
  • Gefällt mir
Reaktionen: coasterblog und ferris19
Finde auch das einzige Manko an der 4080 ist der vram... 20gb hätten ihr gut getan. Hoffen wir das die UE5 nicht zu sehr rein knallt die nächsten Jahre. Und 16gb reichen... Sonst muss ich auch früher als geplant upgraden. Bin schon froh letztes jahr keine 3080 gekauft zu haben mit 10gb. Dann wär ich jez schon wieder fällig
 
C Punkt schrieb:
und daher nur G-Sync funktioniert
Ich habe auch die Lager gewechselt, da der LG nur G-sync unterstützt.
Ich würde an deiner Stelle zu NVIDA greifen.
 
Ben_computer_Ba schrieb:
Ich würde dir eigentlich ganz klar zur 4070 ti raten, nach Hogwarts L. sieht das aber etwas anders aus. Die 12 GB könnten und werden eben echt zu einem Problem. Hast du das Geld, dann nimm die 4080, damit wirst du am meisten spaß haben, ansonsten eben die 7900 xt. Der Aufpreis zur xtx ist momentan zu hoch. Dlss3, RT und Treiber sprechen natürlich klar für Nvidia, AMD bietet aber mehr Videospeicher und eine etwas bessere Leistung pro Euro.
Hm wobei ich mir die Tests zu der angeschaut habe und alle meinen, die wäre überteuert für das was sie kann und die 12GB :/ Aber knapp 90€ für ne Karte die bald für 4k am Limit ist, ist echt keine Option
fairhext schrieb:
Also das gsynch aber freesynch nicht funktioniert auf dem OLED ist fast unglaublich... Ist er doch gsynch fähig und basiert auf freesynch... By the way... Beides sind Methoden des VRR (variable refresh rate)
Kurz gesagt: VRR basiert in Verbindung mit PCs eigentlich immer auf freesynch esseiden es ist ein gsynch Modul verbaut.
HDMI VRR hat der OLED aber auf alle fälle
Ist aber leider so, dass der LG das nicht kann

Die neuen Karte von denen ich rede wurde hier nicht gebencht mit MW2 oder gar WZ2.0 oder übersehe ich da was? hier bei PCGH leider nur die 4090 und alten Karten:

https://www.pcgameshardware.de/Call...Technik-Test-mit-GPU-Benchmarks-1406475/3/#a1

Das wäre schon entscheidend für mich.. Wenn die 4080 der XTX da überlegen wäre, wäre die ein NoBrainer für mich.. Wenn sie aber schwächer ist für 100-200 Tacken mehr.. dann keine Option und geschisssen auf RT und G-Sync (dann würd ich am Oled halt irgendne Dynamic Sync oder V-Sync reinhauen).

Edit: Was sagt ihr eig zu SAM? Spielt das noch ne Rolle ob AMD oder NVIDIA GPU? Und mein Netzteil mit 850w hält auch beide Karten aus?
 
Zuletzt bearbeitet:
C Punkt schrieb:
... auf lange Sicht das flüssigere Spielerlebnis habe, wenn ich eine Nvidia Karte habe.
Man hat mit FreeSync oder G-Sync kein flüssigeres Spielerlebnis sondern einfach nur kein Tearing.
Flüssiger wird es nur mit mehr FPS also mit GPU Leistung und davon liefert in 4K eben Nvidia mehr.

Bei nem 4K 120Hz OLED würde ich Nichts unter RTX4080 kaufen und das stärkste Nvidia Argument
ist für mich Frame Generation. Zusammen mit DLSS bekommt man damit eigentlich immer 100FPS+
 
fairhext schrieb:
Was die Leistung in Games angeht ist der Unterscheid zwischen 4080 und 7900xtx von gering bis enorm. Tendenziell ist die xtx stärker. Xtx hat mehr Speicher 4080 hat mehr RT Power und das aktuell besser KI sampling.

https://www.techspot.com/review/2599-radeon-7900-xtx-vs-geforce-rtx-4080/
Wow.. "we've come to expect from Modern Warfare II and Warzone IIwhere AMD GPUs are heavily favored" ..und die Zahlen sagen in WQHD bringt die XTX ganze 40% !!! mehr FPS
Bildschirmfoto 2023-02-13 um 22.09.27.png


Das hat das ganze nun wohl entschieden, wo ich zu 70 % WZ spiele.. selbst Cyberpunk das ich noch spielen will läuft mit mehr FPS auf der XTX..
Hatte implizit gehofft, dass der Unteschied marginal ist, und ich für mein Gewissen 100-200€ mehr zu zahlen auch mal das interessante RT as Nice-to-have haben kann und gutes DLSS von Nvidia sowie G-Sync ... aber für diese Mehrkosten soooviel FPS Einbußen.. könnte ich glaube ich nicht mehr vor mir selbst rechtfertigen.
 
Zuletzt bearbeitet:
Ich würd dann Mal schauen. Vielleicht läuft HDMI VRR ja mit den aktuellsten Treibern. Dein TV hat die neueste Firmware? Sicher gehen nen HDMI 2.1 Kabel zu verwenden und schauen ob's geht am OLED.
 
In meinem Link wirst du sehen, dass sich der Kollege und schon einige in der Reddit Comunity daran die Zähne ausgebissen haben. Ich glaube wenn es wirklich mal jemand hinbekommen hätte, könnte man davon lesen. :/ Bin jetzt echt noch am überlegen ob ich die
 
Zurück
Oben