AMD oder NVIDIA Grafikkarte?

CBDidi

Cadet 2nd Year
Registriert
Mai 2020
Beiträge
26
1. Wie viel Geld bist du bereit auszugeben?


2. Möchtest du mit der Grafikkarte spielen?


  • Welche Spiele genau? - Alle auf den Markt
  • Welche Auflösung? Entweder WQHD oder 4k
  • Ultra/hohe/mittlere/niedrige Grafikeinstellungen? am besten natürlich ultra Einstellungen
  • Genügen dir 30 FPS oder sollen es 60 oder gar 144 FPS sein? mind. 60 FPS
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
- Keine

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
2 Monitore
5. Nenne uns bitte deine aktuelle/bisherige Hardware:
  • Prozessor (CPU): Intel i7 12700k
  • Aktuelle/Bisherige Grafikkarte (GPU): keine
  • Netzteil(Genaue Bezeichnung): 1000W - be quiet! Straight Power 11 Platinum | Vollmodular
  • Gehäuse: Lian Li - PC-O11 Dynamic XL weiß | Glasfenster
  • Mainboard: ASUS ROG MAXIMUS Z690 HERO | Intel Z690
  • Arbeitsspeicher: 32GB DDR5-4800 Corsair Vengeance LPX | 2x 16GB
  • AIO für die CPU: Corsair iCUE H150i Elite LCD | 360mm + 7 weitere Lüfter
6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
-

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
- Demnächst

Servus Leute,

bin gerade dabei mir ein neues System zusammenzustellen und habe bei der Kategorie Grafikkarte ein bisschen zu kämpfen.
Für die oben genannten Hadware Komponente bräuchte ich aber noch eine Grafikkarte und bin mir leider nicht sicher welches Model am Besten wäre. Vorweg Raytracing ist mir nicht so wichtig.
AMD:
  • AMD Radeon RX 6900 XT 16GB | MSI Gaming Z Trio
  • AMD Radeon RX 6900 XT 16GB | Sapphire Nitro+ SE

NVIDIA:

  • NVIDIA GeForce RTX 3080 Ti 12GB | MSI Suprim X
    [*]NVIDIA GeForce RTX 3080 Ti 12GB | ASUS Strix
  • NVIDIA GeForce RTX 3080 Ti 12GB | MSI Ventus 3X

Habe gelesen, dass AMD Radeon RX 6900 XT 16GB | MSI Gaming Z Trio starke Hitzeprobleme. Ist das so?
Falls IHR noch Vorschläge für das System habt, gerne mir mitteilen:D

Ich bedanke mich schon mal Vorab für die Antworten:D
 
  • Gefällt mir
Reaktionen: Mike_MTL, Asghan und Drewkev
Bei der Auswahl: Mehr RAM AMD, Günstiger AMD. Würde rein von den fakten sagen ist klar.
Kommen wir zu den Features: Ist DLSS wichtig? Wenn ja dann Nvidia. Wenn nein siehe oben.
CPU Limit performance: Klar AMD.

Fragen?

Konkretes Modell bitte Test lesen. Zu fast allen findet sich bei Google in den ersten 5 Treffern Tests die dir helfen.

mfg
 
  • Gefällt mir
Reaktionen: Lübke82
Warum da im Fragebogen wohl nach den Monitoren und G- oder Free Sync Unterstützung von eben diesen gefragt wird...
 
Raytracing an sich ist ne ganz tolle Sache, aber selbst auf den Geforce Karten wäre mir der Einbruch noch zu groß. Ich selber habe zur 6900XT gegriffen, da Raytracing immer noch eher Gimmick als etabliert ist.

Bei der nächsten GPU wird das aber dann sicher anders aussehen und dann werde ich bei AMD über einen so massiven Einbruch sicher nicht hinwegsehen können, falls der wieder so ausfällt.

Das AMD DLSS quasi nichts gleichwertiges entgegenzusetzen hat, finde ich da schon enttäuschender. Noch mag das nicht so relevant sein bei einer 6900XT, aber das kommt sicher noch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll
Februar 2022 und bald eine Woche in dem meine 6900XTU Red Devil Ultimate versiegelt im Karton verweilt...
Klar, beobachte auch die Preise, da zb die 6800XT schon für 1050€ zu haben ist ( Mindfactory). Grundsätzlich geht's mir eher darum, ist der Unterschied bei Bilder mit RT im Gefecht bemerkbar oder lieber etwas mehr RAM der Radeon Karte 🤔
 
Zuletzt bearbeitet:
Philipp125254 schrieb:
Wartest du darauf, dass die Grafikkarten teurer werden?
He, he... umgekehrt, und es geht nicht um 100€ Differenz, das ist mir den Tausch nicht Wert.
Mittlerweile sind die 3080 preislich gleich, auch daher die Warterei, aber um nicht unnötig zu sparen, habe richtigen thread gefunden und dort noch Mal gepostet.
 
Zuletzt bearbeitet:
Bei so eine System käme nur die rtx3090 infrage wenn mehr ram dazu kommt den 32gb reichen nicht
also die rx6900xt womit aber 4k man sich kneifen kann.
https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481
zwar liegt die rx6900xt laut tpu 7 Prozent hinten aber
Die rtx 3090 wird mit maxed 1,7ghz bewertet
Mit den durchschnitt von 1,95ghz siehtd as anders aus da die amd bis zu 2,5ghz kann oft baer auf 2,2ghz sich ausbremst
Dann kann amd rdna 5120 shader nicht die realen 7872 fp32 shader ankommen
30,7tf vs 25,6tf iom idealfall und minimal 23,5tf
30,7/25,6=19%
30,7/23,5=30%
tf 1=1 in fps geht in der Regel nicht daher kann man min von der Hälfte an fps ausgehen was dann 7% oder 15% sind.
Dafür hat die radeon bei geringeren Auflösungen geringere cpu limits was primär an theoretischen Bandbreite liegt.
mathe wäre das 256*16/8+256*2,4*0,48=806gb/s
vs 384*19,5/8=936gb/s aber die latenz macht es aus.
Der inf cache liegt näher am L3 die daten dazu sind leider nicht bekannt. aber es sollte min bei L2 cache niveau sein sprich 4 cl=1,6ns vs vram von cl38 1,94ns.
Daher gewinnt amd inf cache bei kleineren Auflösung während nvidia erst bei 4k die Bandbreite ausspielen kann.
Den die games sind derzeit bei
1080p etwa 200gb/s
1440p bei 350gb/s
2160p bei 700gb/s
ja amd liegt genau darauf nur das amd und nvidia speicher managment unterschiedlich funktionieren
Hätte die rx6900xt 512mb inf cache würde amd klar davon ziehen
Wichtiger Spielt hier aber das CPu limit mit rein. Und das ist Treiber abhängig

Amd Treiber hardware sheduler wo der Entwickler selber die command list bereitstellen muss
nvidia hat die command list schon im Treiber enthalten und läuft als dienst im Hintergrund kann aber von Entwickler genutzt werden oder schaltet sich ab sofern der dienst bemerkt das eine vorhanden ist.
Oder anders gesagt software sheduler. Der natürlich ein höhere Neigung zum cpu limit hat.
natürlich hat nvidia auch hardware render engines (8 gpc)

1646572213695.png

wer sich wundert das da chipüfläche vergeudet wird das liegt daran das der ga102 nicht 7 sondern 8 gpc hat
amd dagegen setzt auf physische sheduler

1646572339427.png

hier gelten 2 wpc als render engines zu je 20wgp/cu je 64 alu

Sprich nvidia software mit 8 thread ähnlich zu cpu amd 2 cpu thread in hardware
Was auch die schlechte Auslastung bei nicht optimierten dx9 und dx11 spielen erklärt

In software gibt es seit 2006 den hardware shedulling mit der command list für die api
In dx9 geht das nicht was auch die Auslastung ältere spiele erklärt bei amd
Nvidia nutzt für die dx9 Berechnung einen layer des dx10
dx10 featuring level 9 das ermöglicht dann command list bei diesen Programmen.

Command list eine liste von befehlen die die drawcalls auf mehr cpu threads verteilt bedingt aber ein syncronation der thread max auslastbar dx10 4 threads max auslastbar dx11 8 threads

amd physisch 2 threads
nvidia physisch 8 threads
Das ist aber erst seit pascal so (2016 mit gtx10 Serie)
Amd gcn arch (2012 bis 2018) hatte 4 threads die oft nicht ausgelastet werden konnten
Zudem setzte die Software notwendigkeit von fp64 alu fp32 Anweisungen 2 Durchzuführen was aber oft in 1 fp32 oder 1,5 operationen begrenzte folge erst gcm 5 konnte die fp32 beinahe auslasten mit 1,9 fp32 auf eine shader
Das war aber eine Ausnahme da amd hier klar die fp64 shader Leistung für Profi (fp64) Anwendungen die fp32 nutzte anstatt wie nvidia dedizierte fp32 zu nutzen.
Stromhungriger und bei front end oft an der bandbreite gescheitert. weswegen man nicht die 2 Ausführungen erreichen konnte.
Die formel war bei den teragflops anders als bei rdna

Heute mit rdna2 und später rdna3 wo nochmal die wgp auf 256alu erhöht werden werden diese aber fp96 oder fp16 sein.
Ein shader kann dann 3 fp32 Ausführen oder 6 fp16 und mit variable rate shading quasi 2,5 fp32
Der weg zu 3 fach ist aber einfacher
Was man weiß ist das ein wgp 256 shader hat
Die können 8 fp32 oder was wahrscheinlicher ist 4 fp32 und 2 fp64 die 4 mad berechnungen können
ergibt dann frequenz*wgp*128*2 +64 fp64*1= oder wgp *256*3 (entspricht dann 128fp32+128fp64 einheiten die nur 64 fp32 können=192shader/alu mit fp32 Berechnungen )
und das in 2 engines als wpc
3 wpc sind in dem high end ship =7680 alu
Rdna3 wird bahnbrechend was teraflops angeht besonders die mcm module werden bis 100tf erreichen

nvidia dagegen wird es schwer haben wenn sie nicht die arch anpasssen.
Da spricht man von ein sm dann 112 fp32 und 16 fp64
Was die Formel für lovelace (rtx40 )auf sm count *128*0,75*takt= spricht.
Ampere (rtx30) hat sm count *128/2*1,5*takt= oder anders 96*sm count *2*takt=
Dies kann man im ampere ga100 whitepaper genau sehen

1646574267178.png

das ist zwar ga100 aber das in dem whitepaper auf ga102 ist gröber
siehe
1646574333866.png


Es sind 64fp32 und 32fp64 vorhanden die zu 50% fp32 rechnen können
Das kann auch bedeuten das die shader dieselben bleiben und stattdessen die 32 fp32 dann 4 mad ausführen was dann echte 128 fp32 ausgeführt werden
Das bedingt aber das der Takt sinkt daher gehe ich von maxed 24 alu in fp32 berechnen von 32 alu in fp64
am ende sind es dann 112 fp32 *2

Um deine frage zu beantworten liegt es klar auf der hand
In 4k definitiv rtx3090
in 1440p klar die rx6900xt was aber eher mit dem P/L zu tun hat
Die rtx3080ti liegt dazwischen ich würde da am preis festmachen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Firstdim
So wie ich sehe @syfsyn
die Unterschiede sind eher marginal und je nach Einsatz wandern die Ergebnisse.

Die 3090 ist zumindest für meinen Einsatz mit WQHD oder irgendwann UW-WQHD überteuert , die 3080 könnte passen, wenn preislich in ähnlichen Regionen und das ist momentan der Fall, da aber für mich RT nicht so wichtig wie smoothe Bilder, gepaart mit höheren Bildwiederholraten ist, bleibe ich bei meiner 6900-er.
Hinzu kommt der 6 GB größerer Speicher der womöglich verhindert, dass ich in 2-3 Jahren wiederum Ausschau nach neuen Karten halten muss.
 
Zurück
Oben