Passt eine 4090 in mein System?

C Punkt

Lieutenant
Registriert
Apr. 2020
Beiträge
635
Hi, ich habe mal den Fragebogen ausnahmsweise gelöscht, weil ich es hier gar nicht drum geht welche Karte für mich am besten wäre sondern einfach nur, ob es Faktoren gibt, die ich nicht überblicke, sei es Größe, Strom, Kompatibiltät etc... Im Grunde will ich nur wissen ob die Karte in meinem System läuft oder ob es Einschränkungen geben könnte (zb. B450 Board?, 850w?, Ist SAM auch mit NVIDIA nutzbar?)

Hier mein System:


Win 10 64 Bit auf: 256GB Sams. Evo 850 SSD +1TB SSD Sams. Evo Plus 970 + 1TB Cruc. MX500
AMD Ryzen 5800X3D (Eco Mode) und (noch 5700 XT Nitro+)
MSI Tomahawk B450 Mainboard mit Crucial Ballistix 32GB (2x16GB), DDR4-3600 CL16 (OC)
in einem beQuiet Darkbase 700 mit einem NZXT C850 2022
 
  • Gefällt mir
Reaktionen: Bussybaer63
Passt.
 
Nö. passt....
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Hi @C Punkt,

PCIe:
Grundsätzlich passt jede PCIe-Karte in jeden PCIe-Slot (PCIe ist abwärtskompatibel; sogar bei mechanisch kleineren Slots sofern sie offen sind) und jede CPU kann jede kompatible GPU ansprechen.
Ob es Sinn ergibt, die 4090 mit einem Intel Celeron zu paaren (Low End CPU) oder heute noch eine ATI X1900 XTX (PCIe 1.0 (2006)) mit einem Ryzen zu betreiben steht auf einem anderen Blatt, aber grundsätzlich funktionieren sollten sie können. Das einzige was passieren kann ist, dass die Software (BIOS/UEFI vom Mainboard, VBIOS der Grafikkarte oder Betriebssystem/Treiber) sich hier sperrt, aufgrund fehlender Features oder fehlender Implementierung.

Strom:
Passt.
(Ich meine du könntest die 4090 auch mit nur 500W betreiben, der PC würde beim Mehrverbrauch einfach ausgehen. (weil der Mehrstrom ja nicht da ist, von nichts kommt nichts) Ok, eventuell macht auch das NT aufgrund der Lastspitzen die Grätsche wegen fehlendem Überstromschutz. No risk, no fun.😅)

Platz:
Keine Ahnung - Darkbase 700 ist ein großes Gehäuse, also sollte es passen. Das hängt ja auch vom Hersteller/Modell ab was du dir kaufst.


@UNDERESTIMATED:
SAM = Smart Access Memory = PCIe resizable Bar
Das ist nur die Marketingbezeichnung von AMD.


Greetz,
Fresh-D
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Danke euch, die Abkürzung bedeutet in meiner Welt Software Asset Management und das war leicht unlogisch. :P
 
  • Gefällt mir
Reaktionen: Fresh-D
  • Gefällt mir
Reaktionen: DJMadMax und Verak Drezzt
@C Punkt die wichtigste Angabe hast du vergessen, für welche Auflösung soll die 4090 gedacht sein ? denn für FullHD leicht überdimensioniert
 
  • Gefällt mir
Reaktionen: juwa
Das DB 700 hat extrem miesen Airflow und dementsprechend vsl. ein massives Problem damit die ~350 W Verlustleistung der 4090 abzuführen ohne dass sich das Gehäuse und alle anderen Komponenten darin massiv aufheizt.

Könnte also eine laute und heiße bis hin zur drosselnden Angelegenheit werden.
 
  • Gefällt mir
Reaktionen: DJMadMax
wrglsgrft schrieb:
ein massives Problem damit die ~350 W Verlustleistung der 4090
~450 Watt (Leistungsaufnahme - keine Ahnung, wie hoch die tatsächliche Verlustleistung ist).

Ansonsten: volle Zustimmung.
 
  • Gefällt mir
Reaktionen: wrglsgrft
DJMadMax schrieb:
~450 Watt (Leistungsaufnahme - keine Ahnung, wie hoch die tatsächliche Verlustleistung ist).
Sind eher die von mir angegebenen 350 W. 400 aufwärts habe ich bei mir bisher nur in Benchmarks gesehen. Und in einem Pixel-Art-Spiel mit drölftausend fps. ;)

Aber klar, je nach Spiel, Auflösung und sonstigen Einstellungen sind theoretisch bis zu 450 W drin. Das würde das Ganze noch schlimmer machen.
 
  • Gefällt mir
Reaktionen: DJMadMax
@wrglsgrft
Du spielst vermutlich (oder: hoffentlich? ^^) auch mit sinnvoll gesetztem Framelimit :) ComputerBase hat die RTX 4090 FE ja ganz normal und unlimitiert durch DooM Eternal laufen lassen und da bereits 432 Watt an der Karte messen können.

Wie gesagt, uns ist ja beiden klar, dass die Leistungsaufnahme eines Geräts nicht mit der Verlustleistung gleichzusetzen ist. In der Regel wird aber bei steigendem Energiebedarf auch die Abwärme größer, mit zunehmender Verschiebung hin zur schlechteren Leistungseffizienz.

Was die Pixelart-Spiele mit Drölftausend FPS angeht: das sind die Schlimmsten! :D Wobei ich auch in meinen Tests mit knapp 200 Titeln selbst bei Triple A-Sachen teilweise die Menschheit in Frage stellen muss. Ich muss zuhause nochmal schauen, welche Titel das u.A. waren, aber da hast du im Menü direkt 6.000 FPS, obwohl in den Settings bereits VSync aktiviert ist - im Spiel selbst hast du dann dein Syncing, aber sobald du zurück ins Menü wechselst oder sogar aus dem Spiel heraustabst, dann läuft's unter Volllast. ARK ist auch so ein Kandidat: ingame alles tutti, springt man auf den Desktop und minimiert das Spiel (egal ob man vorher ins Menü gewechselt hat im Singleplayer oder die Welt weiterrendert), dann gehen GPU und CPU direkt auf Anschlag.

Aber gut, das nur mal so am Rande, manche Spiele verhalten sich da einfach dämlich und eigentlich WILL ich kein treiberseitig globales Capping betreiben, aber unterm Strich scheint das manchmal die einzige Lösung zu sein.
 
  • Gefällt mir
Reaktionen: wrglsgrft
Danke für die ganzen Antworten soweit, scheint ja zu passen :)
Weil die Frage kam: Ja ich zocke gerne mal in 4k und 120hz. Da mein TV aber nur über Hdmi-VRR auf g-sync ausweichen kann, tendiere ich zu Nvidia.

Weiß jemand noch was ob mein Amd System mit der Nvidia Karte genauso sehr von rBar zehrt wie die 7900xtx zb? Oder gar nicht oder weniger gut oder was auch immer?!
 
Zurück
Oben