Geplanter KI‑Build mit 2× RTX 5090

Dededu schrieb:
Bei der CPU kannst du allenfalls auch den i7 265KF wählen, der hat keine integrierte Grafikeinheit und ist ca. 30 Euro billiger (die iGPU brauchst du eigentlich auch nicht, du hast ja die 5090).
Eine iGPU würde ich immer mitnehmen, sei es als Backup und oder für Quicksnyc.
 
  • Gefällt mir
Reaktionen: Dededu
@minimii
Gerne Bilder davon per PN wenns nichts ausmacht. :love:
 
Das Gehäuse schaut Super aus :daumen:

Zum Mainboard und PSU
KarlsruheArgus schrieb:
@XBenutzerNameX
Welchen Mehrwert bietet dir das ~70% zu teure Mainboard und warum das ebenfalls gute ~40% zu teure TX1600 statt dem C1500 oder PX1600 ?

Den techn. Vorteile sehe ich weder beim Mainboard und insbesondere nicht beim PSU. :confused_alt:

Edit:
Und wenn du schon Geld rauswerfen willst dann bitte die TX1600 in der Noctua Edition, wenn schon denn schon. :p
https://geizhals.de/seasonic-prime-tx-1600-noctua-edition-1600w-atx-3-1-ssr-1600tr2-ne-a3360154.html
Hast recht, macht keinen sinn da sinnlos mehr Geld als nötig reinzubuttern.

Zur Frage beim Ram, ich hab dieses Kit
https://geizhals.de/crucial-pro-dimm-kit-128gb-cp2k64g56c46u5-a3423953.html?hloc=at&hloc=de
 
  • Gefällt mir
Reaktionen: Dededu
XBenutzerNameX schrieb:
Zur Frage beim Ram, ich hab dieses Kit
Hält sich genau an die Herstellerspezfikationen des 265K, passt also.

Achja die gabs 2025 noch für ~300€...
 
  • Gefällt mir
Reaktionen: Dededu
Die hab ich im September 2025 für 339 Euro noch bekommen die GPU,s zum OVP von Nvidia

bzzgl. des CPU Kühlers nochmal die Frage AIO oder normale Luftkühlung
 
Zuletzt bearbeitet:
Ich bin normal immer für Luftkühler, weil weniger Stress. Die Gehäuselüfter müssen bei der Abwärme sowieso schneller laufen. Würde wohl die beiden 5090 auf 450 Watt begrenzen und dann einfach alles mit Luft kühlen. Dann wird das Ganze auch deutlich effizienter. Dazu ist auch die Frage, wie häufig die CPU voll ausgelastet wird. Das meiste wird ja von den GPUs übernommen. Heißt man hat selten volle Leistung von beiden GPUs + CPU.
 
  • Gefällt mir
Reaktionen: XBenutzerNameX und KarlsruheArgus
@XBenutzerNameX
Zusätzlich zum Leistungsaufnahmebegrenzungstipp von @Ayo34 sei noch angemerkt das bei drei zus. 140ern oben, im PA602, die beiden vorderen einblasend eingebaut werden sollten und nur der hintere ausblasend wirken sollte.
Somit bekommt der CPU Kühler nochmals mehr Frischluft und der vordere, obere 200mm Lüfter arbeitet mit den beiden 140ern entsprechend kohärent.
 
Zuletzt bearbeitet:
@Dededu Das Lian Li O11 Dynamic ist ein super hübsches Case, hatte schon 3 Varianten davon, ist aber eine furchtbare Wahl für Luftkühlung.
 
interesTED schrieb:
Insbesondere die geringe Leistungsaufnahme ist ja genial.
Die ist ja nicht so gering, weil die Karte irgendwie besser wäre, sondern weil Nvidia die Leistungsaufnahme begrenzt. Takte eine 5090 runter und begrenze die Leistungsaufnahme, dann braucht sie auch nur 300 W.
 
  • Gefällt mir
Reaktionen: Ayo34
Dededu schrieb:
Die Kombination von 2 x GPU mit 4 x m.2 SSD ist auf der AM5 Platform nicht ohne Lane-Sharing / Oversubscription auf dem PCH (x870e) möglich. Dazu haben AM5 CPUs schlicht zu wenige PCI-Express Lanes. So wie du dir das vermutlich vorstellst, geht das nur auf der Intel Core Ultra 200 Platform (Sockel 1851). Folglich wäre als Prozessor ein i7 265K oder i9 285k sicherlich eine sinnvolle Wahl.
Man könnte auch zum Threadripper Pro greifen, der hat 8 Channel Speicherinterface und massig PCIe5 Lanes
https://www.amd.com/de/products/pro...series/amd-ryzen-threadripper-pro-9955wx.html
 
konkretor schrieb:
Sind die falschen Karten, da wird dir zu schnell der Speicher ausgehen. 2x 32 GB sind nicht genug.
Naja, 2x32GB sind schon besser als nichts, aber es ist viel zu wenig, als dass man da teure Hardware drum rum bauen muss.
Die LLMs würden mit einem 3 Jahre alten 6 Core Ryzen und 16GB RAM vermutlich genauso flott laufen wie mit den geplanten Ryzen 9 und 128GB RAM.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aluis und konkretor
TeeKayEV schrieb:
Die ist ja nicht so gering, weil die Karte irgendwie besser wäre, sondern weil Nvidia die Leistungsaufnahme begrenzt. Takte eine 5090 runter und begrenze die Leistungsaufnahme, dann braucht sie auch nur 300 W.
Hat dann aber nur 32 und keine 96 GB RAM.
 
  • Gefällt mir
Reaktionen: konkretor und aluis
Heiße Diskussion :) Ich habe mit meiner 5090 auch viel lokale KI probiert. Die 32GB sind mega frustrierend, weil da einfach nicht die guten 80GB Modelle rein passen. 2x32GB ändert da nicht viel.

Wer es wirklich erst meint, braucht eigentlich unter einer RTX Pro 6000 Blackwell garnicht erst anfangen.

In CB Sprache: 2x5090 ist bei KI so, als wolle jemand mit einem Dual-CPU-Server Cyberpunk 2077 zocken.
 
  • Gefällt mir
Reaktionen: madmax2010
aluis schrieb:
Wer es wirklich erst meint, braucht eigentlich unter einer RTX Pro 6000 Blackwell garnicht erst anfangen
Das kommt aber sehr drauf an, was man unter KI-Nutzung versteht. Ich brauche mein 2 x RTX 5090 für akademische Forschung und habe generell noch wenige Szenarien gesehen, bei denen diese Hardware nicht ausreicht. Selbst grosse Vision-Transformer Modelle lassen sich auf dieser Hardware recht problemlos trainieren.

Wenn man unter KI-Nutzung aber Inferenz mit LLMs versteht, dann gebe ich dir natürlich recht. Dann ergibt nur eine RTX 6000 Pro Sinn.

aluis schrieb:
In CB Sprache: 2x5090 ist bei KI so, als wolle jemand mit einem Dual-CPU-Server Cyberpunk 2077 zocken.

Äh, nein? Insbesondere das Training von KI Modellen profitiert erheblichst von mehreren GPUs. Vorausgesetzt die Modelle passen auf eine GPU, ist eine Skalierungs-Effizienz von 90% realistisch, d.h., man hat die 1,9 fache Performance mit 2 GPUs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TeeKayEV und Ayo34
aluis schrieb:
Heiße Diskussion :) Ich habe mit meiner 5090 auch viel lokale KI probiert. Die 32GB sind mega frustrierend, weil da einfach nicht die guten 80GB Modelle rein passen. 2x32GB ändert da nicht viel.

Wer es wirklich erst meint, braucht eigentlich unter einer RTX Pro 6000 Blackwell garnicht erst anfangen.

In CB Sprache: 2x5090 ist bei KI so, als wolle jemand mit einem Dual-CPU-Server Cyberpunk 2077 zocken.

Es ist einfach alles ein Kompromiss, selbst mit 80 GB oder 200 GB VRAM. Eine 5090 kann aber schon einiges übernehmen. Gerade auch zum Testen. Es gibt z. B. viele, die ihren eigenen PC mit schlechteren Modellen laufen lassen und für den finalen Run dann die hochwertigsten Modelle benutzen.

Am Ende muss man sich fragen, was man will, und dann die passende Hardware kaufen. Aber weil so viel passiert, macht ein gemischtes Konzept immer Sinn. Das heißt, man richtet einen Heim-PC/Server ein, auf dem dann n8n oder Ähnliches läuft, und koppelt das Ganze mit den großen Anbieter-APIs.

Je nach Aufgabe, wählt man dann einfach aus...
 
  • Gefällt mir
Reaktionen: Dededu
Ayo34 schrieb:
Das heißt, man richtet einen Heim-PC/Server ein, auf dem dann n8n oder Ähnliches läuft, und koppelt das Ganze mit den großen Anbieter-APIs.
Gut, wenn dass der Plan ist, kauft man eh keine Hardware für viele tausende von Euro und macht es gleich auf dem Laptop.
 
Wenn es eher ums "experimentieren" geht würde ich ein System mit genug VRAM bevorzugen damit einfach möglichst viele LLM laufen.

Das hilft manchmal mehr als viel Leistung zu haben.

Also wäre ein odere mehrere Systeme mit Ryzen Ai Max 395 mit 128GB oder das Nvidia GX-10 ne Option, gerade wenn ich noch höre dass Home Assistant mit einem LLM gekoppelt werden soll.
Das ist vielleicht was das 24/7 laufen soll.


Die Nvidia Dinger könne per 200GBe Ethernet in ein Cluster verbunden werden.
 
  • Gefällt mir
Reaktionen: madmax2010
KarlsruheArgus schrieb:
@minimii
Gerne Bilder davon per PN wenns nichts ausmacht. :love:
Der Mora ist noch nicht da.
Habe meinen 600er abgegeben.
Bis ein 400er kommt dauert etwas ;)
 
Zurück
Oben