News HP Z8 Fury G6i: Workstation mit bis zu vier RTX PRO 6000 und 86-Kern-Xeon

Ich oute mich als Hardware-Voyeurist. Ich liebe sowas, ein Desktop-Rechner zum Preis einer kleinen Eigentumswohnung in der Provinz, what a time to be alive! :daumen: đŸ˜đŸ„°
192 384 GB VRAM und 2 oder 4 TB RAM, wĂ€re ich MilliardĂ€r wĂŒrde ich mir den nur fĂŒr den Screenshot von Neofetch oder CPU-Z zum posen bei Reddit holen. đŸ˜‚đŸ€Ł
Edit: Dann passt endlich die Steam-Bibliothek in den RAM! :mussweg:
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: dualcore_nooby
PS828 schrieb:
Mit den GPUs kann ich nicht so viel anfangen und wĂŒrde stattdessen auf die aktuellen Radeon pro setzen. Haben zwar nur 32GB dafĂŒr kosten zwei immernoch signifikant weniger als eine einzige 5090.
Hilft halt nix wenn CUDA der Standard ist
 
Das Teil steht auf dem ersten Produktbild mitten im BĂŒro auf einem Schreibtisch. So ein Bild stammt doch vom Hersteller, oder? Das Teil kann im sinnvollen Betrieb doch niemals eine noch ertrĂ€gliche LautstĂ€rke erreichen. So wie es aussieht, gibt es keinen extra CPU-LĂŒfter. Da gibt es wohl nur vorne und hinten die "DĂŒsentriebwerke". Und die mĂŒssen halt schon ordentlich Drehen. Es kommt immer das Argument, dass die Teile in getrennten RĂ€umen stehen. Aber selbst dann hat man oft den Eindruck, dass man die Teile schon leiser bauen könnte, wenn man denn wollte.

*edit: Da scheint doch ein CPU-LĂŒfter verbaut zu sein. Wenn man den Hinweisaufkleber auf dem KĂŒhler vergrĂ¶ĂŸert, ist da wohl was "Rundes" verbaut.
 
Zuletzt bearbeitet:
Puh, dann braucht man nur noch 2-3 davon zusammenzuschalten und schon kann man eines der großen Sprachmodelle lokal betrieben.

Da finde ich aber ein Mac Studio interessanter: kommt mit bis zu 256 GB schnellem Ram zu einem Bruchteil des Stromverbrauchs und KĂŒhlbedarfs fĂŒr gerade mal 10k bis 14k
 
Zuletzt bearbeitet:
Wenn ich dem Bild zum Artikel glauben darf stehen solche PCs rechts auf dem Schreibtisch. Echt jetzt? :rolleyes:
 
TheInvisible schrieb:
Hilft halt nix wenn CUDA der Standard ist
Problem ist wenn man drauf angewiesen ist. Ich bin es Gott sei Dank nicht. Ist man es nicht bekommt man hinsichtlich VRAM und compute halt so viel mehr fĂŒrs geld. Monopole nerven da einfach nur
 
paul.muad.dib schrieb:
Puh, dann braucht man nur noch 2-3 davon zusammenzuschalten und schon kann man eines der großen Sprachmodelle lokal betrieben.
Welche großen Sprachmodelle meinst du genau?

In meinem Screenshot in #16 ist auf 4 GPUs MiniMax-M2.5 in FP8 drauf. Das Modell belegt ca. 240-260GB + Platz fĂŒr den KV-Cache usw. Aktuell darf sich das alles 95% des VRAMs nehmen. Ansonsten kanns passieren, dass bei zu intensiver Nutzung und großen Kontexten es zu OutOfMemory kommt.
 
ZurĂŒck
Oben