Nach 14 Jahren neuen High-End-PC zusammenbauen - bin aber total aus der Übung und aus dem Wissen

Status
Für weitere Antworten geschlossen.
HighEnd und 13900K ? :-)

Wäre da der AM5 7950X3D nicht deutlich zukunftssicherer? Für AM5 kommt nächstes Jahr Zen5, davon ganz zu schweigen.
 
  • Gefällt mir
Reaktionen: Slayn
Marvolo schrieb:
leistungsstarken PC zu haben, der zeitgleich aber auch möglichst stromsparend ist und keine so großen Stromkosten verursacht
Das kann schon machbar sein. Bei Intel sollte man Power Targets einstellen, bei AMD den Eco-Mode aktivieren.
Beides ist im BIOS/UEFI recht einfach machbar.

Was das macht? Kein Mensch braucht 5,1GHz bei 200Watt, wenn 4,9GHz nur 150Watt verbraten und nahezu dieselbe Leistung bringen.

Glaubst du nicht?
Am Beispiel von AMD: Spring zu 19min50Sek:
(Effizienz in Standardmodus/"Stock").

Und mit Eco-Mode:
Vergleiche hier den max. Verbrauch unter "Stock", "105W", "65W" (9:18) mit der jeweils benötigten Renderzeit (16:28).
Effiziente Hardware ist möglich, sofern man nicht allzu sehr auf die Zahlen (5,XGHz!!!) geil ist.

Absolute "verbrauchen" die Top-Intel-CPU mehr Strom.
Grundsätzlich lässt sich aber auch Intel zähmen.
Derzeit sind - meines Wissens nach - AMD-Systeme jedoch effizienter.
Ergänzung ()

Schneckenpost schrieb:
Kühlfläche, Volumen und leisen Lüftern
Die beste Wärme ist doch die, die gar nicht erst entsteht. Insbesodere bei einem "möglichst-leise-System".
Also eher: effiziente Hardware kaufen und/oder UV/UC betreiben/Power Target setzen.
 
MR2 schrieb:
Wäre da der AM5 7950X3D nicht deutlich zukunftssicherer? Für AM5 kommt nächstes Jahr Zen5, davon ganz zu schweigen.
Rendern liegt im Fokus und nicht Gaming. Da ist eine X3D CPU mit mehr Cache nicht von Vorteil.
Schau einfach mal wie weit die x3d hinter den normalen sind, die höhere Takte und damit mehr Leistung liefern: Link


Marvolo schrieb:
Und das zeit-fressendste sind eh das Rendering, nicht so sehr die Bearbeitung an sich. Wenn ich viele lossless Intermediates rausrendern muss für eine Weiterbearbeitung, dann sollte das schon zügig gehen und nicht erst 3h später.
Um aber zu entscheiden was man braucht wäre zunächt mal gut zu wissen welche Software genutzt wird.
Ohne die kann man einfach nur irgendwas auf gut Glück empfehlen.


Und wenn brachiale Renderleistung gefordert ist, sollte man vielleicht sogar überlegen in Richtung Workstation/Server Hardware zu gehen. Hat früher ja auch schon gut funktioniert, wenn Leute auch mal auf den Xeon Systemen was spielen wollten.
 
  • Gefällt mir
Reaktionen: Sbibi
Sbibi schrieb:
Die beste Wärme ist doch die, die gar nicht erst entsteht. Insbesodere bei einem "möglichst-leise-System".
Also eher: effiziente Hardware kaufen und/oder UV/UC betreiben/Power Target setzen.
Da stimme ich selbstredend völlig zu.

Wenn es aber um reine Rasterizing Leistung geht, ist die 13900K aktuell State of the Art. Exakt so verhält es sich mit der noch viel stärkeren diesbezüglichen Leistung einer RTX 4090, die alles in Grund und Boden rendert. Man kann es drehen und wenden wie man will und das Fanboygeplapper lasse ich jetzt mal außen vor, Leistung ohne jedwede Kompromisse heißt aktuell Intel und Nvidia, wenn man Leistung will.

Will man mit einem Höchstmaß FPS irgendwelche Leute abknallen, ist eine X3D CPU auch in Ordnung.
 
Drewkev schrieb:
Oder du nutzt was anderes als diese Bänder? Ich mein, heute wird es andere Möglichkeiten geben die deutlich praktikabler sind und viel mehr Möglichkeiten bieten, auch bei der Qualität etc. pp.?
Natürlich filme ich in 2023 nicht mehr in SD Qualität und in 720x576 Auflösung.
Ich wollte damit eher sagen, dass ich noch viele Bestände in SD habe, die für eine Bearbeitung aber per FireWire eingelesen werden müssen.
 
  • Gefällt mir
Reaktionen: Drewkev
Schneckenpost schrieb:
wenn man Leistung will
Aber der TE möchte ja "Leistung und ein leises System". Zusätzlich hat er explizit nach einem System gefragt, das die Stromrechnung nicht in die Höhe jagt:

Marvolo schrieb:
möglichst stromsparend ist und keine so großen Stromkosten verursacht

Der Anspruch "Leistung ohne Kompromisse" steht doch also gar nicht im Raum.

Der i7 920 war damals sehr gut, aber auch nicht die beste/teuerste CPU.
Heute ist er mit einem aktuellen Pentium gleichzusetzen. Und trotzdem schreibt der TE, dass er auch noch warten könnte bzw. es nicht eilig hat.

Will sagen: Ja, der 13900k mag extrem leistungsstark sein.
Aber nach den bisherigen Infos des TE würde ich diesen hier nicht empfehlen.
Ganz zu schweigen davon, dass - laut Steve - der 13900k nicht das absolute Non-Plus-Ultra ist.

Dass die 4090 aktuell konkurrenzlos ist, da gehe ich absolut mit!
 
Marvolo schrieb:
Ich wollte damit eher sagen, dass ich noch viele Bestände in SD habe, die für eine Bearbeitung aber per FireWire eingelesen werden müssen.
Nimm eine 13900K und eine RTX 4090, sonst zieht sich die Debatte bis ins nächte Jahr.

Eine 7950X3D und 7900XTX gehen auch, sind aber nicht so leistungsfähig und mit Problemen behaftet.
https://www.computerbase.de/2023-01/amd-radeon-rx-7900-xtx-vapor-chamber-temperaturprobleme/

Wenn Du Profihardware willst, dann lass die Amateure links liegen. Ganz einfach.
 
Sandro_Suchti schrieb:
Liest du auch was du da verlinkst? Das bezog sich nur und ausschließlich auf die Referenzdesigns.
Natürlich tue ich das. Es geht um die Qualität der Konstruktion. Ich persönlich würde solche Karten nicht kaufen, weil es offenbar erhebliche Probleme in der Qualitätskontrolle gab. Und warum? Wegen des schöden Mammons. Nach dem dritten Arschtritt hat AMD offenbar reagiert. Trotzdem gibt man keine Beta Modelle in den Verkauf. Ich bin da altmodisch.
 
till69 schrieb:
Guter Punkt, danke! 5Watt im Idle bei Intel gegen ~30Watt im Idle bei AMD.
Das war mir nicht bewusst.

Trotzdem würde ich AMD bevorzugen, weil es den Anschein hat, als würde der TE mit dem PC viel arbeiten wollen.
Also vermute ich mal, dass mehr Last-, als Idle-Phasen anliegen, bzw. die Ersparnis bei den Last-Phasen die Idle-Zeiten übertrifft.

Aber das kann nur der TE wissen. Die Zahlen dazu hat er ja jetzt.
Ergänzung ()

Schneckenpost schrieb:
Trotzdem gibt man keine Beta Modelle in den Verkauf. Ich bin da altmodisch.
Also auch kein Fan von Intel mit den wegen Arc?
 
Zuletzt bearbeitet: (Wörter getauscht)
  • Gefällt mir
Reaktionen: Marvolo
Sbibi schrieb:
Also auch kein Fan von Intel mit den wegen Ark?
Man merkt, das Ferien sind. Was hat der durchwachsene Start Intels im GPU Markt mit der etablierten und marktbeherrschenden Segmentstellung zu tun. Genau. Gar nichts. Ich will auf so einem Niveau nicht debattieren. Intel beherrscht weltweit den Markt zusammen mit Samsung und im in Rede stehenden Segment ist Intel quasi Monopolist, obgleich AMD sehr gut aufgeholt hat, allerdings nicht genug, um die Preise Intels zu diktieren.

https://www.computerbase.de/2022-08/cpu-marktanteile-amd-gewinnt-gegenueber-intel-weiter-an-boden/
 
Also ich finde eine 4080 viel zu teuer für einen Gelegenheitsgamer, der aktuell noch eine 285 GTX nutzt (und damit nicht hoffnungslos unzufrieden ist). Da tut es auch eine Karte 2 Klassen niedriger. Von den gesparten über 500 € kann man sich notfalls immer noch in 5 Jahren eine 8060 GTX kaufen. Eine Intel-Karte würde ich garnicht kaufen für diesen Anwendungszweck. Bei AMD und nVidia kennt man die Treiberbereitstellung der Vergangenheit. Wielange und auf welchem Niveau das Intel durchzieht, ist derzeit nur zu schätzen.

Und wenn aktuell in i7-920 ausreicht, so tut es sogar wohl ein i5. Ein i7 wäre aber auch ok. Für 15 Jahre würde ich keinesfalls planen. Das Risiko, das zwischendurch ein Teil ausfällt, ist da viel zu groß. Lieber einen ordentlichen Preis-Leistungs-PC gebaut und im Zweifelsfall in x Jahren vom heute gesparten Geld eine neue Kiste. Denn die letzten paar % an Leistung brauchen vor allem zwei Dinge, immens viel Geld beim Kauf und immens viel Strom beim Betrieb. Letzteres ist jetzt noch nicht so wichtig, weil der Idle-Modus gut funktioniert. In 10 Jahren ist die aktuelle CPU aber Low-End und muss selbst für einfachste Aufgaben mit viel Leistung laufen ...

Das in den nächsten 15 Jahren irgendeine nützliche Entwicklung kommt, die nicht kompatibel zum jetzigen Stand ist, ist zudem wahrscheinlich.
 
  • Gefällt mir
Reaktionen: brause1701, @@@, 10X18B und 2 andere
till69 schrieb:
Denn im Alltag (Desktop, surfen, Office, Film/Video) sind die AMD leider Stromschleudern:
https://blog.notebooksbilliger.de/a...re-i9-13900k-ausgeglichen-oder-schnelles-k-o/

Ich habe harte Zweifel daran, dass der i9 mit ner 4090 im Idle nur 5,6 Watt verbraucht. Das widerspricht auch anderen Messungen, z.B.

https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/2/

(und erscheint auch im Vergleich mit älteren Setups als komplett unmöglich.)

Die haben gewiss einfach PP mit HWInfo ausgelesen, aber nicht das gesamte System an der Steckdose gemessen.

Ändert am Gesamtbild bei Teil-/Niedriglast sicherlich nicht viel, aber man sollte sich halt nicht der Illusion hingegeben, auf so einen niedrigen Wert zu kommen für das gesamte System.

Im CB-Test liegt der 7590X übrigens nur 10W über dem 13900K im Idle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sbibi
  • Gefällt mir
Reaktionen: Banned
Schneckenpost schrieb:
Man merkt, das Ferien sind.
Schneckenpost schrieb:
Ich will auf so einem Niveau nicht debattieren.

Zur Sache ist ja auch schon alles gesagt. Der TE hat Infos zur aktuell erhältlichen Hardware, hat einige Konfigurations-Vorschläge erhalten, konnte sehen, wo sich die Diskussionsteilnehmer uneinig sind und kann hoffentlich etwas aus den verlinkten Tests mitnehmen.

Mit den nach wie vor schwammigen Anforderungen kann man meiner Meinung nach nicht besser beraten.
 
till69 schrieb:
Mein System (13700K + Z690 + 32GB DDR5@6000 + 4TB SSD) braucht idle an der Steckdose 25W.
Mit ZDF HD im DVBViewer (+WinTV Dual) sind es 29W.

Was für die GPU dazu kommt, kann man hier nachlesen:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-16-gb/37.html

Das ergibt dann ja auch realistische Werte. Nur die 5,6W für das ganze System in den Diagrammen sind halt irreführend. Sie schreiben ja auch dabei, dass sie mit HWInfo gemessen haben, nur nichts von Power Package - das könnte eben bei vielen einen falschen Eindruck erwecken.
 
Schneckenpost schrieb:
Was hat den eine Crucial T700 SSD aktuell in einem PC-Build verloren? PCIe 5.0 SSDs würde ich aktuell niemanden empfehlen - bei was genau soll er davon profitieren?

Das Mainboard für 500,00€ ist auch etwas übertrieben. Das braucht doch kein Mensch.

Den Rest finde ich ehrlich gesagt ganz nett.

Ich persönlich würde um halbwegs im Rahmen zu bleiben einen

Intel i7 13700K und ein vernünftiges Z790 Board nehmen.

Das Gehäuse ist wie immer ein Streitpunkt - das Define 7 XL ist sicher rießig und nicht zu verachten.
Mit der 4090 würde ich allerdings auch zu einem Gehäuse mit Mesh tendieren.
Ich hatte selbst das Define 7 mit deutlich schwächerer Hardware und selbst da war es kaum ruhig zu bekommen. Daher im Jahr 2023 gibt es sicherlich etwas besser zu kühlendes (speziell bei Luftkühlung).

Mein Vorschlag wäre das Lian Li O11 Dynamic oder das NZXT H9 Flow.
Alternativ ein Corsair 5000D.
Sind allerdings sehr große Gehäuse - ist nicht jedermanns Sache.
 
CB-Andi schrieb:
Was hat den eine Crucial T700 SSD aktuell in einem PC-Build verloren? PCIe 5.0 SSDs würde ich aktuell niemanden empfehlen - bei was genau soll er davon profitieren?
Och, das Kärtchen ist schon ganz nett.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben