Prozessor für Inventor 2014 (und evtl. spätere)

reallife-runner

Lt. Junior Grade
Registriert
Feb. 2009
Beiträge
334
Hallo zusammen!

Wir sind als Firma auf der Suche nach den bestmöglichen Prozessoren für Inventor 2014 und evtl. folgende Versionen.
Es geht zu weit über 90% um die 3D-Konstruktion von sehr großen komplexen Baugruppen. FEM, Dynamische Simulation und Rendering stehen nicht im Vordergrund. Damit sind Single-Core-Leistung und großer, schneller Arbeitsspeicher entscheidend.

Aktuell ergeben sich meiner Meinung nach zwei geeignete Prozessoren:
1. E3-1280 v5
3,7Ghz Basistakt, 4,0GHz Turbo, Skylake-Architektur, DDR4-2133, max. 64 GB RAM @34,1GB/s
2. E5-1630 v4
3,7Ghz Basistakt, kein Turbo?, Broadwell-Architektur, DDR4-2400, max. 1,5 TB RAM @76,8GB/s

Selbst wenn man das Budget komplett nach oben offen lässt gibt es nach meinem Kenntnisstand keine bessere Alternative.

Die Rechner würden unabhängig vom Prozessor von Beginn an mit 64GB ausgestattet werden. Die Möglichkeit zur RAM-Erweiterung beim E5 wäre zwar schön, jedoch ist nicht absehbar ob das erforderlich wird. Eine der vielen Fragen ist eben auch, ob das Quadchannel-Interface was bringt.

Meine Theorie ist, dass der E3-1280 v5 aufgrund des höheren Turbotaktes in Verbindung mit mglw. besserer IPC schneller ist. Vielleicht zaubert aber der Broadwell aus seiner höheren TDP (140 vs. 80W) am Ende doch mehr Performance raus.

Hat zufällig jemand Erfahrung mit einem, oder sogar beiden (oder vergleichbaren) Prozessoren in Verbindung mit Autodesk Inventor?

Danke schon mal im Voraus!
 
IPC Unterschied Skylake zu Broadwell ist marginal imho. Dafür hat der E5 mehr Cache und Quadchannel. Das wird den Turboboost vielleicht nicht ganz wettmachen aber viel fehlen wird da nicht.
Wenn der "schnelle" Hauptspeicher wirklich wichtig ist dann könnte der E5 den E3 sogar überholen.
 
Das ist eben das Problem: "könnte". Hier hilft nur jemand mit praktischer Erfahrung. Prinzipiell werden sich eide Variante wohl nicht viel nehmen, jedoch will man in der Preiskategorie von 3000 Euro pro System auch nicht unnötig auf Performance verzichten.

@ JamaicanFlyer: Das ist ja die Eigenheit vom Inventor. Da läuft fast alles über einen Kern. Gibt auch ein Video von Autodesk, bei dem ne teure Workstation mit 8- oder 10-Kerner von nem Pentium G-irgendwas abgehängt wird.
 
Also wenn es wirlich so auf die Singlecore Performance ankommt wäre es doch auch ne Möglichkeit einen 6700k zu nehmen. Der hat nen Standardtakt von 4 GHz und nen Turbo von 4,2 und 64 GB gehen ebenfalls. Oder kommt es hier auf ECC Ram an?
 
Auf ECC-RAM würden wir eher nicht verzichten.


Edit: wenn der E5-1630 v4 einen Turbo auf 4 GHz hätte, wäre die Sache für mich klar. Da das aber auch laut Intels Produktseite nicht der Fall ist, sieht es nach ca. 7% weniger Leistung im gegebenen Anwendungsfall aus.
Für den E5 spricht ganz klar die Erweiterbarkeit des Arbeitsspeichers. Wobei 64GB eine sehr ordentliche Ausgangsbasis darstellen.
 
Zuletzt bearbeitet:
Die Frage ist halt ob der Turbo dann auch immer wirklich anliegt. Aber sonst wäre natürlich bezüglich Erweiterbarkeit der E5 die bessere Wahl.
 
Na dann ist wohl der Pentium G 3258 eine gute Wahl. Wenn Du ihn köpfst und mit guter Kühlung geht er max auf 5 Ghz. Als Board ein C 224. Laut Intels abartiger Produktdifferenzierung können Celeron,Pentium und I3 im Gegensatz zu I5 und I7 auf Boards mit Serverchipsätzen ECC.
 
Als Privatperson durchaus ne Möglichkeit. Kannst ja mal bei HP anfragen, ob sie dir das für Unternehmen mit Support zusammenbasteln. :D
 
Wenn es auf ECC angeht, wird man ein stabiles System nehmen, das schließt eine Übertaktung vollkommen aus.
 
Diese Möglichkeit besteht auch Profikunde. Für den Preis kannst Du Dir 3 Maschinen als Cold Spare hinstellen und bist immer noch deutlich schneller als HP im Ernstfall wenn die am nächsten Tag angetrottelt kommen.
 
Normalerweise sollte man jedesmal erstmal eine Ist-Analyse durchführen. Also welche Rechner habt ihr jetzt und welche Ressourcen stellen derzeit den Flaschenhals dar.

Ansonsten macht Autodesk (laut Doku) für jedes offene Projekt einen Thread auf (maximal 4 je Kern). Bei mehreren offenen Projekten lohnt allein deswegen schon eine Mindestanzahl an Kernen. Einen Dualcore würde ich daher nicht in Betracht ziehen. Die großen E5 CPUs sollten mit der erhöhten Speicherbandbreite per Quadchanel keinen nennenswerten Mehrwert bieten. Als Singlethread Anwendungen dominiert normalerweise die Laufzeit auf der CPU und die Speicherlatenzen*, da ändert Quadchanel jedoch nichts dran. Bei numerischen Simulationsmethoden und Rendering bringt Quadchanel auch nichts bis wenig, solang die CPU nicht deutlich mehr als 4Kerne/8Threads hat.


*Es lohnt nicht RAM mit irgendwelchen optimierten Latenzen zu erwerben, sofern man das bei ECC Speicher überhaupt bekommt.
 
allel schrieb:
Diese Möglichkeit besteht auch Profikunde. Für den Preis kannst Du Dir 3 Maschinen als Cold Spare hinstellen und bist immer noch deutlich schneller als HP im Ernstfall wenn die am nächsten Tag angetrottelt kommen.

Der Betrieb soll aber Störungsfrei ablaufen, dass kannst nie garantieren, wenn du die CPU außerhalb der Spezifikation betreibst. Und deswegen scheidet übertakten bei produktiven Arbeiten eigentlich immer aus. Weil die Tests und der Aufwand, wenn doch was passiert, die Einsparungen bei weitem nicht decken.
 
Wenn System erstmal stabil läuft passiert nichts weiter. Auch dieser Erstaufwand ist geringer als die saftigen Aufpreise für Server und Service.
 
Hallo,

kommt ja ne richtige Diskussion in Gange. :) Das Betreiben von CPUs außerhalb der Standard-Spezikikationen kommt nicht in Betracht.

Zur IST-Analyse. Derzeitige Systeme basieren auf X5672 (http://ark.intel.com/...) mit jeweils einer CPU pro Rechner. Dazu standardmäßig 16 GB, in Testrechnern haben wir auch 24 GB verbaut. Ganz platt die Symptome ausgedrückt: Speicher bekommen wir in vielen Fällen auch bei 24GB ans Limit. Dazu wird bei 3D-Konstruktion und Zeichnungsableitung mit an Sicherheit grenzender Wahrscheinlichkeit nur ein Kern verwendet. Dass bestätigt sich für mich bei der Arbeit mit FEM mit dem Laptop und am Hochdrehen der Lüfter. Teile der FEM können Multithreading und das hört man im Vergleich zu anderen Arbeitsschritten.
In all unseren Rechnern sind SSDs.
Was der größte Flaschenhals ist, lässt sich ja gerade nicht abschätzen. Genau deshalb ja meine Frage. Das wird auch von den jeweiligen Baugruppen abhängig sein, nur hätte ich gern aus erfahrener Quelle einen Tipp.

Wie mit sehr großen komplexen Baugruppen umzugehen ist, ist bekannt.
https://knowledge.autodesk.com/...

Ich höre die Tendenz heraus, das der Takt wahrscheinlich wichtiger sein wird als die Speicheranbindung.
 
Dann hast du die Lösung schon recht gut erledigt. CPU mit hoher Singlethreadleistung und davon dann mehrere Kerne und viel RAM. Eine SSD ist allgemein zu empfehlen, wobei es da bei CAD nicht zwingend das aller schnellste Modell sein muss.

Wobei die neueren Intel CPUs im Vergleich zu euren X5672ern für die Konstruktion wohl keine extremen Verbesserungen bringen werden. Die ganzen schönen neuen Befehlssatzerweiterungen lassen sich bei der Konstruktion nicht so richtig in Stellung bringen. Wohingegen 3D Rendering und/oder FEM meist besser skaliert.
Die Erweiterung des Arbeitsspeichers hingegen kann einige Bremsen lösen, denn der scheint bei euch knapp. Je nachdem wie extrem euer Speicherbedarf ist, könnte das dann auch der Grund für die E5 CPUs sein, schleicht weil die mehr Speicher ansteuern dürfen. Das kann aber wohl nur ein Test mit euren Projekten klären, ob 64GB langfristig ausreichen oder eher knapp sind.


Was Rendering und FEM angeht, soweit möglich würde ich da eine zentrale Maschine hinstellen, die entgegen dem Rest deutlich mehr Kerne hat und nicht so sehr auf singlethreading optimiert ist. Dann möglichst jeden Rendering-/Simulationsjob auf die zentrale Maschine auslagern. Zumindest wenn die Jobs häufig genug vorkommen, das Netzwerk mitspielt und sich das ganze finanziell begründen lässt.
 
Das mit der SSD ist nicht ganz unerheblich, auch wenn die Daten im Normalfall sowieso im Netzwerk liegen. Bei sehr RAM-intensiven Anwendungen geht es auch um die Auslagerungsdatei. Anbindung wäre aber nur über S-ATA.

Wie bereits im ersten Post beschrieben, geht es in erster Linie um die Singlecorperformance für die Konstruktion. Auf den gleichen Maschinen läuft gelegentlich auch mal ne Simulation, da würde ich aber einfach auf die Gesamtperformance der 4-Kerner setzen. Eine extra dafür optimierte Workstation/Server würde sich nicht rentieren.

Es stellt sich derzeit die Gewissensfrage, ob man sich die Möglichkeit mehr RAM zu verbauen als die 64GB offen halten sollte. Aber das kann niemande derzeit wirklich abschätzen. Wenn man wüsste ob es vielleicht seitens Intel noch ne schöne CPU zum Upgrade in den nächsten Jahren auf der E5-Plattform gibt... :D

Der Punkt ist halt: Zeitersparnis ist das eine, das andere ob bspw. eine Simulation mit ner Fehlermeldung aufgrund Speichermangels abbricht ... :D
 
Der Speicherbedarf lässt sich nur über die Ist-Analyse für euren Fall sicher schätzen. Nimm ein oder besser mehrere typische Projekte von vor 4 Jahren, nimm aktuelle Projekt und einen Rechner mit mögichst unbegrenzt Speicher. Den Zuwachs an Speicherbedarf extrapolierst du dann für die nächsten 4-6Jahre und das sollte dann die Speichermenge sein, die du mindestens für die Neuanschaffung vorsiehst.

Eben weil sowas wie Simulationen unglaublich mehr Ressourcen fressen können als die reine Konstruktion ist eine extra Maschine für Simulationen durchaus sinnvoll. Wenn bei der Analyse herauskommt, dass die Simulationen unheimlich Speicher brauchen, dann kannst du eine Maschine mit allem ausrüsten was die Aufpreisliste hergibt und die restlichen Workstations im Vergleich "günstig" halten.
 
Zurück
Oben