PC für "Scientific Computing"

Für Informationen über BigData und Scientific Computing kommst Du also hierher und erstellst einen Thread. Das ist erstaunlich.
 
smallwall schrieb:
Für Informationen über BigData und Scientific Computing kommst Du also hierher und erstellst einen Thread. Das ist erstaunlich.

Ich brauche keine Infos über Big Data und Computing, sondern Infos über Hardware-Empfehlungen... Daher komme ich hier her. Wie du siehst habe ich "Scientific Computing" in "" geschrieben, mir ist aber nichts besseres eingefallen. Es geht um Prozessoren nicht um Implementierungen oder Software oder sonst irgendwas. Ich glaube das ist recht klar geworden. Ich hätte auch "Suche PC für CPU- und Arbeitsspeicherintensive Anwendungen, die unter Umständen parallelisierbar sind" schreiben können, wenn du damit mehr anfangen kannst, wäre aber ein bisschen lang gewesen und ziemlich unspezifisch, könnte nämlich auch auf Bildbearbeitung hinweisen... Aber nevermind...

Danke für alle sinnvollen Hinweise bis jetzt! :) Werde mich jetzt mal mit den Optionen beschäftigen, und mir was zusammenstellen und dann nochmal eure Meinungen einholen.
 
Aktuell hast Du ja eine Lösung bei Amazon. Das bedeutet, es eilt nicht. Insofern wäre vielleicht warten auf Skylake sinnvoll. Das gäbe DDR4, wenn Speicherbandbreite bei Dir wichtig ist. Sowie mehr Bandbreite bei den PCIe-Lanes. Dies kann unter Umständen interessant sein - speicherintensive Berechnungen müssen teils ja auch auf Festplattenplatz zugreifen, insofern der RAM nicht reicht. Schneller als SATA kann dann der Ausweg sein - und PCIe-Lanes eventuell dann sinnvoll, wobei es hier mit der derzeitigen Bestückung wohl auch reichen würde. Wer weiß - vielleicht bringt Skylake aber auch 6 Kerne ... Jedenfalls würde die verbesserte Energieeffizient Dein Bestreben nach einem leisen Rechner unterstützen - wobei man das natürlich auch jetzt schon gut leise bekommt. Aber denk mal drüber nach.

Ansonsten ist die Rechenleistung von Intel höher als von AMD. Die Frage ist, wieviel Rechenleistung brauchst Du - und wieviel RAM. Reicht 1150 mit max 32GB RAM und max 4Kerne aka i7-4790K, oder sollten es nicht doch mehr Kerne und mehr RAM sein, also 2011-3?
Ergänzung ()

Die Frage ist auch, wie zuverlässig das Ergebnis sein soll. Statistisch treten pro PC pro Jahr drei 1-bit Speicherfehler auf. Es können natürlich auch deutlich mehr sein. 1-bit-Speicherfehler können folgenlos sein, den PC abstürzen lassen oder zu Fehlberechnungen führen, also falsch angezeigten Aktienkursen oder falsch berechneter Statik. Hier hilft ECC-RAM. DDR4 hat auch verbesserte Fehlerkorrekturen - wobei dies theoretisch ist. Mir liegt hierzu nichts vor bezüglich tatsächlicher praktischer Verbesserung.
 
Danke für deine Hinweise. Der RAM ist meistens das Bottleneck, sobald geswapped werden muss kann man das egl. vergessen, weil das viel zu langsam dann ist. R stürzt idr. sowieso ab sobald der RAM mal voll ist.

Das mit den Speicherfehlern ist nicht relevant für meine Zwecke. Methoden die ich benutze haben sowieso eine Zufallskomponente zum einen durch die Varianz (Rauschen) in den Daten selber und zum anderen durch Subsampling oder Methoden die bewusst auf "Zufall" setzen, z.B.: Random Forests oder Stochastic Gradient Boosting. Das führt zu wesentlich mehr Schwankung als den unwahrscheinlichen bit-Fehlern im RAM.

Muss mir vllt. doch auch mal die Roadmaps bzgl. Skylake und die Preisentwicklung bei DDR4 ansehen.
 
Zurück
Oben