• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Workstation für Programmierer 600-1000 Eur

+1 ECC RAM sollte man schon nehmen, wenn es um Programmierung geht. Sicher ist sicher.

Brauche ich nicht, bzw. ist mir den Aufpreis nicht wert. Habe auch noch nicht gehoert das man zum Programmieren dringend ECC bräuchte.

Wie schon erwähnt wurde, ohne gesonderte Anforderung an Leistung im Bereich 3D reicht für deine Anforderung die iGPU einer Intel CPU. Wenn es bei dir ruckelt kann es verschiedene Gründe haben.

Bevor ich mir wegen neuer Hardware Gedanken mache sollte ich das vielleicht erst mal klären:

Wenn ich in Chromium, Firefox oder in einm Ordner voller Bilder scrolle steigt die CPU Auslastung exorbitant in die Höhe. Meistens ist das kein Problem weil die CPU noch etwas Luft hat. Alles erscheint sauber und flüssig. Wenn ich allerdings mehrere Tabs geöffnet habe kommt es vor das manche Seiten beim Scrollen anfangen zu ruckeln. Die CPU/GPU stößt dann an ihre Grenze. Manche Seiten ruckeln mehr manche weniger und die ganz harten Fälle (zB mindfactory.de) ruckeln selbst wenn sie das einzige sind, was überhaupt geöffnet ist. Das ist die Grundsituation. Wenn dann noch die IDE und im schlimmsten Fall die VM dazu kommen, wird das Scrollen im Browser immer schlimmer (nicht auf allen Seiten. computerbase.de läuft zB absolut fluessig, egal wie viel nebenher laeuft.)

Wenn ich einen der 2 externen Monitore deaktiviere ist das Problem mit dem Ruckeln beim Scrollen weniger schlimm. Wenn ich alle externen Monitore deaktiviere und nur das kleine Laptop Display benutze, ist das Problem praktisch nicht mehr wahrnehmbar. Das ganze stinkt mir nach einer überforderten Intel HD 4000. Deshalb kam der Entschluss eine eigenständige Grafikkarte zu besorgen. Bis lang konnte ich auch keine Lösung finden die Situation zu verbessern und bin davon ausgegangen, dass die CPU/GPU einfach an ihre Grenzen stößt.

Ich googel noch mal nach Lösungen, bin aber skeptisch, weil ich schon mehrmals vergeblich nach Lösungen gesucht hatte.

Wenn das Kompilieren deines Codes wirklich auf einen Kern limitiert, beschäftige dich mal mit den Parametern von Make / Cmake, die sollten den ganzen Vorgang auf möglichst viele Threads verteilen. Zumindest unter der Voraussetzung, dass du nicht den ganzen Quelltext in ein einzelnes File wirfst. Ansonsten kannst du dir bei der von dir vorgestellten Arbeitsweise CPU Power in den Rechner werfen wie du willst. Du scheinst deinen Rechner mit arbeitsintensiven Aufgaben zuzuspamen, damit bekommt man jedes System klein.

Feuer Web wird hauptsächlich Babel/Webpack/Node.js verwendet um den Source Code zu kompilieren/transpilieren. Das kann man zwar auch parallelisieren, ist aber leider ziemlich aufwendig und für kleine Projekte den Aufwand nicht wert.


Programmierst du in java oder c?

In JavaScript und Python.
 
Zuletzt bearbeitet:
Firefox unter about:support schaut so aus, wenn man die Hardwarebeschleunigung aktiviert. Unterschied zu deiner HD4000er Familie ist nur, dass bei der GPU dann etwas von "Intel Open Sopurce Technology Center" und als Treiber MESA DRI [...]. H264 Decoding unter Firefox und Linux war zu Ubuntu 16.04 nicht brauchbar und mit 16.10 habe ich es nicht wieder probiert.
Die entsprechenden Einstellungen müssen mitunter unter about:config erzwungen werden.

Code:
Graphics
Features
Compositing	OpenGL
Asynchronous Pan/Zoom	none
WebGL Renderer	ATI Technologies Inc. -- AMD Radeon(TM) HD 8800 Series
WebGL2 Renderer	ATI Technologies Inc. -- AMD Radeon(TM) HD 8800 Series
Hardware H264 Decoding	No
Audio Backend	pulse
GPU #1
Active	Yes
Description	ATI Technologies Inc. -- AMD Radeon(TM) HD 8800 Series
Vendor ID	ATI Technologies Inc.
Device ID	AMD Radeon(TM) HD 8800 Series
Driver Version	4.5.13468 Compatibility Profile Context 16.60.3
Diagnostics
AzureCanvasAccelerated	0
AzureCanvasBackend	skia
AzureContentBackend	skia
AzureFallbackCanvasBackend	none
CairoUseXRender	0
Decision Log
HW_COMPOSITING	
blocked by default: Acceleration blocked by platform
force_enabled by user: Force-enabled by pref
OPENGL_COMPOSITING	
force_enabled by user: Force-enabled by pref


Unter Chrome finden sich entsprechende Angaben unter chrome://gpu und die entsprechenden Einstellungen unter chrome://flags

Code:
Canvas: Hardware accelerated
Flash: Hardware accelerated
Flash Stage3D: Hardware accelerated
Flash Stage3D Baseline profile: Hardware accelerated
Compositing: Hardware accelerated
Multiple Raster Threads: Enabled
Native GpuMemoryBuffers: Software only. Hardware acceleration disabled
Rasterization: Hardware accelerated
Video Decode: Hardware accelerated
Video Encode: Hardware accelerated
VPx Video Decode: Hardware accelerated
WebGL: Hardware accelerated
WebGL2: Hardware accelerated

Typischerweise ist es bei beiden Browsern ein Zeichen dafür, dass alles in Software abläuft, wenn die CPU voll ausgelastet wird. Die GPU hingegen sollte eher selten das Problem haben. Zudem hat es gerade bei Firefox mit Version 52 bei mir große Fortschritte gegeben. Sich darum zu kümmern, dass FF H264 mit der GPU decodiert lohnt nicht, FF setzt das äußerst ineffizient um und die CPU Last bleibt nahezu identisch. Chromium hingegen profitiert davon teils deutlich. Mitunter muss man nur via Plugin dafür sorgen, dass Chromium H264 Videos von Youtube bekommt anstatt VP8/9, da das von Intel erst mit neueren iGPUs unterstützt wird.

Wenn du eine VM am laufen hast und diese sich Ressourcen krallt, und gleichzeitig das Hostsystem Leistung braucht wird es immer langsam werden. Ein Oktacore Ryzen bringt da zwar ersteinmal ordentlich Reserven, wenn du die aber nutzt um gleich noch eine anspruchsvolle Anwendung laufen zu lassen wird das bei Zeiten auch wieder dünn. Behaupte ich, da ich selbst gern einen VM Zoo laufen haben auf meinem 2C/4T Haswell Notebook.


Wegen deinem Hardwarebedarf, was stellst du dir eigentlich als Notebook vor?
Wegen der Hardware: Ryzen mit 8c/16T mit 32GB Ram ist nett, würde ich mir auch selber hohlen. Aber erst wenn die Preise einem gesundem Preiskampf unterliegen und nicht jetzt schon. Je nach Bedarf eine 460er bis 480er Karte dazu und gut.
 
Danke für die hilfreiche, ausführliche Antwort! :)

Typischerweise ist es bei beiden Browsern ein Zeichen dafür, dass alles in Software abläuft, wenn die CPU voll ausgelastet wird. Die GPU hingegen sollte eher selten das Problem haben.

Das verstehe ich nicht ganz. In meinem Fall sind CPU und GPU doch eins oder verstehe ich das Falsch? Wenn sich die Grafikkarte auf der CPU befindet wie im Fall der HD 4000 wäre es doch logisch, dass die CPU Auslastung ansteigt, wenn viel Grafik gerendert wird oder nicht?

Mir ist aufgefallen, dass das Problem hauptsächlich in Chromium besteht. Beim Betrachten der CPU Usage sehe ich zwar, dass diese in Firefox bei bewegten Bildern ansteigt, aber nicht so heftig wie in Chromium. In Chromium steigt die Auslastung nach 10-20 Sekunden bewegter Bilder auf 100% per Thread und macht komplett zu.

Ich habe alle Einstellungen gemacht, wie in deinem Beispiel. Leider hat sich an dem Problem nichts geändert.
Ich habe das bei Chromium Bugs eingereicht, mal sehen was die sagen:
https://bugs.chromium.org/p/chromium/issues/detail?id=702358

Wenn du eine VM am laufen hast und diese sich Ressourcen krallt, und gleichzeitig das Hostsystem Leistung braucht wird es immer langsam werden. Ein Oktacore Ryzen bringt da zwar erst einmal ordentlich Reserven, wenn du die aber nutzt um gleich noch eine anspruchsvolle Anwendung laufen zu lassen wird das bei Zeiten auch wieder dünn.

Ja, schon klar. Meine letzte Workstation war ein Miditower mit Grafikkarte und allem drum und dran. Der war auf jeden Fall leistungsstaerker als mein jetziges Subnotebook. Da hatte ich keine Probleme mit Grafikanwendungen, bei noch so vielen externen Monitoren.

Die Sache mit Chromium scheint mir allerdings etwas faul zu sein. Trotzdem, ich beobachte auch ein Ansteigen der CPU Usage auf ca. 25% per Thread wenn ich im File-Explorer in einem Ordner mit vielen Bildern auf groesster Thumbnail Ansicht hin und her scrolle. Ich vermute das ist für eine HD 4000 in Kombination mit high DPI Monitoren normal. Im herkömmlichen Betrieb sind die 25% auch kein Problem. Wenn der Workflow mehr abverlangt aber schon. Wenn ich zum Beispiel beim Warten während des Kompilierens den Browser nicht mehr verwenden kann. Ein stärkerer Rechner mit Grafikkarte wurde das Scrollen im Browser dann auch noch hinbekommen.

Wegen deinem Hardware-bedarf, was stellst du dir eigentlich als Notebook vor?

Ein Lenovo t460p mit i7, 32GB RAM, Grafikkarte, 2 SSDs (Sata + M2) und USB3.1/Thunderbold3 wäre absolut perfekt. Nur leider gibt es den nicht mit USB3.1/TB3. Der t470p soll auch kein TB bekommen. :(
Leider schließt die geringe Verbreitung von USB3.1/TB3 einen Großteil aller Laptops für mich aus. Ich mochte keine 2-3000 Euro in ein Laptop investieren, was keinen dieser Ports besitzt. Lenovo hat/bekommt ein paar Laptop-Workstations mit USB3.1/TB3 aber diese kommen wegen ihrerer Numpads für mich alle nicht in Frage.

Da ich an meinem jetzigen Rechner so nicht arbeiten möchte bleiben mir nur folgende Möglichkeiten:

* Irgendwie die Performance meines momentanen Rechners tweaken. (Problem mit Chromium beheben. Mehr Leistung aus der HD4000 holen.) Hier bin ich wie schon gesagt skeptisch, weil die meisten Q&A in etwa so aussehen: http://askubuntu.com/questions/7881...acebook-web-page-causes-high-cpu-usage-normal

* Einen Ubergansrechner besorgen, den ich benutze bis ich ein Laptop mit USB3.1/TB3 finde.

Wegen der Hardware: Ryzen mit 8c/16T mit 32GB RAM ist nett, würde ich mir auch selber hohlen. Aber erst wenn die Preise einem gesundem Preiskampf unterliegen und nicht jetzt schon. Je nach Bedarf eine 460er bis 480er Karte dazu und gut.

Was mich gerade stört ist, dass ich mit der Zusammenstellung schon wieder bei knapp 1500 Eur angekommen bin. Ursprünglich dachte ich, dass ich einen Rechner für ca. 800 Eur bekommen könnte, mit dem meine jetzigen Probleme gelöst wären. Ich brauch den ja nur für ein bis eineinhalb Jahre. Mit 1500 koennte ich mir schon fast wider ein Lenovo t460p mit entsprechenden Komponenten kaufen...
 
Zuletzt bearbeitet:
Auch wenn sich GPU und CPU auf einem Die befinden sind sie für das Betriebssystem zwei getrennte Geräte und die CPU Auslastung hat keinerlei Aussagekraft über die Auslastung der GPU. Die GPU Auslastung lässt sich getrennt auslesen:
http://www.rkblog.rk.edu.pl/w/p/monitoring-amd-intel-and-nvidia-graphics-card-usage-under-linux/

Das die Intelgrafik Probleme macht kann ich so nicht nachvollziehen. Bei mir befeuert eine HD4400 auch 3 Schirme (1920*1080, 2560*1400, 1680*1050 wobei der letzte BIldschirm auch schon gegen FullHD getauscht wurde und das ändert nichts..). Die Auslastung ist da mit einem oder bis zu drei Videos bei ~50% laut intel_gpu_top. Die Menge der Youtube Videos hat da also keinen großen Einfluss.
Auch was das Stocken vom Browser angeht, die Hardwarebeschleunigung für die Browser ist wechselhaft. Firefox hatte gefühlt 2 Jahren eine wirklich bescheidene Unterstützung für Linux und erst seit dem letztem Updates spielt es bei mir überhaupt wieder gescheit Youtubevideos. Chrome geht da oftmals besser, und ich kenne nun wieder nicht das Problem, dass Chrome großartig stocken würde, solang die Seiten nicht mit Unmengen Javascript CPU Zyklen ohne Ende fordern. Die Erfahrungen können wohl aber unterschiedlich sein.

Bei deinem Scrollen durch Voransichten im Dateibrowser, da wäre es auch die Frage, ob da die GPU die jpegs wirklich direkt rendert oder da nicht doch die CPU die jpegs decodieren muss. Ich stecke da aber nicht drin, wie das welcher Dateibrowser unter Linux abbildet.


Zu deinem eigentlichem Problem, dass es keine gescheite Hardware gibt oder zumindest nicht zu Preisen die als gesund angesehen werden können :/. Hast du dir aber mal das Dell Precision 5520 angeschaut inkl TB16 Thunderbolt Dock (das soll unter Linux recht gut laufen)? solang du ohne einen Trackpoint leben kannst gibt es das Ding auch gleich mit Ubuntu ab Werk. Nahezu baugleich gibt es das Gerät auch als Dell XPS15 und als Developeredition auch gleich mit Linux ab Werk. Wobei Dell auch Support liefert, wenn man Geräte die nicht aus deren Linuxserrie sind mit Linux betreibt. Aber Warnung, meine Wunschkonfig liegt auch jenseits der 3000€ und dabei sind das Nettopreise -.-

Bei der Desktophardware, wie gesagt kannst du da nur warten oder deutlich zurückstecken was die Hardware angeht. Wobei mit ner gescheiten 500GB SSD, 32GB DDR4 Ram hat man 400€ sogut wie voll und hat sonst nichts.
 
Bzgl. ECC RAM: Wenn nicht fürs Programmieren, für was dann?

Ist bestimmt spaßig, einen kleinen Fehler in einem langen Code zu finden.

Oder wie läuft Programmieren heute?
 
@Mr.Jules mach mit der Frage lieber einen neuen Thread auf. Die ganze ECC-Fehlerkorrekturgeschichte ist ein eigenes sehr großes Faß.

Nur kurz soviel. menschliche Programmierer machen um (utopisch viele) Größenordnungen mehr Fehler als die typische Eintrittswahrscheinlichkeit zufällig kippender Bits..
 
Zuletzt bearbeitet:
Auch wenn sich GPU und CPU auf einem Die befinden sind sie für das Betriebssystem zwei getrennte Geräte und die CPU Auslastung hat keinerlei Aussagekraft über die Auslastung der GPU. Die GPU Auslastung lässt sich getrennt auslesen:
http://www.rkblog.rk.edu.pl/w/p/moni...e-under-linux/

Ah! Verstehe. Gut das zu wissen!
Ich habe noch mal mit "intel_gpu_top" getestet und festgestellt, dass die GPU Auslastung sehr gering ausfällt, auch beim Scrollen/Videos.

Außerdem kann ich den Chrome Bug gerade nicht mehr reproduzieren. Die CPU Auslastung geht zwar nach wie vor hoch, aber nicht mehr so arg wie vorher. Firefox und Chrome sind jetzt auf einem ähnlichen Level. Vielleicht weil ich in den Chrome flags was verändert habe oder weil der Load von irgendwelchen Tabs beeinflusst war...

... ich kenne nun wieder nicht das Problem, dass Chrome großartig stocken würde, solang die Seiten nicht mit Unmengen Javascript CPU Zyklen ohne Ende fordern.

Ich denke das wird es dann wohl sein. Viele offene Tabs mit vielen crappy JS Apps. Das würde die hohe CPU Auslastung beim Scrollen (auf manchen Seiten) noch unterstreichen. Wenn man dem ScrollEvent in JS keine Drossel verpasst, feuert es ununterbrochen (so oft es die CPU erlaubt/schafft). Eigentlich ein Anfänger Fehler, aber leider im Web allgegenwärtig. Ich vermute der Tolle Scroll Effect, den mindfactory.de sich ausgedacht hat ist davon ebenso betroffen...

Nun gut. Eine extra Grafikkarte brauche dann wohl nicht unbedingt. Gut dass das geklärt ist! :D

Eine stärkeres System, brauche ich trotzdem. Die 2 Kerne mit 4M Cache reichen mir nicht mehr...

Bei deinem Scrollen durch Voransichten im Dateibrowser, da wäre es auch die Frage, ob da die GPU die jpegs wirklich direkt rendert oder da nicht doch die CPU die jpegs decodieren muss. Ich stecke da aber nicht drin, wie das welcher Dateibrowser unter Linux abbildet.

Auch hier wird die GPU laut intel_gpu_top kaum belastet.

ast du dir aber mal das Dell Precision 5520 angeschaut inkl TB16 Thunderbolt Dock (das soll unter Linux recht gut laufen)? solang du ohne einen Trackpoint leben kannst gibt es das Ding auch gleich mit Ubuntu ab Werk.

Auf ein Trackpoint möchte ich nach Möglichkeit nicht mehr verzichten (ich mag es nicht, wenn die Hände die Homerow verlassen müssen, nur um kurz irgendwas anzuklicken...). Zudem gefallen mir die Tastaturen der Levovos seit der 30er Serie (x230, t430, etc.) bemerkenswert gut. Die Chassis mit der Möglichkeit viele Komponenten auf einfachste Weise auszutauschen gefällt mir auch sehr gut. Die Community die sich um ThinkPads gebildet hat ist super (im Deutschen, wie im Englischen). Die Leute vom Support Service waren auch super gut drauf, wenn ich vor Ort war. Die Linux Kompatibilität ist auch sehr gut. Ich bin ziemlicher ThinkPad Fan, daher werde ich mich noch etwas gedulden und zuschlagen wenn ein passendes Modell released wir. USB3.1/TB3 müsste bei den nächsten Generationen von Laptops zum Standard werden, daher sollte es nicht mehr all zu lange dauern.

Bei der Desktophardware, wie gesagt kannst du da nur warten oder deutlich zurückstecken was die Hardware angeht. Wobei mit ner gescheiten 500GB SSD, 32GB DDR4 Ram hat man 400€ sogut wie voll und hat sonst nichts.

Ich habe mir jetzt eine gebrauchte Workstation bei ebay bestellt:

http://www.ebay.de/itm/262709326419?ul_noapp=true

ohne Grafikkarte, ohne HDD, ohne Windows 10 für 370 Eur.

Ein paar Teile hab ich dann noch neu bestellt.

Am Ende sah das ganze so aus:

* Intel Xeon E5-2660v1 (8 Cores / 16 Threads bei je 2,2 GHz (3GHz Turbo) und 20M cache)
* 16 GB Ram DDR3 1333-ECC
* 600W Netzteil (90%)
* 2 x 128 GB SSD (eine für Linux und eine für die Windows vm)
* 1 x 512 GB SSD (für Data)
* ATI R7 240 Grafikkarte (just in case...)
* USB Wifi stick.

ca. 700 Eur.

Die 16 Threads werden den vielen Tabs schon Einhalt gebieten ;)
Ich versuche es erst mal mit 16GB Ram. Der Flaschenhals war definitiv die CPU.

Bzgl. ECC RAM: Wenn nicht fürs Programmieren, für was dann?

Ist bestimmt spaßig, einen kleinen Fehler in einem langen Code zu finden.

Oder wie läuft Programmieren heute?

Normalerweise liegt das Repository/Source-Code auf einem Server. Devs kannst du als Clients betrachten die sich immer wieder den Soruce-Code vom Server ziehen, ein paar Zeilen ändern und wieder zurück zum Server pushen. Bei diesem Verfahren durchwandert der Code den ein Dev produziert mehrere Instanzen (Copiling, Debugging, Unit Tests, Version Corntrol, …) bevor er im Repository auf dem Server landet und in ‚production‘ geht. Es ist sehr unwahrscheinlich, dass ein Bitfehler all diese Instanzen passiert, ohne, dass irgendwo eine Warnung/Error ausgespuckt wird. Und wenn eine Warung/Error ausgespuckt wird sollte das Problem nicht unbedingt schwer zu debuggen sein.

Bei Production und Dev-Servern hingegen halte ich ECC für sinnvoll.
 
Zuletzt bearbeitet:
Zurück
Oben