Leserartikel Intel Xeon E3 statt i5 und i7

Der Unterschied vom Xeon E3-1240V3 ohne iGPU und Xeon E3-1245V3 mit iGPU beträgt €12,29. Das ist für Dich ein schwaches Argument und für mich ein starkes Argument, weil ich brauche keine Treiber zu installieren und keine alte Karte zu stecken. Zudem habe ich die Option mir zuerst gar keine Grafikkarte zu kaufen und die iGPU zu probieren. Evtl. reicht die ja vollkommen aus. Wenn nicht kann man immer noch etwas dazu stecken.
 
Die iGPU braucht doch auch Treiber...

Eine GraKa habe ich mir schon ausgesucht.

Wieso ich eigentlich auf die Idee komme, CPU, iGPU und Graka nutzen zu wollen ist ganz einfach: Ich dachte, jeder der drei Teilnehmer hat so seine "Spezialgebiete". Klar, das meiste rechnet die CPU. Wenn es dann aber z.B. um solche Sachen wie Quick Sync ginge, wäre die iGPU dran. Bei dem, was die GraKa am besten kann, wäre sie dann halt dran. Also die Aufgaben zu trennen war mein Gedanke. Wenn die GraKa alles besser kann als die iGPU, dann ist es natürlich logisch, dass ich dann auf die iGPU verzichten kann.

Vielleicht weiß ich aber auch derzeit einfach zu wenig über aktuelle GraKas? Kann natürlich auch sein. Habe lange keine mehr gekauft. ;)

Die Bios-Screenshots des Boards, welches ich mir ausgesucht habe, sahen so aus, als würde man die iGPU trotz verbauter GraKa weiter aktiv lassen können. Habe dort aber trotzdem noch einmal nachgefragt. Mal sehen, was die antworten werden.

Wieso muss es eigentlich so kompliziert sein, einen Rechner zusammen zu basteln? War doch früher nicht so schwer... ;)
 
Quick Sync ist das einzige Feature, in dem Intel ein klein wenig besser ist. Zudem benötigen die meisten, die am PC arbeiten, auch keinerlei Shaderleistung. Videos dekodieren und Bildschirme ansteuern kann Intel natürlich auch. Bei Spielen und GPGPU sind AMD/Nvidia GPUs nach wie vor stark überlegen.

Basteln ist eigentlich einfacher geworden, es gibt praktisch keine Kompatibilitätsprobleme mehr und die Menge an wirklich Schrotthardware hat stark abgenommen. Auch Bios Settings sind per Default ausreichend für fast alles. Insbesondere ist es völlig egal, ob man eine iGPU hat oder wenn man eine hat, ob sie aus- oder angeschaltet ist.

@MikelMolto: Ich würde auch nie den 1240er empfehlen. Vs dem 1230er hat er 100Mhz mehr. Beim 1230er gibt's allerdings keine Variante mit GPU. Daher ist eher eine Überlegung 1230 oder 1245. Wobei ich nicht sehe, dass das die 35€ wert ist. Der Sprung auf den 1230er gibt immerhin noch +2MB Cache und HT.
 
Klar braucht die iGPU auch Ihre Treiber aber die werden automatisch installiert. Bei dezentralen GPU's muss man da schon Hand anlegen um den richtigen und aktuellen Treiber zu haben.
Die iGPU kann auch neben der Grafikkarte laufen und die unterstützen. Du kannst z.B. auch einen Monitor an die GPU und den anderen an die iGPU anschliessen und das funktioniert ohne Probleme.
Das Haupt Augenmerk beim Desktop ist halt zocken und dort wird geschaut, dass die Sachen funktionieren. Dein Anwendungsgebiet ist das Stiefkind und braucht Eigeninitative und google um herauszufinden welche Lösung für Dich am besten geignet ist. Du musst schon Glück haben um jemanden zu finden, der das selbe schon macht was Du machen willst und seine Erfahrungen auch teilt.

Du hast es ja schon richtig erkannt. Die Hauptaufgabe erledigt die CPU und somit sollte die Potent genug sein, damit man seine Freude daran hat. Ob Deine Software besser mit Cuda oder OpenCL funktioniert wirst Du googeln müssen. Cuda gibt es nur bei Nvidia und OpenCl kann selbst die iGPU hervorragend.
 
Google und auch die Internetseiten der Softwarehersteller habe ich bereits ausgiebig durchforstet. Der Hersteller des Boards hat mir bis jetzt als einziger geantwortet und mir mitgeteilt, dass man iGPU und GraKa gleichzeitig laufen lassen kann. Ist bei manch anderen Boards wohl nicht der Fall. Wie auch immer, es geht. Damit wäre das schon mal abgehakt.

Ausgerechnet Intel, Adobe und Maxon (um die es hauptsächlich geht) halten sich seltsamer Weise mit konkreten Informationen zurück. Im offiziellen Adobe-Forum kriegt meine Frage zwar viele Hits, aber niemand antwortet, obwohl die Leute (Adobe-Mitarbeiter) dort bei den anderen Fragenstellern (vorrangig den US-Landsleuten) sehr auskunftsfreudig sind. Ein Schelm, wer Böses denkt? ;)

Intel liefert außer einer sich manchmal in der eigenen Struktur verirrenden Internetseite keine Begründung, warum der Xeon bei DCC angeblich so viel besser dasteht. Und auch Adobe hält sich sehr zurück. In beiden Fällen ist es echt schwer, dort mal jemanden zu erreichen. Mir scheint es schon ein bisschen so, dass der Kunde einfach die werbewirksamen Sprüche, Grafiken und hauseigenen Benchmarks schlucken soll und dann möglichst das teuerste Zeug kaufen soll. Aber ganz so blöde sind wir ja nun mal nicht, oder? ;)

Meine Frage, ob nun der i7 oder der Xeon für DCC geeigneter ist (oder ob sich beide nichts tun), ist zwar immer noch nicht beantwortet, aber ich danke euch natürlich auf jeden Fall für eure Beiträge und für eure Hilfe. :)

Dieses schwierige Finden der Antworten meinte ich übrigens mit "Wieso muss es eigentlich so kompliziert sein, einen Rechner zusammen zu basteln?". Früher hat man sich eine oder zwei PC Professionals und noch eine C't dazu gekauft und schon wusste man halbwegs bescheid. Okay, jetzt muss ich lachen, denn das war wirklich früher... aber ihr wisst, was ich meine?
 
Zuletzt bearbeitet:
Kannst schon immer noch so machen. :) Einen nennenswerten Unterschied wirds in der Praxis so oder so nicht machen. Du möchstest vllt. enifach nur mehr rausholen aus deiner Investition. :)
 
Rückmeldung meinerseits :)

Die P Grafik von Intel wird von zum Beispiel Solidworks als professionelle Grafik erkannt und akzeptriert, es wird also die volle OpenGL Beschleunigung freigegeben, was mit Consumer Karten nur mit Klimmzügen geht. Der Performance Vorteil an dieser Stelle ist enorm im Vergleich zu einer Consumer Karte die laut Papier schneller ist von der Software aber nicht genutzt wird,


Zudem sollten die Darstellung wesentlich akkurater sein, bzw. weniger Fehler enthalten. Im Vergleich zu ner engestaubten MHD 4500 mit nem P3000 iGPU ergibt sich da bei Cinebench ein gewaltiger Unterschied. Während beim OpenGL Bildvergleich die P3000 Lösung bei guten/akzeptablen 99,3% liegt ist die alte MHD 4500 Grafik bei lausigen kanpp 90% und meine ATI Radeion 1950Pro war noch viel weiter weg. Bei den zuletzt genannten beiden Grafiklösungen waren die Darstellungen bei CAD Modellen daher mitunter auch gern mal fehlerhaft, wobei zumindest die Treiber der MHD4500 recht aktuell sind.


Wie es sich bei Adope Produkten verhält weiß ich nicht. Da einige professionelle Karten jedoch anbieten mit einer erhöhten Farbauflösung zu rechnen wäre hier durchaus interessant herauszufinden, ob das auch mit der Intel Lösung klappt.


Was die Geschwindigkeitsdifferenzen zwischen P und HD iGPU angeht, die funktionellen Einheiten sind identisch, die Chips fallen vom selben Band. Die Differenzen kommen vom Treiber und bei aktiviertem ECC maximal von der minimal ausgebremsten Anbindung des Speichers. Sonstige Differenzen sind im Treiber zu finden. Wahrscheinlich ist, dass hier einige Optimierungen die zu Lasten der Darstellungsgenauigkeit dafür aber Geschwindigkeit bringen bei den Comsumer Karten genutzt werden, sich bei der Pro Version jedoch verbieten. So oder so, zum daddeln reichen die iGPUs kaum und damit ist die Leistungsdifferenz nicht der Rede wert.
 
Cooles Ding! :)

Endlich mal jemand, der sich zur "P" Grafik des Xeons äußert. Ich habe mir auch schon denken können, dass Programme wie Solid Works davon profitieren. Ich könnte mir auch vorstellen, dass Programme wie Autocad oder Catia es auch tun. Wie es mit den Adobe-Programmen ist, weiß ich auch immer noch nicht. Habe auch schon deutlich im offiziellen Adobe-Forum nachgefragt. Dort habe ich die eher unprofessionelle Antwort

"Und willst du wirklich die ijntel-Grafik benutzen? Macht doch kein Mensch, wo 'ne durchschnittliche ATI oder NVidia-Karte 80 Euro kostet und sich mit dem intel-Mist den Arsch abwischt... Sorry, das ist eien rein theoretisch-akademische Diskussion ohen realen Wert für die Anwendungspraxis. Adobe und intel können sich ja schicke Logos und Zertifikate ausdenken, wie sie wollen, aber für's tägliche Arbeiten liegt die relevanz bei exakt Null."

bekommen.

Klingt also für mich danach, dass Adobe tatsächlich nicht viel mit der "P" Grafik und den Treibern des Xeons anfangen kann. Die anderen Schreiberlinge halten sich dort allerdings extrem zurück. Warum auch immer.

Weiterhin habe ich mir gestern mal eine sehr groß angelegte Benchmark-Reihe mit mehreren hundert Workstations angesehen. Dort ging es um CS5, CS5.5 und CS6. Auffällig war, dass die i7-Workstations mit GeForce GTX Karten den Xeon-Workstations (viele darunter mit Quadro-Karten) deutlich überlegen waren. Und ich dachte immer, dass es eher anders herum sein müsste...
 
Alle Xeon E3 basieren auf den gleichen Chips wie die Consumer Core iX Prozessoren, da kann es schon mal keine Unterschiede geben. E5 Workstations machen nur in krassen Extremfällen überhaupt Sinn.

Tendenziell denke ich aber auch, dass man als CAD Nutzer vor allem ausgenommen wird. Gerade auch weil sich in CAD Tools eher einfach und eher komplexe Dinge machen lassen, und viele doch bei den einfachen stehenbleiben, sodass es völlig egal ist, was man für eine Grafikkarte im Rechner hat. Wenn man dagegen wirklich Leistung braucht, kommt eine Intel GPU recht schnell an ihre Grenzen.

Rede dir die P-Grafikchips nicht schön. :)
 
@misu: Jain ;)

Die Intel IGP reicht für CAD Modelle mit voller OpenGL Beschleunigung für durchaus auch umfangreichere Modelle. Normalerweise handelt es sich ja um einfarbige "Texturen" die keinerlei Shader Performance brauchen. Insofern geht es "nur" um das Ausgeben von einigen Polygonen ohne großartiges Zutun der Shadereinheiten. Das bekommt entsprechend auch die Intel IGP jenseits von Full HD sehr gut hin. Klar man kann die Auflösung der Polygonen erhöhen damit Rundungen noch runder werden, jede Schraube mit voller Gewindedarstellung anzeigen (ebenso wie Lager mit Kugeln+Käfig). Wenn man solche Sachen macht reicht aber schon ein ganz simples Modell aus, um auch recht flotte Rechner sinnlos an ihre Grenzen zu führen. Lässt man etwas gesunden Menschenverstand walten ist die Grenze aber durchaus weit weg.

Ansonsten, man wird nur bedingt ausgenommen. Ein Darstellungsfehler im CAD Programm kann in der Fertigung Probleme geben die schnell mal teurer sind als ne kleine Pro Karte + Software die dank gescheit geprüfter OpenGL Treiber keine bzw. wesentlich weniger Darstellungsfehler haben!

@Gahan: Benchmarkergebnisse sind immer so ein Ding. Du weißt nie, in welcher Umgebung diese Ergebnisse entstanden sind. Schon wenn man die Treiber auf Leistung optimiert oder aber eine bestmögliche Darstellungsqualität (Unterschied Consumer zu Pro!) lassen sich da ordentliche Differenzen erzielen. Nur für den Alltag muss das nichts bedeuten.
 
Zurück
Oben