News Broadwell-EP: Spezialmodelle mit bis zu 5,1 GHz Takt bei 165 Watt TDP

Garack schrieb:
Bei arma3 ist die Client Fps nicht von den Server FPS abhängig solange der Server mehr als 5 fps liefert

Serverperformance von Arma 3 skaliert über 5FPS nicht mehr linear aber indirekt proportional, ergo sorgt ein Server mit guter Performance immer noch für deutlich bessere Client-FPS, oder andersrum kann der Client-PC noch so gut sein, aber aufgrund der Server-Performance resultiert das in keinem Plus an FPS.
 
Klingt sehr interessant vermutlich auch eben wegen der hohe Single Thread Leistung die er vermutlich mit sich bringen wird.
Aber ich glaube leider das der Preis dafür doch eben relativ hoch für Privatanwender sein wird.
 
CCIBS schrieb:
Bulldozer wurde für extrem hohe Taktraten ausgelegt, Broadwell eher nicht.

​Also die beiden CPUs in diesem Bereich vergleichen zu wollen ist schon äußerst gewagt. Als wolle man die Umdrehungzahl von einem Dieselmotor mit einem Ottomotor vergleichen.

Ich kann dir aus berufl. Erfahrung versichern, dass das Verbrennungsprinzip keinerlei Rückschluss auf die Drehzahl gibt, sondern die Drehzahl hängt von zwei Faktoren ab: Kolbengeschwindigkeit und Ventilsteuerung. Diesel sind sehr langhubig ausgelegt, deswegen die eher niedrigen Drehzahlen. Hat aber genau null mit dem Verbrennungsprinzip zu tun.

Warum sollte man nicht beide Architekturen vergleichen? Wird doch in jedem Prozessor-Review gemacht...
 
Raucherdackel! schrieb:
Ich kann dir aus berufl. Erfahrung versichern, dass das Verbrennungsprinzip keinerlei Rückschluss auf die Drehzahl gibt, sondern die Drehzahl hängt von zwei Faktoren ab: Kolbengeschwindigkeit und Ventilsteuerung. Diesel sind sehr langhubig ausgelegt, deswegen die eher niedrigen Drehzahlen. Hat aber genau null mit dem Verbrennungsprinzip zu tun.

Warum sollte man nicht beide Architekturen vergleichen? Wird doch in jedem Prozessor-Review gemacht...
Gott erbarmen!!
 
Krautmaster schrieb:
auch für 4 Kerne muss man parallelisieren. Und dennoch limitieren fast alle Programme auf wenig Threads. Mir scheint du hast keine Ahnung was für ein Aufwand es sein kann einen Algo. mal eben auf parallel umzubasteln.

/sign

Parallelisieren ist teilweise extrem aufwendig. Vor allem muss man das Switchen der Threads halbwegs kontrolliert ablaufen lassen. Es gibt tatsächlich Programme wo es den Aufwand im Endeffekt nicht lohnt, eine Parallelisierung vorzunehmen.

Aber wie bereits gesagt wurde, jede Aufgabenstellung die Parallelisiert bearbeitet werden kann hat auch die dementsprechende Software und MC-Prozessoren, die das leisten. Diese hier sind ein Spezialfall und eben nicht für hochparallelisierte Programme gedacht.
 
Zuletzt bearbeitet:
Garack schrieb:
Bei arma3 ist die Client Fps nicht von den Server FPS abhängig solange der Server mehr als 5 fps liefert

Bei Arma 2 stimmt das vielleicht, in Arma 3 sind jedoch nicht nur Berechnungen dran gebunden (d.h. es geht hier nicht nur um Desync), sondern es wirkt sich tatsächlich auch auf die Client FPS aus.

Nachzuvollziehen auf so ziemlich jedem vollen Epoch/Irgendwas Life Server ;)
Edit: ... oder auf einem vollen Server kurz vor einem Neustart - und kurz danach (wenn erst wenige Spieler drauf sind).

mfg,
Max
 
strex schrieb:
Auch der EP hat nicht zu vergessende Größe:

Im Vergleich zum Power8:
Auch die großen EX mit ähnlichen Specs zum Power8 und 165W TDP lassen sich per Luft kühlen.

Naja, was du hier vernachlässigst ist, dass es durchaus ein Unterschied macht wie räumlich verteilt die Wärme erzeugt wird. Klar ist bei so nem 22 Kern Chip einiges an Fläche da - aber wenn diesselbe Wärme nur an 4 Kernen erzeugt wird, ist es eben doch einiges problematischer diese wegzukühlen.
Ist zwar deutlich besser als die 4 Kerne so auf einem nativen 4-Kerner zu betreiben, aber trotzdem deutlich schlechter als die Wärme auf alle 22 Kerne zu verteilen.
 
Raucherdackel! schrieb:
Warum sollte man nicht beide Architekturen vergleichen? Wird doch in jedem Prozessor-Review gemacht...

Klar, ist auch sinnvoll. Aber dann muss man schon mehr bringen als einfach nur den Takt allein zu betrachten. Deshalb wird in Prozessor-Reviews ja auch die Leistung betrachtet und nicht einfach nach anliegendem Takt sortiert...
Du betrachtest bei den Motoren ja auch nicht die Drehzahl und sagst dann hey, die hatten schon voll früh mehr Drehzahl, was für eine Leistung.


@Topic Parallelisierung
Mir geht das ja entschieden auf die Nerven, dass ständig alle rumheulen, die Software sei allgemein nicht gut parallelisiert.
Tatsache: Es lohnt sich einfach nicht!
Nicht wegen des Programmieraufwandes, nicht weil die Entwickler einfach faul sind, sondern weil es sich nicht lohnt etwas zu parallelisieren, was schon schnell genug ist.
Die absolute Mehrheit der beim Endkunden verwendeten Software führt einfach so triviale Sachen aus, dass sich großartig parallelisieren auch allein von der gewonnen Leistung nicht lohnt. Ob das nun sofort fertig oder "noch soforter" fertig ist, hat einfach null Relevanz.
Und ob ihr es glauben wollt oder nicht: Da wo es sich lohnt zu parallelisieren, ist es tatsächlich in den aller meisten Fällen auch schon gemacht.

Klar nutzt sehr viel Software nur einen bis wenige Threads. Aber ich fahre doch auch nicht mit dem 9-Sitzer, wenn ich nur mit 4 Leuten unterwegs bin, nur weil es geht und wir dann weiter auseinander sitzen können.
Es wird ständig darüber gemeckert, dass Software nur so wenige Threads verwendet, ohne sich zu fragen, ob diese denn von mehr als 4 Threads nennenswert profitiert.

Ich selbst sitze in diesem Moment daran, ein sehr simples Programm für einen Xeon Phi schrittweise zu parallelisieren. Erst thread-parallel, dann mit SIMD und zuletzt über mehrere Knoten eines Super-Computers hinweg. Es bringt viel. Sehr viel. Ist aber auch aufwändig. Aber: Wenn man "kleine" Datengrößen auf einem (so ein einzelnen Phi-Kern ist nicht besonders stark) und auf mehreren Kernen betrachtet, fällt einem auf, dass selbst die schlechte Einkernvariante noch im Millisekundenbereich liegt. Die Parallelisierte Variante ist bei diesen Größen schon schneller (bei noch kleineren ist man teils langsamer). Bei der Benutzung merken würde den Unterschied aber keiner. Es sei denn man benutzt das Ganze mit größeren Daten oder mehrfach hintereinander. Wo benutzt man so große Daten mehrfach hintereinanden? Video/Bild-Verarbeitung z.B.... Alles heute schon gut parallelisiert, teils sogar mit Support für GPUs...
 
N0FX schrieb:
Wohl ein Produkt für den Hcohfrequenzhandel, wo jede Mikrosekunde über Gewinn oder noch mehr Gewinn entscheidet.

Da sitzt das Geld auch entsprechend locker...

Genau und das ist kein Nischenmarkt, wie viele hier glauben,
aber der Horizont von vielen CB-Usern geht leider nicht über "spielen" hinaus...
 
Raucherdackel! schrieb:
AMDs Architektur für Server: Bulldozer

Intels Architektur für Server: Broadwell-EP/MP

Gott erbarmen!!

​OK, ich versuche es jetzt nochmals ganz ruhig zu erklären, auch wenn das hier schon 1.000 mal behandelt wurde.

​Hier wird nicht die CPU an sich verglichen, sondern die Architekturen der CPUs.

Die Bulldozer Architektur ist auf sehr hohe Taktraten ausgelegt, das stand schon bei der Planung so fest, dass man die CPU hoch Takten kann und dafür Abstriche wo anders macht, wie die IPC. Deshalb führten auch sehr oft AMD FX CPUs die Weltrekordliste beim Übertakten an, wobei da auch nur ein Modul aktiv war (also zwei Kerne)
​Das sah man auch besonders gut beim Pentium 4, welcher ebenfalls so konzipiert wurde. Ein Celeron (347) auf Basis der Netburst (65 nm) Architektur führte Langezeit den Rekord beim Übertakten an.

​Ist also Netburst besser als Bulldozer, nur weil man ihn auf ähnliche hohe Taktraten brügeln kann, bei doppelter Fertigungsgröße.

Ein Core i7-4770K schaffte es nur auf 7,08 GHz​ bei maximal 2 aktiven Kerne. Und ich glaube bei nur einem Kern nur wesentlich mehr.

​Also kurz gesagt. Für AMD ist es weit einfacher eine CPU auf hohe Taktraten zu bekommen, bei größerer Fertigung, als für Intel.
 
Ab einem gewissen Preis würde sich wohl auch eine Superkühlung auf -40°C auszahlen, mit einer Kühlkaskade und Frostschutzmittel, damit könnte man wahrscheinlich dann schon 6 GHz erreichen. Aber wozu 2/3 der Kerne abschalten, lieber gleich einen einfachen Vierkerner nehmen, und das Geld stattdessen in die Kühlung investieren.
 
Hopsekäse schrieb:
Nicht wegen des Programmieraufwandes, nicht weil die Entwickler einfach faul sind, sondern weil es sich nicht lohnt etwas zu parallelisieren, was schon schnell genug ist.
Wenn man wirklich einen 5.1 GHz-Broadwell braucht, damit die Software ordentlich läuft, dann ist diese garantiert nicht schnell genug. Mag ja sein, dass eine 100x100-Matrizenmultiplikation optimale Performance erreicht, wenn man nur einen Kern dafür nutzt, aber der, mit derselben Software auf seinem 18C-Xeon jetzt mit 10000x10000-Matrizen arbeiten will, wird sich freuen, wenn das ganze ewig dauert, weil nur max. 6% der verfügbaren Rohleistung genutzt werden.


Für so eine CPU hier dürfen wirklich nur die Leute Bedarf haben, die möglichst schnell wirklich nicht-parallelisierbare Probleme lösen wollen. Sowas wie ArmA 3-Server zählen aber nicht dazu.

Cooler Master schrieb:
Als Software Entwickler ist mir z.B. hohe Single Core Leistung wichtig
Intereressant, bei mir sieht es nämlich meist eher so aus:
Bildschirmfoto413.png
 
Zuletzt bearbeitet:
VikingGe schrieb:
Wenn man wirklich einen 5.1 GHz-Broadwell braucht, damit die Software ordentlich läuft, dann ist diese garantiert nicht schnell genug. Mag ja sein, dass eine 100x100-Matrizenmultiplikation optimale Performance erreicht, wenn man nur einen Kern dafür nutzt, aber der, mit derselben Software auf seinem 18C-Xeon jetzt mit 10000x10000-Matrizen arbeiten will, wird sich freuen, wenn das ganze ewig dauert, weil nur max. 6% der verfügbaren Rohleistung genutzt werden.

Deshalb bezog ich mich auch ausdrücklich auf "Die absolute Mehrheit der beim Endkunden verwendeten Software" und erwähnte dann "Da wo es sich lohnt zu parallelisieren, ist es tatsächlich in den aller meisten Fällen auch schon gemacht."
Zu letzterem gehört die Multiplikation sehr großer Matrizen ja wohl eindeutig... zum ersteren eindeutig nicht.
 
Zu letzterem gehört die Multiplikation sehr großer Matrizen ja wohl eindeutig...
Es war auch nur als Beispiel gedacht, wie man das Argument "Lohnt sich nicht, ist ja schnell genug" wunderbar ad absurdum führen kann, wenn die Software nicht mit der Problemgröße skaliert.

Deswegen laufen z.B. auch Spiele wie Starcraft so scheiße, wenn mehr als 10 Einheiten gleichzeitig herumlaufen - zu P4-Zeiten mag das noch die Maximalanforderung an die Engine gewesen sein, zumal es da eh keine deutlich besseren CPUs gab, inzwischen reicht das aber nicht mehr und die Technik wird den aktuellen Anforderungen einfach nicht mehr gerecht. Und sowas findet man zumindest im Desktop-Bereich häufig, und da regen sich die Leute meiner Meinung nach ganz zurecht über die Entwickler auf.
 
VikingGe schrieb:
Es war auch nur als Beispiel gedacht, wie man das Argument "Lohnt sich nicht, ist ja schnell genug" wunderbar ad absurdum führen kann, wenn die Software nicht mit der Problemgröße skaliert.

Deswegen laufen z.B. auch Spiele wie Starcraft so scheiße, wenn mehr als 10 Einheiten gleichzeitig herumlaufen - zu P4-Zeiten mag das noch die Maximalanforderung an die Engine gewesen sein, zumal es da eh keine deutlich besseren CPUs gab, inzwischen reicht das aber nicht mehr und die Technik wird den aktuellen Anforderungen einfach nicht mehr gerecht. Und sowas findet man zumindest im Desktop-Bereich häufig, und da regen sich die Leute meiner Meinung nach ganz zurecht über die Entwickler auf.

Na klar, wenn man die Software für Problemgrößen verwendet, bei denen serielle Abarbeitung nicht mehr ausreichend schnell ist, dann greift das natürlich nicht mehr.
Und auch wenn es einige schwarze Schafe definitiv gibt, über die man sich im speziellen auch durchaus aufregen kann, finde ich diese Verallgemeinerung, die manche Leute dann betreiben, einfach unangebracht. Viele sehen halt nur ein schwarzes Schaf, das dank fehlender Parallelisierung schlecht läuft, stellen dann fest, dass ganz viele ja auch nicht parallelisiert sind, und schimpfen dann auf allgemein fehlende Parallelisierung. Dabei ist es tatsächlich noch immer nur bei dem einen Fall ein Problem, wo es eben dann doch nicht gemacht wurde, obwohl es nötig gewesen wäre.

Ich persönlich habe noch einen alten Core2Quad und kann mich nicht beklagen, dass irgendein Spiel/Programm, welches ich spiele/benutze, schlecht laufen würde, weil es nicht parallelisiert ist. Da wo ich ins CPU-Limit laufe, werden alle Kerne ausgelastet.

SirBerserk schrieb:
das broadwell ep überhaupt 5,1 ohne oc mitmacht ist schon erstaunlich...

Wenn man bedenkt, dass Haswell auf 4,4 in der höchsten Ausbaustufe ging, sich noch ein Stückchen takten ließ und man bei Broadwell ein gut 50% kleineres Fertigungsverfahren verwendet, wozu man auch noch potentiell bis zu 18 tote CPU-Kerne als Puffer dazwischen feuert, finde ich 5,1 GHz eigentlich weniger erstaunlich.
 
Zuletzt bearbeitet:
max_1234 schrieb:
Not bad .. mal sehen wo die preislich dann landen.
Aktuell benutzen wir für unsere Arma3 Server auf 5Ghz übertaktete 4790k Systeme :)

Anders ist es nicht möglich diese Arma 3 Server, die lediglich 2 Kerne nutzen und auf Single Core Performance getrimmt sind, für 60+ Spieler zu optimieren. Da unter anderem die Client FPS mit den Server FPS gekoppelt sind, ist der Takt hierbei für das Spielgefühl ausschlaggebend.

mfg,
Max
Welche Server habt Ihr da so? Zufällig EUTW-PvP? :)
 
Gerüchten mehrerer anderer Websites zufolge eine exclusive NSA-CPU...
Viel Spaß da ran zu kommen!
 
Raucherdackel! schrieb:
Ich kann dir aus berufl. Erfahrung versichern, dass das Verbrennungsprinzip keinerlei Rückschluss auf die Drehzahl gibt,

Deine Aussage ist so m. E. nach nicht richtig: Das Verbrennungsprinzip hat Einfluss auf die Höchstdrehzahl. Die Zeit vom Einlassen des Gemisches bis zum (Selbstentzünden) desselben ist als sog. Zündverzug bekannt und begrenzt die Höchstdrehzahl beim Diesel.

(Sorry fürs Off-Topic ;))
 
Zuletzt bearbeitet:
Zurück
Oben