@Bigfoot29
1. habe ich mich nicht auf Webgeschichten oder Sessions mit 1Mio User bezogen sondern auf den Desktop - mittlere Unternehmens Server
2. geht es darum dass ich prinzipiell erstmal keinen Nachteil durch die serielle Abarbeitung habe sofern ich das schnell genug kann.
3. bei Parallelisierung habe ich den Nachteil, dass eben dieses "Warten" auftreten kann, bei deinem Beispiel natürlich äußerst selten.
4. dass ein Kern nach heutiger Technik keine 1000 parallelen Kerne in deinem Aufgabengebiet ersetzen werden sollte klar sein. Aber Windows wirst du wohl von 4x3 ghz schneller booten als von 1000x2 Ghz CPUs. Das liegt nich nur daran dass Windows nicht toll parallelisiert ist, das mag es sogar sein. Das liegt einfach daran, dass sich solche Aufgaben nur zu einem bestimmten Maß parallelisieren lassen.
5. das du dafür 100 Mal Windows parallel schneller von den 1000x2 Ghz booten kannst ist wiederum auch klar - aber die einzelne Instanz wird nicht schneller sein.
6. dass sich sowas wie User Sessions oder Datenbankenbanken relativ gut parallelsieren lassen solte klar sein. Genau dafür mag der 12 Kern AMD auch da sein. Aber er fühlt sich eben nur im Rudel gut, wenige bei einem 1 / 2P System.
7. auch für dich gilt: auf die Anwendung kommt es an. Klar ist der 12 Kern nich für den Desktop gedacht, aber viele Server sind "desktopähnlicher" und sind eben nicht dafür da 1000 Sessions zu verwalten.
gruffi schrieb:
Mag ja sein. Nur was hat das mit Magny-Cours zu tun? Für die Märkte von denen du sprichst ist Thuban und Lisbon vorgesehen. Und die haben höhere Taktraten und höhere Performance pro Thread.
nun gut, das war wirklich etwas zu wenig off topic da ich mich auf die kleinen Firmenserver bezogen war bei denen der 12 Kern Preislich wohl attraktiv wäre aber selten die bessere Wahl.
Aber auf eine ziemlich ineffiziente Weise, wenn du mich fragst. Ich denke Bulldozer ist hier wesentlich smarter designed. Nun ja, noch etwa ein Jahr dann wissen wir vermutlich mehr.
naja nach heutiger Architektur immerhin effizienter als AMD. Zumindest bei den üblichen Aufgaben die im Office Bereich bzw zu Hause anfallen.
Wenn man das ganze aus extremer Server Sicht betrachtet mit wenigen Aufgaben dafür hoch parallelisiert dann ist der schlanke einfache kern sicher die bessere Wahl.
Deswegen können GPUs ja auch sehr weinig dafür extrem schnell und parallelisiert.
Glaube ich eher weniger. Aber gut, sollte nVidia dies tatsächlich vorhaben, werden sie gnadenlos scheitern. Dafür steckt GPGPU noch zu sehr in den Kinderschuhen. Bis es irgendwann mal soweit ist, sind die aktuellen GPU Generationen schon wieder überholt. Und so viele Server Aufgaben lassen sich auch nicht gut von GPUs lösen. Es wird immer Aufgaben geben, die eine CPU schneller und effizienter lösen kann. Nicht umsonst setzt AMD mit Fusion auf die Symbiose aus CPU und GPU.
Es ist wie immer der Einsatzort. Es gibt einfach Aufgaben bei denen Eine GPu selbt einen 24 Kern AMD System um Welten überflügeln würde und umgekehrt. Bestes Beispiel ist und bleibt 3D. Genau darauf ist die GPU ausgelegt und das kann sie am besten. Trotzdem kann sie bei dem Knacken von Passwörtern auch um Faktor X schneller sein. Prinzipiell kommt es wie immer auf die Aufgabe an. Nvidia versucht den Aufgabenbereich seiner GPU über den einer standard bis dato dagewesenen GPU zu erweitern um so zb Banken in ihren Berechnungen die optimale Rechenpower bieten zu können. Sicher gibt es bereits heute Aufgaben in Wissenschaft etc. bei denen eine Tesla einige CPU ersetzen kann.
Ich glaube, du hast die Aussage nicht wirklich verstanden. Wenn eine CPU 200 GFLOPS Durchsatz liefert, kannst du mir dann sagen, wie viele Kerne die CPU hat? Nein? Siehst du, Kerne sind nebensächlich. Ob die Performance nun mit 2 oder 32 Kernen erreicht wird, interessiert am Ende niemanden. Das interessiert maximal Entwickler, die sich softwareseitig damit auseinandersetzen müssen. Zudem gibt es auch unterschiedliche Definitionen und Konzepte für Kerne in den unterschiedlichsten Mikroarchitekturen.
Die GFLOP zahl ist doch vollkommen uninteressant für den Desktop Bereich. Selbst für Server ist sie selten von Nutzen. Mit LinX komm ich auf über 75 GFlops CPU Power.
Wenn du nach GFLOPs gehst solltest du dir die heute 1000ende GFLODs einer GPU vor Augen halten. Ich denke es erklärst sich von selbst wie sinnvoll es wäre dahingehend eine CPU zu trimmen....
Hohe GFLOPS und x86 schließen sich schon von vornherein aus. Man wird nach heutigem Stand immer einen rießigen Befehlssatz brauchen der viel Fläche und Transitoren frisst. Es werden sogar immer mehr und die Kerne damit auch immer fetter. Kein guter Trend sicher - aber die Frage ist: "Warum Kerne immer fetter?"
Die Antwort ist einfach: Parallelisierung hilft nur begrenzt weiter, nicht parallelisierbare Aufgaben versucht man durch einen Befehlsatz in Hardware zu gießen und somit die Einzelperformance für diese Aufgabe zu erhöhen. Man braucht für diesen Befehl Ausführungseinheiten, Fläche, etc... aber anderes (außer mit Takt) bekommt man diese Aufgabe nicht schneller, egal wie parallelisiert die CPU ist.
==> fette Kerne.
Und eben so naiv darf man nicht denken. Würdet ihr das immer noch behaupten, wenn ihr wüsstet, dass einer der Intel Kerne 50% mehr Transistoren hat und 50% höher getaktet ist? Wenn sich Fläche und Takt linear auf die Performance auswirken, sollten die Intel Kerne dann nicht schneller sein (12x1,5x1,5=27)? Kern != Kern. Und es gibt nun mal mehr Leistungsfaktoren als die Anzahl der Kerne. Aus Sicht des Betriebssystems sehen wir übrigens 24 vs 24 Threads bzw 24 vs 24 logische Prozessoren. Das ist also durchaus fair. Es sind vergleichbare Kapazitäten, nur anders konzipiert. AMD hat eben den Vorteil der höheren Rohleistung und nach bisherigen Informationen besseren Energieeffizienz, Intel braucht dagegen nur ein Die pro CPU Package, vor allem wegen 32 nm, und kann dadurch kostengünstiger fertigen. Auch wenn die 32 nm Fertigung noch relativ frisch und teuer im Vergleich zur ausgereiften 45 nm Fertigung sein dürfte.
ja vollkommen richtig. Wir sind immeroch beim Durchsatz und der ist im Desktop schwer zu messen. Prinzipiell gehts darum wer seine Architektur am besten aufbaut, daraus schlägt man am meisten Profit. Wenn AMD das mit geringerer Fläche / Transitorenzahl schafft dann kann man das nur begrüßen. Aber immer noch schlanker wird nicht zum Erfolg führen. Wichtig ist nur, dass mit wenig Takten soviel wie möglich Einzeloperationen durchgeführt werden können. Heißt wie schnell ein "Kern" bzw die ganze CPU eine, nicht zwei Aufgaben meistern kann. Diese eine Aufgabe zu palarllelisieren erfolgt erst im 2. Schritt, und hier kann man wieder optimieren.
AMD hat keine schlechte Architektur, du hast recht, sie ist schlanker als die von Intel, die Kerne sind kleiner, aus 45nm holt man sehr viel raus. Intel hat zwar die fetteren Kerne, schafft es dadurch aber auch bei einer einzelnen Aufgabe die schnellere CPU bei gleichem Takt zu haben - ob das effizienter ist sei mal vollkommen dahingestellt.
Nur wie will man diese eine Aufgabe beschleunigen? Einsereits durch Architekturoptimierung was aber mit fetten Kernen einhergeht, oder eben durch Takt. Paralleliesierbar ist eine einzelne Aufgabe nunmal nicht.
Heute braucht man einfach eine hohe "Einzelperfromance" die man durch Parallelisierung dann auf mehrere Aufgaben verteilen kann. Es ist wie so oft nur so, dass 20% mehr Einzelperformance wohl Minimum 50% mehr Fläche bedeutet, was amn an dem Kern Vergleich Intel / AMD sieht.
Wir leben aber nicht im Konjunktiv. Intel hat keine zwei L5640 auf einem Package und AMD noch kein 32 nm. Damit müssen beide wohl leben und wir können nur das vergleichen, was real existiert.
das ist wohl wahr. Die Frage ist aber auch ob sowas gebraucht wird oder ob man sich das lieber für später aufhebt.
Außerdem will ich wegkommen von dieser Intel / AMD Diskussion - darum geht es garnicht.
Nun ja, das ist von dir jetzt schön künstlich zusammengebastelt. Ich könnte das gleiche machen, nur mit einer anderen Verarbeitungslogik und das Gegenteil behaupten:
Time t: ----- t0 ----- t1 ----- t2 ----- t3
CPU 1 -- | Takt1 | Takt2 | Takt3 | Takt4
Kern1: -- | 5767 | 5768 | 5767 | 5768
Time t: ----- t0 ----- t1 ----- t2 ----- t3
CPU 1 -- | Takt1 | ------- | Takt2 | ------- |
Kern 1: -- | 5767 | ------- | 5768 | ------- |
Kern 2: -- | 5767 | ------- | 5768 | ------- |
Sagt also überhaupt nichts aus.
für mich sagt das aus, das ganz theroetisch beide CPUs gleich schnell wären da beide Jobs gleich schnell abgearbeitet werden. Nur kann CPU 1 nie langsamer sein als CPU2 wenn man von halbem Takt und doppelter Kernzahl ausgeht. Steht bei CPU2 jedoch ein nicht parallelisierbarer Job an siegt CPU1.
Mit diesen Behauptungen wäre ich vorsichtig. Auch Heimanwender und kleinere Server profitieren heutzutage in nicht gerade wenigen Fällen von 2 und mehr Kernen. Hinzu kommt, dass man selbst vom schnellsten Kern der Welt nicht immer profitiert, da permanente Vollast ein ziemlich synthetisches Szenario ist. Und was Bulldozer betrifft, wer sagt denn, dass er pro Kern nicht genauso schnell wie Sandy Bridge ist oder gar schneller? Bei der Performance pro Thread liegt Intel nicht so weit vorn, pro Takt etwa 10%. Dass Bulldozer dies wettmacht und noch einiges draufpackt, ist nicht unwahrscheinlich. Und wenn es dir um den gesamten Intel Kern geht, also inklusive SMT, musst du dies auch mit einem Bulldozer Modul oder 2 aktuellen Kernen vergleichen.
korrekt. Ich stimm zu dass man immer vergleichen sollte was hinten rauskommt. Sicher nutzt der Heimanwender 2 und mehr Kerne. Sofern ich einen Kern nicht weiter beschleunigen kann, ohne das es ineffizient wird, gehe ich den Weg über zwei und mehr Kerne. Das funktioniert bis zu einem gewissen Grad gut, aber stell dir den Nutzen des Heimanwenders aus 50 Kernen vor. Der spürbare Leistungszuwachs dürfte auch in Zukunft vergleichsweise klein zu zB 8 Kernen werden. Lediglich die theroretische Leistung steigt.
Prinzipiell lässt sich fast jede Aufgabe parallelisieren, aber diese Aufgabe an sich wird dadurch ja nicht schneller erledigt. Dieses schneller erledigt werden, geht über Architektur bzw Takte die dafür nötig sind oder über den Takt an sich.
Bulldozer udn Sandy Bridge packen mehr die Architektur an, was richtig ist. Rein subjektiv überzeugt mich Bulldozer von der Neuerung her mehr als Sandy Bridge. Intel hat aber schon die höhere pro kern Leistung und wird diese in erster Line versuchen ohne noch fettere Kerne zu optimieren, ähnliche Leistung bei etwas schlankeren Kernen, ohne große Neuerungen.
Bulldozer tut sich mehr, muss es auch um wieder aufzuschließen. Ich hoffe AMD kann seine Ziele gut umsetzen und hat am Ende den besseren Kern - die bessere Einzelperformance. Den die ist mir wichtig. Parallelisierung auf Kerne bietet auch Optimierungspotential, und ist nicht wegzudenken, aber prinzipiell ist am wichtigsten was 1 Kern AMD gegen 1 Kern Intel bei zb 3 Ghz leistet.
Ich freu mich auf Bulldozer - und ich hoffe dass AMD hier wirklich positiv überraschen kann, da das Konzept durchdacht und intelligent klingt.
Wer sich Minimum ein 2P System mit 24 Kernen zulegt, und dort fängt der 12-Kern Magny-Cours an, wird damit wenig Probleme haben.
Für alle anderen gibt es auch noch höher taktende 8-Kern Versionen und 1P Lisbon. 1P Magny-Cours Boards soll es zwar auch geben, aber nicht offiziell.
ja preislich sicher interessant, aber die Leistung / Kern dominiert wenn auch aufgrund fetter Kerne Intel.
Es geht auch nich darum zu sagen, dass Intel die bessere Wahl ist. Für Unternehmen / Privatanwender gilt das was ich für Preis X bekomme. Meine Aussage sollte nur darauf hinweißen, dass ich von Preis X vllt nicht 24 Kerne bestellen sollte, sondern mit 12 Kernen viellecht weit besser auskommen würde und dafür eine höhere Kern Leistung aufgrund Takt und/oder Architektur habe.
Konkret fällt mir das vorallem bei den Servern im Unternehmen auf. Man führt CAD Konvertierung auf 8x 2,2 Ghz Intel aus, statt sich einen 4x2,9-3,3 Ghz Nehalem zu leisten, beklagt sich, dass die einzelnen Konvertierungen so lange dauern - wobei eine max einen Kern belastet und dabei 12,5% CPU Leistung frisst. Klar kommt man durch Parallelisierung auch mal auf 50 oder gar 70% - aber das sind dann nur kurze parallele Jobs. Hoher Takt + weniger Kerne wäre hier von entscheidendem Vorteil. Ganz unabhängig ob AMD / Intel.