News AMD bringt 20 neue Prozessoren mit bis zu 12 Kernen

IntelFreak87 schrieb:
Weiterhin ist es ja auch sehr unfair 12 Intel Kerne mit 24 !!! AMD Kernen zu vergleichen.

Wieso? Intel kommt mit SMT auch auf 24 Kerne und der Test auf Anandtech zeigt ja, daß mal Intel und mal AMD die Nase vorn hat.


IntelFreak87 schrieb:
Je nach Intel Preispolitik könnte die P/L dann deutlich zugunsten von Intel sein.
Eher unwahrscheinlich, denn der Nehalem EX soll deutlich teurer (ca. 3145€) sein als der Opteron. Zwar ist die Leistung besser als beim Opteron, aber dazu kommt wohl auch noch eine teurere Plattform und ein höherer Stromverbrauch.

=> man kann gleich zu den neuen POWER7 Servern von IBM greifen. :evillol:

(wobei IBM in der heise Meldung interessanterweise nicht als Launchpartner des neuen Opteron gelistet wird; scheinbar setzt der blaue Riese auf eigene CPUs bzw. auf Intel)
 
@CHAOSMAYHEMSOAP

Dir ist aber bewusst, dass physikalische Kerne und SMT ein riesengroßer Unterschied ist?

Auch wenn Intel mit 2x 6 Kernen auf 24 Threads kommt sind es trotzdem noch 12 physikalische Kerne und nur das zählt in meinen Augen.

Durch SMT ist hat man nur einen kleinen Performance Gewinn.
 
Nein es sind dann 12 Virtuelle und 12 Physikalische Kerne^^ und es ergibt 24Threads.
 
So kann man aber nich rechnen.

Die P4 Prozessoren mit HT waren auch defintiv 1 Kern CPU´s.

Die 12 SMT Threads von Intel draufzurechnen und zu sagen dann wäre der AMD Vergleich okay passt hinten und vorne nicht.

Über die P/L gerne.

Wenn ein 8 Kern Opteron 266 Dollar kostet und man die gegen nen Intel 6 Kern vergleicht und sagt der Opteron hat bei einem TOP Preis die bessere oder fast die gleiche Leistung, das ist ein Argument das ich akzeptiere.

Aber von den physikalischen Kernen hat AMD defintiv ein Vorteil. SMT ist defintiv NICHT mit einem physikalischen Kern gleichzusetzen.
 
Weiterhin ist es ja auch sehr unfair 12 Intel Kerne mit 24 !!! AMD Kernen zu vergleichen.

Fair interessiert die freie Marktwirtschaft aber einen Dreck. Wichtig ist nur der € Betrag. Alles andere ist einfach uninteressant.
 
Am Fairsten ist die CPUs am Preis zu vergleichen, egal wie viel Kerne einer hat, danach sollte man den Stromverbrauch in Betracht ziehen und was da dann die Beste P/L hat gewonnen.


Ich finde es sehr Interessant das AMD einen Octacore hat mit jeweils 2,4Ghz und nur 80W TDP, würde mal interessieren wie viel Ghz man rausholen kann biss man bei 125W währe und dann diese CPU fürn Desktop, naja wer weiß was dieses Jahr noch alles kommt.
 
Krautmaster schrieb:
...
und das sagt einer der SMT sicher immer verteufelt hat. Wie war das, SMT max 10% ... sicher sit es auch nur 10% - man kann sich ausrechnen wie fix die 12 Kerne ohen SMT wären.
...
:rolleyes:
Wie kommst du dazu zu sagen ich hätte SMT verteufelt? Sorry aber geht es noch? Du kennst mich doch gar nicht.
Hier noch ein Test, mal abseits von Standard Binaries u. einseitigen Spezialbibliotheken. --Also etwas realer.


http://www.heise.de/newsticker/meldung/AMDs-12-Kerner-legen-los-966187.html
...
Im Stream (Version 5.8 OpenMP, PGI-kompiliert) erzielt das mit zwei Opteron 6174 (2,2 GHz) und DDR-1333-Speichern bestückte Magny-Cours-Test-System in der c't-Redaktion mit "echten" 24 Kernen und insgesamt acht Speicherkanälen 50 GByte/s und ist damit etwa 20 Prozent schneller als ein Xeon 5680-System (Westmere-EP, 3,33 GHz) mit seinen "logischen" 24 Kernen und sechs Speicherkanälen, der auf rund 41 GByte/s kommt.

Im SPEC CPU2006-Benchmark liegt das System nach dem Test-Szenario der c't (Windows 2008R2, icc/fort 11, 64-Bit-SSE3-Code, ohne Spezialbibliotheken) mit dem Westmere-EP auf der besagten Augenhöhe: 264 SPECint_rate_base2006 gegenüber 287 und 225 SPECfp_rate_base2006 gegenüber 223. In den von den Herstellern spezial-optimierten Benchmarkläufen unter Linux sehen die Zahlen noch etwas positiver für AMD aus: 386 gegenüber 381 bei SPECint_rate2006 und 313 gegenüber 257 bei SPECfp_rate2006 (Peak-Werte)
...
^^ Xeon 5680-System. :evillol:

Ich bin nun raus aus der Diskussion, bringt ja nichts. Vielleicht bis Morgen @new Intel System. :O
 
Zuletzt bearbeitet:
@IntelFreak87: Ich glaube wir haben uns missverstanden, den ich weiss das Virtuelle Threads keine richtigen Kerne sind und deswegen sagt ich ja das ein I7 920 zum Beispiel ein 4 Kerner ist aber eben 8Threads also pro Kern ein virtueller dazu kommt noch.
 
Krautmaster schrieb:
Kerne sind nebensächlich - aha. Wie kann sich dein Durchsatz auf die ganze CPU beziehen und dabei Kerne nebensächlich sein? Ich geb dir recht wenn du so argumentierst dass Kerne nicht mehr als solche bezeichnet werden sollten sondern eine CPU skalar und nicht in Kerne getrennt arbeiten sollte. Ein Kern der aber parallisiert arbeiten kann.
Dennoch wird Takt immer der offensichtlichste Faktor auch beim Durchsatz bleiben.

Sind ja auch nebensächlich solange der Durchsatz stimmt. Intel erreicht den Durchsatz mit weniger Kernen und hohem Takt, AMD mit mehreren Kernen und niedrigerem Takt. Da widerspricht sich nichts in seiner Aussage.
Nur kann AMD dann mehr Tasks verteilen. Bleibt abzuwarten was besser ist. wenn Bulldozer eine hohe Leistung pro Takt erreicht, dann zieht Intel whl den kürzeren wenn Intel nicht auf mehr Kerne hinausarbeitet.

@ Intel Freak87 Nunja AMD bietet ja auch kleine Sockel2/1 ServerSysteme mit dem Lisbon für kleines Geld.
 
@Schaffe89

Dem stimme ich im großen und ganzen zu.

Ein 8 Kerner mit einer P/L von 266 USD ist defintiv eine Kampfansage in Richtung Intel.
Ich finde das auch von AMD gut.

Wenn du dann in paar Wochen vlt. bei Dell nen 2 Socket Server mit 2x 8 Kernen für sagen wir mal 1400 EUR bekommst (grob geschätzt) wäre das für 16 Kerne wirklich Wahnsinn.

Dann gibt es von Intel nur 2 Möglichkeiten:

Preise für die Xeon 5600er Serie massiv runter... oder Intel schiebt noch 8 Kern Prozessoren nach für Mainstream Serversysteme.. also 1/2 Sockel.

Auf jeden Fall könnte AMD durch den niedrigen Preis damit ein großer Wurf in Sachen Mainstream Server gelingen. Interessant wird wirklich sein wie Intel darauf mit seinen Preisen reagiert.

Fazit: Für Unternehmen die Server kaufen wollen ist es auf jeden Fall gut.
 
Beim Auto nennt man das Drehmoment und der trägt zu einer besseren Effizienz bei. BMW hat das sehr gut erkannt und macht die 250PS Kisten mit nem 140PS Diesel kalt und spart dabei noch Kraftstoff...

Das geilste in diesem Thread, so ein Scheiss...

@ Bluntman: Red du lieber über IT, bei Autos haste ja noch weniger Ahnung :lol:




IntelFreak87 schrieb:
@

Fazit: Für Unternehmen die Server kaufen wollen ist es auf jeden Fall gut.

:lol:

Das ist dein Fazit? :evillol: Für wen denkste sind die 12Kerner denn sonst gedacht? :freak:

Und jetzt :n8:
 
Zuletzt bearbeitet:
Warum machste dich darüber lächerlich @ poolk?

Xeon 5600 Serie ist aktuell sehr teuer genauso wie die 5500er... durch die niedrigen Preise von AMD könnte da demnächst ein größerer Preiskampf entstehen.

Aus diesem Grunde mein Fazit.

Unterlass es bitte in Zukunft mich als blöd hinzustellen, verstanden?
 
Tja Krautmaster, leider ist deine Berechnung eine Milchmädchenrechnung. Du gehst von einer serialsierten Verarbeitung aus. Die gibt es aber nicht in dem Umfang im KMU-Bereich. Da gehts um Userrequets Und die sind nicht "nacheinander abzuarbeiten" da mehrere User parallel arbeiten. (sondern können parallel laufen)
Die Wahrscheinlichkeit, dass User2 auf Arbeit von User1 wartet, die der Prozessor just in dieser Sekunde abarbeitet, geht gegen Null. Man sollte den Workstation-Markt (da kommt ein Arbeitsumfeld eher vor, dass nicht stark parallelisierbar ist) nicht mit dem Servermarkt vergleichen. Diese Diskussion gibts eigentlich bei jeder neuen Prozessor-Generation und jedes Mal stellt sich heraus "sorry, aber eine SingleCore CPU mit der selben Taktfrequenz wie die Zusammenrechnung der Einzelkerne kann eben NICHT genauso viel leisten". Natürlich hat sie bei Singlethreaded-Anwendungen die Nase vorn, da die Kernzahl nicht ausgelastet wird. Aber spätestens, wenn Threadzahl > Kernzahl des Multicores gilt, kannst du sicher sein, dass dir der Multicore davon zieht. Dafür sorgt schon der Overhead beim Thread-Switching. Interessant wäre nur, bei welchem OS der Multicore-Mehraufwand wie skaliert. *grübel*

Es gibt Prozessoren, die mit 100MHz das gleiche an Durchsatz haben, wie andere mit ein paar GHz. Willst du wirklich noch sagen, der Durchsatz wäre hauptsächlich vom Takt abhängig? Es ist die leichteste Möglichkeit, den Durchsatz zu erhöhen. Das ist korrekt. Aber Takt ist NIEMALS eine zuverlässiger Indikator für den Durchsatz. Das klassische Beispiel mit P4 vs Core1/Core2 dürfte ja auch dir noch in Erinnerung sein. Ein höherer Takt spricht nur innerhalb der eigenen Modellreihe (nichtmal der Prozessorfamilie) direkt für ein mehr an Durchsatz. Wobei nichtmal das gilt, wenn dadurch z.B. andere Komponenten (wie z.B. Cache zu PentiumII-Zeiten) nicht mehr synchron laufen und sich damit Verzögerungen ergeben.

Regards, Bigfoot29
 
CHAOSMAYHEMSOAP schrieb:
Hm, dann wären doch IBMs neue POWER7 Kisten die beste Wahl.
Nun ja, der Preis spielt natürlich auch eine Rolle. Ich hatte mich eigentlich auf die technischen Aspekte beschränkt. ;)

Krautmaster schrieb:
die aussage bezog sich auf den Desktopbenutzer oder kleinere Firmenserver.
Mag ja sein. Nur was hat das mit Magny-Cours zu tun? Für die Märkte von denen du sprichst ist Thuban und Lisbon vorgesehen. Und die haben höhere Taktraten und höhere Performance pro Thread.

Krautmaster schrieb:
Mit fetten Kernen versucht Intel den Durchsatz zu erhöhen
Aber auf eine ziemlich ineffiziente Weise, wenn du mich fragst. Ich denke Bulldozer ist hier wesentlich smarter designed. Nun ja, noch etwa ein Jahr dann wissen wir vermutlich mehr.

Krautmaster schrieb:
Wenn du eine CPU mit immer schlankeren Kernen willst die immer parallelisierter arbeiten hast du irgendwann eine heutige GPU. Und genau diese Server Aufgaben die bisher von 1000 CPUs gelöst werden fokusiert Nvidia mit dem G100 und Tesla an.
Glaube ich eher weniger. Aber gut, sollte nVidia dies tatsächlich vorhaben, werden sie gnadenlos scheitern. Dafür steckt GPGPU noch zu sehr in den Kinderschuhen. Bis es irgendwann mal soweit ist, sind die aktuellen GPU Generationen schon wieder überholt. Und so viele Server Aufgaben lassen sich auch nicht gut von GPUs lösen. Es wird immer Aufgaben geben, die eine CPU schneller und effizienter lösen kann. Nicht umsonst setzt AMD mit Fusion auf die Symbiose aus CPU und GPU.

Krautmaster schrieb:
Kerne sind nebensächlich - aha. Wie kann sich dein Durchsatz auf die ganze CPU beziehen und dabei Kerne nebensächlich sein?
Ich glaube, du hast die Aussage nicht wirklich verstanden. Wenn eine CPU 200 GFLOPS Durchsatz liefert, kannst du mir dann sagen, wie viele Kerne die CPU hat? Nein? Siehst du, Kerne sind nebensächlich. Ob die Performance nun mit 2 oder 32 Kernen erreicht wird, interessiert am Ende niemanden. Das interessiert maximal Entwickler, die sich softwareseitig damit auseinandersetzen müssen. Zudem gibt es auch unterschiedliche Definitionen und Konzepte für Kerne in den unterschiedlichsten Mikroarchitekturen.

Krautmaster schrieb:
Ehrlich gesagt würde mich wundern wenn 24 gegen 12 Kerne nicht irgendwie potenter darstehen würden.
IntelFreak87 schrieb:
Weiterhin ist es ja auch sehr unfair 12 Intel Kerne mit 24 !!! AMD Kernen zu vergleichen.
Und eben so naiv darf man nicht denken. Würdet ihr das immer noch behaupten, wenn ihr wüsstet, dass einer der Intel Kerne 50% mehr Transistoren hat und 50% höher getaktet ist? Wenn sich Fläche und Takt linear auf die Performance auswirken, sollten die Intel Kerne dann nicht schneller sein (12x1,5x1,5=27)? Kern != Kern. Und es gibt nun mal mehr Leistungsfaktoren als die Anzahl der Kerne. Aus Sicht des Betriebssystems sehen wir übrigens 24 vs 24 Threads bzw 24 vs 24 logische Prozessoren. Das ist also durchaus fair. Es sind vergleichbare Kapazitäten, nur anders konzipiert. AMD hat eben den Vorteil der höheren Rohleistung und nach bisherigen Informationen besseren Energieeffizienz, Intel braucht dagegen nur ein Die pro CPU Package, vor allem wegen 32 nm, und kann dadurch kostengünstiger fertigen. Auch wenn die 32 nm Fertigung noch relativ frisch und teuer im Vergleich zur ausgereiften 45 nm Fertigung sein dürfte.

Krautmaster schrieb:
Ich kenn mich mit den einzelnen Benchmarks nicht aus.
Ich halte mir nur vor Augen, das der MagnyCour nichts anderes ist als zwei L5640 auf einem Package. Intel hätte hier mit 32nm die Nase vorn.
Wir leben aber nicht im Konjunktiv. Intel hat keine zwei L5640 auf einem Package und AMD noch kein 32 nm. Damit müssen beide wohl leben und wir können nur das vergleichen, was real existiert. ;)

Krautmaster schrieb:
Bei zwei Prozessen bleibt nur der Vergleich 1 Kern vs 2 Kern: Angenommen man braucht 2 Takte pro Job

Time t: ----- t0 ----- t1 ----- t2 ----- t3

CPU 1 -- | Takt1 | Takt2 | Takt3 | Takt4
Kern1: -- | 5767 | 5767 | 5768 | 5768

Time t: ----- t0 ----- t1 ----- t2 ----- t3

CPU 1 -- | Takt1 | ------- | Takt2 | ------- |
Kern 1: -- | 5767 | ------- | 5767 | ------- |
Kern 2: -- | 5768 | ------- | 5768 | ------- |

Was erkennt man:
CPU 1 hat Job 5767 bereits nach t1 abgearbeitet. Ergebnis von Job 5768 steht nach t3 zur Verfügung.
CPU 2 hat sowohl 5767 als auch 5768 erst nach t3 fertigberechnet.
Nun ja, das ist von dir jetzt schön künstlich zusammengebastelt. Ich könnte das gleiche machen, nur mit einer anderen Verarbeitungslogik und das Gegenteil behaupten:

Time t: ----- t0 ----- t1 ----- t2 ----- t3

CPU 1 -- | Takt1 | Takt2 | Takt3 | Takt4
Kern1: -- | 5767 | 5768 | 5767 | 5768

Time t: ----- t0 ----- t1 ----- t2 ----- t3

CPU 1 -- | Takt1 | ------- | Takt2 | ------- |
Kern 1: -- | 5767 | ------- | 5768 | ------- |
Kern 2: -- | 5767 | ------- | 5768 | ------- |

Sagt also überhaupt nichts aus.

Krautmaster schrieb:
Desweiteren kann bei CPU 1 5768 das Ergebnis von 5767 vorraussetzen
Das gleiche hier.

Krautmaster schrieb:
Dennoch werden die fetten Kerne für den Homie oder den kleinen Unternehmensserver noch lange mehr Leistung bringen als diese schlanken Kerne.
Mit diesen Behauptungen wäre ich vorsichtig. Auch Heimanwender und kleinere Server profitieren heutzutage in nicht gerade wenigen Fällen von 2 und mehr Kernen. Hinzu kommt, dass man selbst vom schnellsten Kern der Welt nicht immer profitiert, da permanente Vollast ein ziemlich synthetisches Szenario ist. Und was Bulldozer betrifft, wer sagt denn, dass er pro Kern nicht genauso schnell wie Sandy Bridge ist oder gar schneller? Bei der Performance pro Thread liegt Intel nicht so weit vorn, pro Takt etwa 10%. Dass Bulldozer dies wettmacht und noch einiges draufpackt, ist nicht unwahrscheinlich. Und wenn es dir um den gesamten Intel Kern geht, also inklusive SMT, musst du dies auch mit einem Bulldozer Modul oder 2 aktuellen Kernen vergleichen.

Krautmaster schrieb:
jop, sagt mir dass ich Minimum 60% alle 12 Kerne total auslasten muss um auf die Intel Leistung zu kommen. DIe frage ist ob ichs leichter schaffe 6 oder 12 Kerne auszulasten
Wer sich Minimum ein 2P System mit 24 Kernen zulegt, und dort fängt der 12-Kern Magny-Cours an, wird damit wenig Probleme haben. ;) Für alle anderen gibt es auch noch höher taktende 8-Kern Versionen und 1P Lisbon. 1P Magny-Cours Boards soll es zwar auch geben, aber nicht offiziell.
 
@Bigfoot29

1. habe ich mich nicht auf Webgeschichten oder Sessions mit 1Mio User bezogen sondern auf den Desktop - mittlere Unternehmens Server
2. geht es darum dass ich prinzipiell erstmal keinen Nachteil durch die serielle Abarbeitung habe sofern ich das schnell genug kann.
3. bei Parallelisierung habe ich den Nachteil, dass eben dieses "Warten" auftreten kann, bei deinem Beispiel natürlich äußerst selten.
4. dass ein Kern nach heutiger Technik keine 1000 parallelen Kerne in deinem Aufgabengebiet ersetzen werden sollte klar sein. Aber Windows wirst du wohl von 4x3 ghz schneller booten als von 1000x2 Ghz CPUs. Das liegt nich nur daran dass Windows nicht toll parallelisiert ist, das mag es sogar sein. Das liegt einfach daran, dass sich solche Aufgaben nur zu einem bestimmten Maß parallelisieren lassen.
5. das du dafür 100 Mal Windows parallel schneller von den 1000x2 Ghz booten kannst ist wiederum auch klar - aber die einzelne Instanz wird nicht schneller sein.
6. dass sich sowas wie User Sessions oder Datenbankenbanken relativ gut parallelsieren lassen solte klar sein. Genau dafür mag der 12 Kern AMD auch da sein. Aber er fühlt sich eben nur im Rudel gut, wenige bei einem 1 / 2P System.
7. auch für dich gilt: auf die Anwendung kommt es an. Klar ist der 12 Kern nich für den Desktop gedacht, aber viele Server sind "desktopähnlicher" und sind eben nicht dafür da 1000 Sessions zu verwalten.

gruffi schrieb:
Mag ja sein. Nur was hat das mit Magny-Cours zu tun? Für die Märkte von denen du sprichst ist Thuban und Lisbon vorgesehen. Und die haben höhere Taktraten und höhere Performance pro Thread.

nun gut, das war wirklich etwas zu wenig off topic da ich mich auf die kleinen Firmenserver bezogen war bei denen der 12 Kern Preislich wohl attraktiv wäre aber selten die bessere Wahl.

Aber auf eine ziemlich ineffiziente Weise, wenn du mich fragst. Ich denke Bulldozer ist hier wesentlich smarter designed. Nun ja, noch etwa ein Jahr dann wissen wir vermutlich mehr.

naja nach heutiger Architektur immerhin effizienter als AMD. Zumindest bei den üblichen Aufgaben die im Office Bereich bzw zu Hause anfallen.
Wenn man das ganze aus extremer Server Sicht betrachtet mit wenigen Aufgaben dafür hoch parallelisiert dann ist der schlanke einfache kern sicher die bessere Wahl.
Deswegen können GPUs ja auch sehr weinig dafür extrem schnell und parallelisiert.

Glaube ich eher weniger. Aber gut, sollte nVidia dies tatsächlich vorhaben, werden sie gnadenlos scheitern. Dafür steckt GPGPU noch zu sehr in den Kinderschuhen. Bis es irgendwann mal soweit ist, sind die aktuellen GPU Generationen schon wieder überholt. Und so viele Server Aufgaben lassen sich auch nicht gut von GPUs lösen. Es wird immer Aufgaben geben, die eine CPU schneller und effizienter lösen kann. Nicht umsonst setzt AMD mit Fusion auf die Symbiose aus CPU und GPU.

Es ist wie immer der Einsatzort. Es gibt einfach Aufgaben bei denen Eine GPu selbt einen 24 Kern AMD System um Welten überflügeln würde und umgekehrt. Bestes Beispiel ist und bleibt 3D. Genau darauf ist die GPU ausgelegt und das kann sie am besten. Trotzdem kann sie bei dem Knacken von Passwörtern auch um Faktor X schneller sein. Prinzipiell kommt es wie immer auf die Aufgabe an. Nvidia versucht den Aufgabenbereich seiner GPU über den einer standard bis dato dagewesenen GPU zu erweitern um so zb Banken in ihren Berechnungen die optimale Rechenpower bieten zu können. Sicher gibt es bereits heute Aufgaben in Wissenschaft etc. bei denen eine Tesla einige CPU ersetzen kann.

Ich glaube, du hast die Aussage nicht wirklich verstanden. Wenn eine CPU 200 GFLOPS Durchsatz liefert, kannst du mir dann sagen, wie viele Kerne die CPU hat? Nein? Siehst du, Kerne sind nebensächlich. Ob die Performance nun mit 2 oder 32 Kernen erreicht wird, interessiert am Ende niemanden. Das interessiert maximal Entwickler, die sich softwareseitig damit auseinandersetzen müssen. Zudem gibt es auch unterschiedliche Definitionen und Konzepte für Kerne in den unterschiedlichsten Mikroarchitekturen.

Die GFLOP zahl ist doch vollkommen uninteressant für den Desktop Bereich. Selbst für Server ist sie selten von Nutzen. Mit LinX komm ich auf über 75 GFlops CPU Power.
Wenn du nach GFLOPs gehst solltest du dir die heute 1000ende GFLODs einer GPU vor Augen halten. Ich denke es erklärst sich von selbst wie sinnvoll es wäre dahingehend eine CPU zu trimmen....
Hohe GFLOPS und x86 schließen sich schon von vornherein aus. Man wird nach heutigem Stand immer einen rießigen Befehlssatz brauchen der viel Fläche und Transitoren frisst. Es werden sogar immer mehr und die Kerne damit auch immer fetter. Kein guter Trend sicher - aber die Frage ist: "Warum Kerne immer fetter?"

Die Antwort ist einfach: Parallelisierung hilft nur begrenzt weiter, nicht parallelisierbare Aufgaben versucht man durch einen Befehlsatz in Hardware zu gießen und somit die Einzelperformance für diese Aufgabe zu erhöhen. Man braucht für diesen Befehl Ausführungseinheiten, Fläche, etc... aber anderes (außer mit Takt) bekommt man diese Aufgabe nicht schneller, egal wie parallelisiert die CPU ist.
==> fette Kerne.


Und eben so naiv darf man nicht denken. Würdet ihr das immer noch behaupten, wenn ihr wüsstet, dass einer der Intel Kerne 50% mehr Transistoren hat und 50% höher getaktet ist? Wenn sich Fläche und Takt linear auf die Performance auswirken, sollten die Intel Kerne dann nicht schneller sein (12x1,5x1,5=27)? Kern != Kern. Und es gibt nun mal mehr Leistungsfaktoren als die Anzahl der Kerne. Aus Sicht des Betriebssystems sehen wir übrigens 24 vs 24 Threads bzw 24 vs 24 logische Prozessoren. Das ist also durchaus fair. Es sind vergleichbare Kapazitäten, nur anders konzipiert. AMD hat eben den Vorteil der höheren Rohleistung und nach bisherigen Informationen besseren Energieeffizienz, Intel braucht dagegen nur ein Die pro CPU Package, vor allem wegen 32 nm, und kann dadurch kostengünstiger fertigen. Auch wenn die 32 nm Fertigung noch relativ frisch und teuer im Vergleich zur ausgereiften 45 nm Fertigung sein dürfte.

ja vollkommen richtig. Wir sind immeroch beim Durchsatz und der ist im Desktop schwer zu messen. Prinzipiell gehts darum wer seine Architektur am besten aufbaut, daraus schlägt man am meisten Profit. Wenn AMD das mit geringerer Fläche / Transitorenzahl schafft dann kann man das nur begrüßen. Aber immer noch schlanker wird nicht zum Erfolg führen. Wichtig ist nur, dass mit wenig Takten soviel wie möglich Einzeloperationen durchgeführt werden können. Heißt wie schnell ein "Kern" bzw die ganze CPU eine, nicht zwei Aufgaben meistern kann. Diese eine Aufgabe zu palarllelisieren erfolgt erst im 2. Schritt, und hier kann man wieder optimieren.

AMD hat keine schlechte Architektur, du hast recht, sie ist schlanker als die von Intel, die Kerne sind kleiner, aus 45nm holt man sehr viel raus. Intel hat zwar die fetteren Kerne, schafft es dadurch aber auch bei einer einzelnen Aufgabe die schnellere CPU bei gleichem Takt zu haben - ob das effizienter ist sei mal vollkommen dahingestellt.
Nur wie will man diese eine Aufgabe beschleunigen? Einsereits durch Architekturoptimierung was aber mit fetten Kernen einhergeht, oder eben durch Takt. Paralleliesierbar ist eine einzelne Aufgabe nunmal nicht.

Heute braucht man einfach eine hohe "Einzelperfromance" die man durch Parallelisierung dann auf mehrere Aufgaben verteilen kann. Es ist wie so oft nur so, dass 20% mehr Einzelperformance wohl Minimum 50% mehr Fläche bedeutet, was amn an dem Kern Vergleich Intel / AMD sieht.

Wir leben aber nicht im Konjunktiv. Intel hat keine zwei L5640 auf einem Package und AMD noch kein 32 nm. Damit müssen beide wohl leben und wir können nur das vergleichen, was real existiert. ;)

das ist wohl wahr. Die Frage ist aber auch ob sowas gebraucht wird oder ob man sich das lieber für später aufhebt.
Außerdem will ich wegkommen von dieser Intel / AMD Diskussion - darum geht es garnicht.


Nun ja, das ist von dir jetzt schön künstlich zusammengebastelt. Ich könnte das gleiche machen, nur mit einer anderen Verarbeitungslogik und das Gegenteil behaupten:

Time t: ----- t0 ----- t1 ----- t2 ----- t3

CPU 1 -- | Takt1 | Takt2 | Takt3 | Takt4
Kern1: -- | 5767 | 5768 | 5767 | 5768

Time t: ----- t0 ----- t1 ----- t2 ----- t3

CPU 1 -- | Takt1 | ------- | Takt2 | ------- |
Kern 1: -- | 5767 | ------- | 5768 | ------- |
Kern 2: -- | 5767 | ------- | 5768 | ------- |

Sagt also überhaupt nichts aus.

für mich sagt das aus, das ganz theroetisch beide CPUs gleich schnell wären da beide Jobs gleich schnell abgearbeitet werden. Nur kann CPU 1 nie langsamer sein als CPU2 wenn man von halbem Takt und doppelter Kernzahl ausgeht. Steht bei CPU2 jedoch ein nicht parallelisierbarer Job an siegt CPU1.

Mit diesen Behauptungen wäre ich vorsichtig. Auch Heimanwender und kleinere Server profitieren heutzutage in nicht gerade wenigen Fällen von 2 und mehr Kernen. Hinzu kommt, dass man selbst vom schnellsten Kern der Welt nicht immer profitiert, da permanente Vollast ein ziemlich synthetisches Szenario ist. Und was Bulldozer betrifft, wer sagt denn, dass er pro Kern nicht genauso schnell wie Sandy Bridge ist oder gar schneller? Bei der Performance pro Thread liegt Intel nicht so weit vorn, pro Takt etwa 10%. Dass Bulldozer dies wettmacht und noch einiges draufpackt, ist nicht unwahrscheinlich. Und wenn es dir um den gesamten Intel Kern geht, also inklusive SMT, musst du dies auch mit einem Bulldozer Modul oder 2 aktuellen Kernen vergleichen.

korrekt. Ich stimm zu dass man immer vergleichen sollte was hinten rauskommt. Sicher nutzt der Heimanwender 2 und mehr Kerne. Sofern ich einen Kern nicht weiter beschleunigen kann, ohne das es ineffizient wird, gehe ich den Weg über zwei und mehr Kerne. Das funktioniert bis zu einem gewissen Grad gut, aber stell dir den Nutzen des Heimanwenders aus 50 Kernen vor. Der spürbare Leistungszuwachs dürfte auch in Zukunft vergleichsweise klein zu zB 8 Kernen werden. Lediglich die theroretische Leistung steigt.

Prinzipiell lässt sich fast jede Aufgabe parallelisieren, aber diese Aufgabe an sich wird dadurch ja nicht schneller erledigt. Dieses schneller erledigt werden, geht über Architektur bzw Takte die dafür nötig sind oder über den Takt an sich.

Bulldozer udn Sandy Bridge packen mehr die Architektur an, was richtig ist. Rein subjektiv überzeugt mich Bulldozer von der Neuerung her mehr als Sandy Bridge. Intel hat aber schon die höhere pro kern Leistung und wird diese in erster Line versuchen ohne noch fettere Kerne zu optimieren, ähnliche Leistung bei etwas schlankeren Kernen, ohne große Neuerungen.
Bulldozer tut sich mehr, muss es auch um wieder aufzuschließen. Ich hoffe AMD kann seine Ziele gut umsetzen und hat am Ende den besseren Kern - die bessere Einzelperformance. Den die ist mir wichtig. Parallelisierung auf Kerne bietet auch Optimierungspotential, und ist nicht wegzudenken, aber prinzipiell ist am wichtigsten was 1 Kern AMD gegen 1 Kern Intel bei zb 3 Ghz leistet.
Ich freu mich auf Bulldozer - und ich hoffe dass AMD hier wirklich positiv überraschen kann, da das Konzept durchdacht und intelligent klingt.

Wer sich Minimum ein 2P System mit 24 Kernen zulegt, und dort fängt der 12-Kern Magny-Cours an, wird damit wenig Probleme haben. ;) Für alle anderen gibt es auch noch höher taktende 8-Kern Versionen und 1P Lisbon. 1P Magny-Cours Boards soll es zwar auch geben, aber nicht offiziell.

ja preislich sicher interessant, aber die Leistung / Kern dominiert wenn auch aufgrund fetter Kerne Intel.
Es geht auch nich darum zu sagen, dass Intel die bessere Wahl ist. Für Unternehmen / Privatanwender gilt das was ich für Preis X bekomme. Meine Aussage sollte nur darauf hinweißen, dass ich von Preis X vllt nicht 24 Kerne bestellen sollte, sondern mit 12 Kernen viellecht weit besser auskommen würde und dafür eine höhere Kern Leistung aufgrund Takt und/oder Architektur habe.

Konkret fällt mir das vorallem bei den Servern im Unternehmen auf. Man führt CAD Konvertierung auf 8x 2,2 Ghz Intel aus, statt sich einen 4x2,9-3,3 Ghz Nehalem zu leisten, beklagt sich, dass die einzelnen Konvertierungen so lange dauern - wobei eine max einen Kern belastet und dabei 12,5% CPU Leistung frisst. Klar kommt man durch Parallelisierung auch mal auf 50 oder gar 70% - aber das sind dann nur kurze parallele Jobs. Hoher Takt + weniger Kerne wäre hier von entscheidendem Vorteil. Ganz unabhängig ob AMD / Intel.
 
Zuletzt bearbeitet:
Ihr diskutiert noch ernsthaft darüber ob reale 12-Kerner von AMD schneller sind als 6-Kerner von Intel mit SMT und 30% mehr Takt? Also ich bin mir ziemlich sicher dass die Multisockel-Server-CPUs an AMD gehen, Intel hat ja die neuen Xeon MPs auf Nehalem- geschweige denn Westmere-Basis noch gar nicht am Markt, da müsste man momentan die Opteron-6100-Serie mit den Six-Core-Dunnington (Core 2 Architektur) vergleichen. Die haben nicht mal SMT und kommen auch nicht über 2,67 GHz hinaus. Mal kurz überlegen... Die Intel-Plattform hat keine Chance?! Und auch bei 2-Sockel-Servern seh ich einen leichten Vorsprung bei AMD, denn 16 reale Kerne dürften viel besser skalieren als 12 reale Kerne mit 12 virtuellen. Wenn man dann noch auf Performance pro Watt und den Preis schielt seh ich auch da AMD leicht im Vorteil gegnüber Intel. Und das ist doch mal eine sehr positive nachricht für alle, schließlich ist man auch als normaler Verbraucher daran interessiert dass AMD langfristig gut mitspielen kann, sonst gibt es keine Konkurrrenz mehr, die Preise würden steigen und die Entwicklung stagnieren...
 
@ 192.168.1.1
Deshalb kommt ja heute der 8-Kern-Prozessor von Intel mit SMT und all dem Kram. Erst dieser ist ja auch für die 4- u. 8- und noch X-Sockel-Systeme, Westmere-EP ist ja nur für 2 Sockel. Und Dunnington wird halt 2 Jahre alt, ist doch klar, dass man die Mal irgendwann schlägt^^

Was klar für die AMD-Seite spricht ist der Preis. Der ist in den Regionen wirklich aggressiv. Intel hat dort halt über 90% Marktanteil und sie konnten bisher quasi machen was sie wollen und sich so dumm und dämlich verdienen. AMD kann nicht nur die gleiche Leistung liefern, sie müssen über den Preis und die Langlebigkeit der Systeme angreifen. Magny Cours und auch Lisbon sind dafür eine super Grundlage.
 
Krautmaster, du hast es immer noch nicht verstanden, oder? Einerseits redest du von KMU und andererseits davon, dass ein Quadcore ein Windows booten soll?! Das sind aber sowas von zwei Paar Schuhe. Und in KMU gibts jenseits der 20 Leute sehr wohl exakt die genannte Lastverteilung. Ein ActiveDirectory ist kein Single Thread, Leute müssen darauf gleichzeitig zugreifen. Samba, FTP, NFS, IMAP/POP3 oder ein Exchange. Sie alle profitieren von mehreren Kernen stärker als von mehr Takt. Und spätestens wenn du einen TerminalServer aufsetzt, wirst du feststellen, dass mehr Kerne besser sind. Dort gilt zwar tatsächlich, dass ein mehr an Takt besser ist, solange die Server nicht ausgelastet sind, liegt die Kiste aber einmal unter Last, kommt der Scheduler beim "LesserCore" wesentlich eher ins Schwitzen. Das sind leider KMU-Einsatz-Szenarien. DU beziehst dich auf eine Workstation. VÖLLIG anderes Einsatzgebiet. Das sollte dir endlich mal klar werden. Du verkaufst gerade Birnen als Äpfel. Und nein, die wenigsten Server sind "Desktop-ähnlich". Zumindest nicht im genannten Bereich (KMU) - erst recht nicht, wenn man die genannten "Minis" mit 1-20 Mitarbeitern raus lässt. Alles drüber wird einen Teufel tun und einen Desktop-Quad oder einen 1P-Xeon/Opteron zu benutzen. Ich habe lange genug für einen Infrastruktur-Ausrüster im KMU-Bereich gearbeitet. Glaub mal, ich kenn die Anforderungen. Erstens ist da Windows eine Minderheit und zweitens SIND dort alle Prozesse bis auf den Spamfilter massiv parallelisiert. (TerminalServices mal außen vor. Dort und auf den Mitarbeiter-PCs werkelt dann tatsächlich oft Windows.)

Ich hab ehrlich gesagt keine Lust, deine Milchmädchen-Rechnung mit den Kernen weiter aufzudröseln. Fakt ist: Sie ist an der Realität vorbei. Du vergisst die Takte fürs Thread Scheduling, die Wartezyklen auf den Speicher (Speicherlatenz) beim Threadwechsel - das alles fällt bei dir unter den Tisch. Je feiner du deine Rechnung aufdröselst, um so eher wirst du merken, wie falsch die Rechnung ist. Und nochmal: Es gibt KAUM Aufgaben, die voneinander abhängen. Und wenn doch, wird der "MoreCore" auch nicht den Kern "lock"en sondern auf dem Kern werden weitere Threads abgearbeitet, bis das Ergebnis des ersten Aufgabenthemas durch ist. Ich rede übrigens auch nicht von 1k Kernen, die mit niedrigem Takt takten. Sondern von Prozessoren der x86-64-Klasse mit >2GHz. Außerdem verwechselst du Aufgabenparallelisierung mit Thread-Parallelisierung. Wenn du den XYZ-Server parallelisierst, so dass viele User gleichzeitig drauf zugreifen können, die voneinander unabhängig sind, ist das ganz klar etwas anderes als z.B. ein Kernel-Kompilat. Dort wird eine Aufgabe in mehrere Threads aufgespalten, die mitunter voneinander abhängig sind. Das hast du in KMU ab 20 Leuten aber eben eher NIE. (Wieder die Ausnahme: Terminal Services)

Zum Thema Kerne und "Fetter" muss ich dir ebenfalls widersprechen. Dabei geht es gar nicht darum, dass die wegen mehr Instruktionen größer werden. Das ist - mit Verlaub - Schwachsinn. Intel und AMD nutzen seit längerem RISC-Cores, für die es eine Übersetzungs-Schicht gibt, damit sie nach außen hin als x86/x64CISC-Prozessoren werkeln können. (Microcode-Updates dürften den meisten etwas sagen - genau das ist es. AMD könnte z.B. binnen weniger Monate einen Großteil der SPARC-Befehlssätze umsetzen, solange die Pipelines und Register das zulassen.) Daher steht einer weiteren Parallelisierung auch nichts im Wege. "Schmalere" Kerne können immer mehr nebeneinander abarbeiten. Dass die Kerne dennoch immer fetter werden, liegt hauptsächlich am Cache und einigen Befehlserweiterungen, die nativ umgesetzt werden. Das macht die Chipentwicklung schneller und ist der Grund für die Chip-Redisigns alle paar Jahre. Dort wird das dann ins RISC-System umgesetzt, was dazu massiv umgebaut werden muss (als dummes, weil ungünstiges Beispiel die Tatsache, dass MMX z.B. 128Bit-Werte verarbeiten konnte, der Prozessor jedoch nur 64Bit. Das hat man als Erweiterung an den Chip "geklebt", da das Redesign der Pipelines auf 128Bit Breite zu viel Aufriss wäre. Irgendwann sind die MMX-Erweiterungen dann allerdings doch ins Kerndesign gewandert und konnten als CISC->RISC-Komponente umgesetzt werden. Dummes Beispiel soll meinen: Damals gab es diese Code-Übersetzung noch nicht. Das kam erst später. Allerdings sollte das Beispiel auch nur das Prinzip klar machen.)

Regards, Bigfoot29
 
Zurück
Oben