News IDF 2012: Die CPU-Architektur „Haswell“ im Detail

@pipip

Bislang hat hier niemand etwas in Richtung "AMD ist...." geäußert, außer Dir selber und damit bist Du derjenige, der hier aufstachelt!

Fakt ist, daß es für Nicht-Spieler keinen Grund gibt irgend etwas von AMD zu kaufen. Fakt ist auch, daß AMD die von Dir genannten "Innovationen" auch nur auf dem Papier in der Hand hat.
Die HSA Foundation ist bislang auch nur eine konspirative Angelegenheit.
Die gute Fertigung bei Intel kommt sicher auch nicht nur durch leere Worte zustande - AMD hat ja bekanntlich die eigene Fertigung verscherbelt, was auch dazu geführt hat, daß sie sind, wo sie sind.
Das größte Problem von AMD ist wohl, daß sie nichts von ihren tollen Produkten in ausreichender Stückzahl zum angekündigten Zeitpunkt ins Verkaufsregal bekommen oder wo sind denn die „Trinity“-Desktop-APUs ?

Ich habe nichts gegen AMD und AMD hat nichts, daß ich brauchen könnte, was Intel nicht besser und sparsamer kann. Hätte AMD gescheite Produkte am Markt - d.h. im Verkaufsregal, ginge es ihnen nicht so schlecht......

PS: Sollte ich dann wider erwarten doch mal mehr als eine HD4000 brauchen, kaufe ich bei NVIDIA...
 
Zuletzt bearbeitet:
pipip schrieb:
Weiteres, kann man davon sprechen, dass AMD mit Seamicro bereits MicroServer anbietet. Intel drückt lediglich nur große Worte in dem Bereich.
Dazu sollte man vielleicht erwähnen, das SeaMicro erst vor ein paar Monaten von AMD gekauft wurde und SeaMicro vorher quasi ausschließlich Micro-Server mit Intel Prozessoren verkauft hat und dies auch weiterhin tut.

Der SM10000 mit Atom-CPUs ist mittlerweile gute zwei Jahre alt und somit nicht gerade neu.

Micro-Server gibts außerdem auch u.a. von Dell (z.B. der PE C5000) und Supermicro.
 
pipip schrieb:
Genau die Firmen die im großen Sitl im Smartphone und Tablet-Markt mitmischen.
Also genau die Firmen, die kaum auf x86 (und schon gar nicht auf AMD) in diesen Bereichen setzen. ;)

Dazu kommt, daß sich TI schlechtere Chancen in diesen Bereichen einräumt, weil die Marktführer (Apple + Samsung) selbst ARM SoCs anbieten.
Wieso sollten die dann ausgerechnet auf AMD zurückgreifen wollen (zumal AMD keine Zusatzfunktionen wie Modem od. GPS anbieten kann)?
pipip schrieb:
Weiteres, kann man davon sprechen, dass AMD mit Seamicro bereits MicroServer anbietet. Intel drückt lediglich nur große Worte in dem Bereich.

Mag sein, daß Intel bisher noch nichts mit diversen Übernahmen (Infinibandsparte von Qlogic + Interconnect von Cray) anfangen kann, aber Intel verkauft auch nicht an Endkunden.
Und Dell, IBM, HP, etc. werden mit Sicherheit mehr Intel Server pro Quartal verscherbeln als AMD mit allen SeaMicro Servern in einem Jahr.

Shaav schrieb:
Das sind alles Sachen die man als Gamer nicht braucht, oder irre ich mich da?
Naja, neuere Befehlssätze hat Intel schon seit MMX auch für Spiele gepusht.

Was ich vermisse ist aber eine Nutzung der iGPU für PhysX (sollte doch irgendwie mit dem Patentaustauschabkommen mit Nvidia klappen).

Auch weiß man nicht inwieweit Intel mit der iGPU rechnen will oder lieber auf MIC wie beim Xeon Phi setzt.
AMD hat da das bessere Konzept, kann aber bisher nur wenig Konkretes liefern, denn beim GPU-Computing hat Nvidia die Nase vorn (ebenso beim Rechnen aka PhysX für Spiele).
 
CHAOSMAYHEMSOAP schrieb:
Und Dell, IBM, HP, etc. werden mit Sicherheit mehr Intel Server pro Quartal verscherbeln als AMD mit allen SeaMicro Servern in einem Jahr.
Sollte da statt "Quartal" nicht eher "Woche" stehen. ;)
 
Wums schrieb:
Ich erwarte ehrlicherweiße einen großen Effizenzsprung, aber keinen wirklichen Leistungssprung. Vielleicht 10% oder so.
Mit solchen Aussagen, erkennt man deutlich, wie Verwirrend die Marketing-Folien sind.
Einem 7 und 8 Port sowie eine 4-Alu riecht deutlich mehr als 10%. Es erinnert an Nehalem & Core 2, wo die Einheiten im vergleich zum Vorgänger erheblich gesteigert wurden. (Core 2 im Vergleich zu Pentium M)
Die IPC-Steigerungen waren erheblich, aber auch die Die-Größe und Stromverbrauch. Bei Core2-Duo waren noch gesteigerte TDP möglich (im Vergleich zum Pentium-M im Notebook-Markt), während man bei Nehalem das ganze 45nm-Potential durch Spannungsekungen nutzte. Da im Montevina mit der 25W-TDP-Plattform die ganze 45nm-Potential genutzt wurde, "musste" bei Nehalem-Notebook auf 32nm gewartet werden.
Wobei das Problem nicht der Stromverbrauch ansich war, da die Effizienz stieg (= erhebliche Stromverbrauchssteigerung mit noch erheblicheren IPC-Steigerungen.), sondern Intel wollte trotz erheblichen IPC-Steigungen eine "psychische wichtige" Taktsteigerung dazu.

Haswell hört sich wieder nach mehr Stromverbrauch und noch mehr IPC-Steigerung an.
Strom spart man nur, wenn man das Front-End & Co verbessert, ohne dabei jetzt die Core-Fläche vergrößern zu müssen. So wie es bei Sandy-Bridge der Fall war.

Mit wesentlichen Einheiten-Erweiterungen wird man nie/selten absoluten Strom sparen können.
Wobei ein erhöhter Stromverbrauch (gemeint ist relativ; absolut kann dies mit einer verbesserter Fertigung oder mit aufgebauten Spannungsreserven kompensiert werden) nicht negativ zu sehen ist, und bei Intel jetzt der richtige Weg sein kann. Mit 8 Ports und 4 ALUs gleicht/nähert es sich sogar an ein Steamroller-Modul an, welches auch 8 Decoder und 2x2 Alus hat, aber mit CMT vs SMT einen völlig anderen Aufbau hat.

Das Märchen von Stromsparen in der ganzen Hasswell-Familien (als 10-55W-TDP) kommt eben von diesem getürkten Heaven-Tests, wo eine ULV-iGPU in einem Tesselation-Test mit angeblichen deaktivierten Tesselation ultrawenig Strom gegen einen 17W-TDP-Ultrabooks-CPU benötigt.

Interessanterweise, wird der Heaven-Bench im den Himmel gelobt, indem man jetzt überallen von megaultrasparsamen iGPUs lesen kann, obwohl es keine Folien über diese erreichte Architektur-Effizienzsteigerung berichtet wurde.
Obwohl in diesem Thread die mit abstand wesentlichen & entscheidenden Informationen (mit Technischen Informationen und nicht irgendwelche nichtssagende Benches) über Architektur-Effizienz-Steigerungen gibt, wird hier interessanterweise/Kurioserweise am wenigsten diskutiert/geredet/geschrieben.

PS: Intel selber gibt in den Performance-per-Core und Instruction-per-Cycle einen erheblichen Sprung an, der mehr als nach nur 10% aussieht.

PS2: Auch wenn die iGPU nach so einer neuen Architektur-Klingen mag, ist die eigentliche Architektur-Verbesserung die Einheiten-Skalierung. Aber die Führt nicht zu einer gesteigerte Architektur-Effizienz-Steigerung, sondern einem Flexibleren iGPU-Aufbau.
Eine Effizienzsteigerung hätte man in iGPU bekommen, wenn das Front-End der iGPU gleich geblieben wäre, und so ein Einheiten-Execution-Block einfach dazugegeben hätte. (= Effizienzsteigerung durch eine andere Front-End vs Einheiten -Konfiguration (Wie damals @ AMD HD 4870) Aber das ist ja nicht passiert, weil das Front-End ebenfalls verdoppelt wurde. ( Quasi wie HD 6970; Allein durch die Verdopplung der Tesselation-Unit, konnten 2 Grafik-Engines gemacht werden )

Grundsätzlich scheint Hasswell mit den vielen neuen Features (skalare iGPU & Co) und CPU-Verbesserung interessant und Intel liefert da jetzt viel mehr als früher in den 00er-Jahren. Wobei es schön zu sehen ist, dass alle die Entwicklungsgeschwindigkeit deutlich beschleunigt hat.

Bewertet wird die Architektur am Schluss gegen die Konkurrenz.

Mir erscheint es, dass Intel das volle 22nm-Potential erst mit Hasswell nutzt und somit den Architektur-Sprung in CPU & iGPU höher Erscheinen lässt, womit ein nicht unerheblicher Sprung zu erwarten ist. Ist ja nichts negatives, aber eine mögliche Erklärung, wie diverse Maßnahmen erreicht werden.
Zumindestens erscheint mir nicht, dass Intel was falsch macht ((( außer der non-LTE-Standard --> Wunschtraum, da die AMD-Konkurrenz in der Hinsicht es auch nicht besser macht ))) und wenn die Konkurrenz gegen diese CPU trotzdem zulegen würde, dann wäre diese CPU trotzdem nicht automatisch schlecht.

pipip schrieb:
Also ich finde das wesentlich interessanter...
Mit dem neuen S0ix-State will Intel „Haswell“ Tablet-tauglich machen, indem dieser den Idle-Verbrauch weiter reduziert, wobei von einer Reduktion um den Faktor 20 gegenüber dem Vorgänger die Rede ist. Dabei soll das als „Active Idle“ bezeichnete S0ix ebenso wenig Strom benötigen wie der Schlafmodus S3/S4, dafür aber umso schnellere „Aufweckzeiten“ besitzen.
Grundsätzlich hört sich sowas irrsinnig Interessant an, aber diese Verbesserungen können trotzdem primär "nur" infolge SoC verbessert worden sein. Denn stromsparmaßnahmen galten nie/selten von CPU zur Southbridge. Mit SoC kann man dann die iSouthbridge eben in die CPU-Stromspartechniken miteinfließen.
Kurz gesagt, SOix-State ist IMO ein Evolutionärer Stromspar-Technikfortschritt parallel zum SoC-Schritt, der im PC-Markt IMO ein Revolutionärer Schritt ist.

Da Stand-By-Akkuzeiten im PC-Markt in den letzten Jahren grundsätzlich keine Thema war, erscheint jetzt SOix-State zu S3/S4 ein großer Schritt. Aber bis gestern wusste ich selber nichteinmal, dass AMD Hondo einen S3-State hatte.

Grundsätzlich ist es beeindrucken, welche Neuerungen Intel, AMD und ARM so die letzten 1-2 Jahren zu Tage brachten und in naher Zukunft bringen werden.
 
Hibble schrieb:
Und wo gibts da jetzt die Änderung, dass man den S1155 nicht fortführen kann?

Tja, da war man von AMD ziemlich verwöhnt :D Bei Intel gibt es spätestens nach 2 Jahren einen neuen Sockel, mittlwerweile. Ob das technisch nun wirklich nötig ist, wage ich zu bezweifeln.
 
@crackett -also Deine 4xxx Graka ist nun ein schlechtes Beispiel für brauchbare AMD Produkte.
Die aktuellen Grakas sind nicht schlecht-kein Vergleich mit den 4k-Reihen.Trotzdem nehme ich auch wieder NV-gerade nach den schlechten Erfahrungen mit der 4k Reihe.:(
 
Es wird immer heißer gekocht als gegessen. Was für Versprechungen hat uns Intel nicht gemacht bei Ivy Bride - 20% mehr Leistung, deutlich weniger Stromverbrauch.

Raus gekommen ist so gut wie nichts davon, Ivy Bridge verbraucht im Idle genau soviel wie Sandy Brdige, ist ein richtiger Hitzkopf, von mehr Leistung kann nicht die rede sein außer in ein paar Spezialdisziplinen.
 
Hibble schrieb:
Und wo gibts da jetzt die Änderung, dass man den S1155 nicht fortführen kann?

boxleitnerb schrieb:
Die VRMs wandern in die CPU, schon allein deshalb kann man die alten Boards nicht weiterverwenden.

Die Stromversorgung dürfte auch schon der Grund für den Wechsel von 1156 auf 1155 gewesen sein. (Und z.B. auch für den von FM1 auf FM2 bei AMD.)

Es wäre dumm von den CPU-Herstellern, wenn sie in so kritischen Bereichen Kompromisse eingehen würden, nur um die Kompatibilität zu alten Mainboards zu erhalten. Die Aufrüster (die nicht sowieso gleichzeitig auch ein neuen Board anschaffen) sind ein zu kleiner Anteil der Kundschaft.
 
Ok, wenn die VRMs wirklich in die CPU kommen, gibts für mich auch keinen Intel mehr. Wie will man denn dann noch vernünftig OCen?

@makus: Ein Shrink war noch nie was anderes. Die 20 % Mehrleistung stimmen zwar nicht ganz, aber der Stromverbrauch wurde schon enorm gesenkt. Kaum vergleichbar zu anderen Shrinks.
 
Ich wüsste mal gerne, ob es 2015 überhaupt noch CPU´s gibt, die man übertakten kann.
Wenn ich sehe, welches Potenzial in einer Ivy K CPU brach liegt, wenn man nicht übertaktet.
Mein 3770K läuft 4,2Ghz mit - 0.095V. Also übertaktet und untervoltet seit 3 Monaten ohne Probleme. Dabei habe ich nur eine durchschnittliche CPU erwischt.
Rechnet man das einmal hoch, dann sind 20% IPC Steigerung durch Intel bei gleichem oder minimal mehr Stromverbrauch ohne Probleme zu realisieren.
 
makus schrieb:
Es wird immer heißer gekocht als gegessen. Was für Versprechungen hat uns Intel nicht gemacht bei Ivy Bride - 20% mehr Leistung, deutlich weniger Stromverbrauch.

Raus gekommen ist so gut wie nichts davon, Ivy Bridge verbraucht im Idle genau soviel wie Sandy Brdige, ist ein richtiger Hitzkopf, von mehr Leistung kann nicht die rede sein außer in ein paar Spezialdisziplinen.

- Bei entsprechenden Anwendungen ist Ivy Bridge +10% schneller (Videocodierung etc.).
- Viel weniger kann ja Intel im Idle nicht mehr verbrauchen - auch wenn Haswell wohl das Gegenteil beweisen möchte/wird.
- Hitzkopf, da Wärme/Fläche deutlich gestiegen ist, da die Fläche um ca. 40% (?) geschrumpft ist und der Energieverbrauch nicht im gleichen Verhältnis.

Zum letzten Punkt: Klar geht es ja den Herstellern auch um die Ausbeute und geringe Produktionskosten, aber irgendwann hat die CPU nur noch wenige Prozent von der eigentlichen Fläche auf der der Kühler aufliegt. Klar steigt dann die Temperatur immer weiter an, wenn die Wärme von dem kleinen Punkt nicht mehr abgeführt werden kann ...

EDIT: Wäre ja dafür zwischen den Transistoren etwas Platz zu lassen, dann gibt es auch die Wärmeprobleme nicht mehr. Ist aber die Frage, wie sich dann noch die Vernetzung der Schaltkreise realisieren lässt (hab auf physikalischer Ebene nicht so die Ahnung ...).
 
Zuletzt bearbeitet:
Das sieht mir stark nach einer CPU-Architektur aus die vorrangig für die Nutzung in Notebooks (u. Tablet-PCs) optimiert wurde.
 
@yetisports: Yields sind teuer. Deshalb wird jeder Shrink auch begrüßt weil pro Chip weniger Fläche beansprucht wird und man mehr Chips pro Yield bekommt.
Würdest du etwa das doppelte dafür ausgeben, wenn du einen größeren Chip bekommen würdest, der etwas kühler arbeitet?
 
Haswell sieht doch "komplett" aufgebohrt aus mit zusätzlichen dezidierten Entlastungseinheiten die die Effizienz in den Recheneinheiten steigert.
Ich gehe daher ebenfalls von einer höheren durchschnittlichen IPC als 10% aus , in optimierten Szenarien sogar viel mehr. Eigentlich müssten das die Artikelverfasser auch sehen können nachdem Sie alles im Einzelnen aufzählen.
Intel hat auf der IDF gezeigt das man mit weniger Power dem Ivy Bridge in Grafiklastigen Szenarien davon rennt , woher die gesteigerte Haswell TDP von 95W bei den stärksten Modellen kommen soll ist mir daher echt noch ein Rätzel.
Möglicherweise fällt die Desktop GT2 Leistung einfach höher aus als gedacht um den höheren Strombedarf zu rechtfertigen , das wäre die einzigste Erklärung. Sprich , Intel schiebt da einfach noch mehr Takt drauf um das thermische Budget auszureizen.
Ich denke wir werden wohl doch von der Haswell Grafik im Endprodukt für den Desktop überrascht werden.
 
Also wirklich große Neuerungen sind nicht zu Erkennen wie zum Bsp. beim Designwechsel bei AMD auf die Modularchitektur. Für mich nur ein weiterer "Tick" aber kein "Tock".

Vielleicht haben wir dann 2013 wieder Konkurrenz bei den CPU´s ,wenn AMD die Modularchitektur mit dem Steamroller endlich mal fertig bekommt.

Ich kann mir auch nicht vorstellen, das man mit nur einem Design stromsparende CPU´s alla ARM und hohe Leistung vereinen kann.
 
allel schrieb:
Also wirklich große Neuerungen sind nicht zu Erkennen wie zum Bsp. beim Designwechsel bei AMD auf die Modularchitektur. Für mich nur ein weiterer "Tick" aber kein "Tock".
Nur weil der Schritt nicht so groß wie ein Modular sein mag, ist Haswell noch lange kein Tick. Denn dann müsste selbst Pentium-M --> Core 2 ein Tick sein, der ebenfall ein breiteres Front-End (Ports) und CPU-Execution bekam. Sandy-Bridge erst recht, bei dem "nur" das Front-End auf Effizienz verbessert worden ist.

Aber so ist es eben nicht und Haswell wird für CPU-Verhältnisse einen großen Schritt machen. Die CPU-Entwicklung geht langfristig über viele Jahre. Mich würde es nicht wundern, wenn die Front-End-Verbesserungen von Sandy-Bridge ebenfalls wichtig war, um bei Haswell dann 4-fach-Superscalar sinnvoll (= hoche auslastung) einzuführen.

Vielleicht haben wir dann 2013 wieder Konkurrenz bei den CPU´s ,wenn AMD die Modularchitektur mit dem Steamroller endlich mal fertig bekommt.
Grundsätzlich sind CPU-Architekturen nie so wirklich fertig. Falls Steamroller "endlich mal fertigt sein mag", dann ist es nur ein deutliches Anzeichen, dass AMD gegenüber Intel einfach zu wenig R&D-Architektur-Ressourcen hat um mitzuhalten, weil sie alles nicht schon beim Bulldozer umsetzten konnte.

Wenn ich es richtig verstanden habe, ist Steamroller die "letzte Architektur-Entwicklung" was ausschließlich in Handarbeit desgint wurde. Beim Nachfolger ist immerhin/zumindestens die FPU vollständig mit automatischen Tools entworfen, wie es bei Kabini & Ontario der Fall ist.

Dass AMD 2013 besser dastehen soll, liegt wohl mehr an der Fertigung. Denn die APU-Herstellung war eben komplizierter als man glaubte, wie man erst vor kurzem erfuhr.
Mit den Sprichwort "Was gut ist für die CPU, ist schlecht für die GPU und umgekehrt".
Und in den letzten 5-6 Jahren war es bei TSMC & AMD immer so: Wenn die eine Fertigung schlecht war bzw. "suboptimal war, dann sah es beim Nachfolger umso besser aus.

Dass 2013 ein Spannendes Jahr wird, stimme ich dir zu.
Aber am wenigstens wird es im Game-PC (CPU-Only-Markt) mit Steamroller vs. Hasswell spannend. Denn während es in den Top10 von HPC-Markt GPGPU schon längst etabliert ist, kommt Kabini & Kaveri mit HSA im Massen-Notebooks & Desktops dann so richtig in Schwung.

Grundsätzlich war 2012 auch schon ein spannendes Jahr von Einführungen.
Mit GPGPU (Xeon-Phi, FirePro S & W) und Low-Power-x86 (Intel Centeron) sind die Einführungen von Designs im Jahr 2012 erheblich gestiegen, sodass man teilweise garnichtmehr so richtige mitgekommen ist, was jetzt alles am Markt gekommen ist.

Mit Win8 und HSA werden eben viele dieser Technologie plus ARM verbunden, womit wir 2013 noch weiter mit neueingeführten neuen Chips überhauft werden, sodass Haswell im Gesamten von Intel-Anteil weiter an Bedeutung verliert.
Schon bei der IDF war die Haswell-CPU neben 10W-TDP, iGPU, Stromspartechniken nur einer von vielen neuen Technologien, obwohl Xeon-Phi, Intel-Smartphone und Intel-Tablet bewusst völlig vernachlässigt wurde.
 
Zurück
Oben