Bericht Intel „Broadwell“ im Detail

Warum nicht die teure und derzeit beste Technik zu Geld machen!?

Wenn man schon so Sprüche bringt sollte man im Gegenzug vielleicht auch wieder mit richtigen Nanometern messen. Wundert mich eh das Intel noch keiner verklagt hat seit der sogenannten 22nm-Fertigung die eigentlich eine 26nm-Fertigung ist.

Wie ist denn da der aktuellem Stand?! 14-Intel-nm = 18nm?
 
Krautmaster schrieb:
Wie stellst du dir denn eine IPC Zusatzleistung vor? Das geht heute fast nur noch über mehr Kerne + Takt...

Und über neue Befehlserweiterungen, die aber einerseits in der Regel ziemlich spezialisiert sind (z.B. primär für Verschlüsselung genutzt werden) und andererseits dauert es halt immer viele Jahre, bis solche Erweiterungen auch in der Standardsoftware Einzug halten. Die Programmierer machen sich diese Mühe verständlicherweise erst dann, wenn ein größerer Teil der im Einsatz befindlichen CPUs diese Erweiterungen unterstützt.

Was mehr Kerne + Takt oder auch einfach "breitere" CPUs angeht, wurde das ja lange Zeit so gemacht. Die großen Leistungssteigerungen der Vergangenheit wurden auf diese Weise erreicht. Kleinere Fertigungsstrukturen wurden direkt dazu benutzt, die CPUs noch größer/komplexer zu machen (mehr Transistoren) und den Takt noch höher zu treiben.

Was man dabei leicht vergisst ist, was das für Auswirkungen auf den Verbrauch der CPUs hatte. Es gibt einen Grund, warum es ziemlich schwer ist, für 486er oder älter überhaupt Angaben zur TDP zu finden. Die war so niedrig, dass sich (abseits von Notebooks, für die es aber überhaupt erst ab dem 386er spezielle Mobil-CPUs gab) keiner dafür interessiert hat.

Bis zu den 486ern war man schon mal so weit, dass man die CPUs problemlos passiv kühlen und oft sogar ganz auf einen Kühler verzichten konnte. (Also das, was Intel jetzt mit den 14nm-Baytrails anstrebt.) Erst die Pentium wurden dann solche "Hitzköpfe", dass durchgehend aktive CPU-Kühler nötig wurden. Diese ersten Pentiums hatten TDPs von ca. 5-15W! (Hätte man vor 20 Jahren jemandem erzählt, dass ein paar Jahre später normale Desktop-CPUs TDPs von fast 200W erreichen, wäre man wohl für verrückt erklärt worden.)

Mir war es damals jedenfalls wirklich nicht bewusst, was für Auswirkungen die gewohnte exponentiellen Leistungssteigerungen durch immer größere/komplexere und höher getaktete CPUs auf den Verbrauch hatten. Ich glaub, selbst Intel hat das seinerzeit nicht wirklich realisiert, sonst wären sie nicht blind in den Netburst-Sackgasse gerannt.

Ich denke, Intel (und auch AMD) tut gut daran, jetzt primär auf den Verbrauch zu achten. Mal eben die TDP des Top-Modelle zu verdoppeln, ist heutzutage jedenfalls einfach nicht mehr drin.
 
met schrieb:

Ja dann müssen sie sich alle gegenseitig verklagen, weil es bei jedem das gleiche ist. Steht ja auch schon im Artikel, seit 90 nm ist es nicht mehr das was drauf steht. Die gehen halt alle den erwarteten und angekündigten "sauberen" Schritt, Abweichungen werden so kaschiert. Dass Intel dann die Keule schwingt wenn TSMC, Samsung, Globalfoundries und Co bei 22 auf 16 nm gehen ohne was zu ändern, ist natürlich scheinheilig.

Aber das es derzeit die fortschrittlichste Technik ist, die Aussage von Intel dürfte stimmen.
 
Pat schrieb:
Wie ist das mit dem Umstieg von 300mm auf 450mm Waver. Ich denke das ist vor allem wichtig, um die Ausbeute zu erhöhen, oder? (weniger "Abfall", da die Waver ja rund sind).
Aber warum ist diese Umstellung auf 450mm so teuer und so gefürchtet? Wo sind die Probleme?

Größere Wafer ziehen komplett neue Fertigungsstraßen nach sich. Die ganzen Anlagen, die aktuell 300 mm oder was auch immer handhaben, können mit was größerem nicht umgehen. Die Züchtung in 450 mm ist ja nur ein Teilaspekt der ganzen Fertigung. Hintendran muss der Ingot dann in Wafer zersägt, behandelt, mehrfach belichtet, nachbehandelt und schließlich in die einzelnen Chips zersägt werden. Und für alle Arbeitsschritte inkl. dem letzten Zersägen braucht man beim Vergrößern des Wafer-Durchmessers normalerweise komplett neue Anlagen.
Gefürchtet sind solche Umstellungen, weil alles in der Fertigung extrem gut auf einander abgestimmt sein muss - ansonsten ist die Ausbeute ziemlich mieß. Und bis bei einem neuen Anlagenkomplex alles rund läuft können schon mal ein paar Monate (und Millionen Euro) ins Land ziehen.
 
CD schrieb:
Größere Wafer ziehen komplett neue Fertigungsstraßen nach sich. Die ganzen Anlagen, die aktuell 300 mm oder was auch immer handhaben, können mit was größerem nicht umgehen. Die Züchtung in 450 mm ist ja nur ein Teilaspekt der ganzen Fertigung. Hintendran muss der Ingot dann in Wafer zersägt, behandelt, mehrfach belichtet, nachbehandelt und schließlich in die einzelnen Chips zersägt werden. Und für alle Arbeitsschritte inkl. dem letzten Zersägen braucht man beim Vergrößern des Wafer-Durchmessers normalerweise komplett neue Anlagen.
Gefürchtet sind solche Umstellungen, weil alles in der Fertigung extrem gut auf einander abgestimmt sein muss - ansonsten ist die Ausbeute ziemlich mieß. Und bis bei einem neuen Anlagenkomplex alles rund läuft können schon mal ein paar Monate (und Millionen Euro) ins Land ziehen.

Nachdem ich selbst in der Branche gearbeitet habe, ist es noch schlimmer als du das beschrieben hast. Die ganzen neuen Anlagen müssen zum Großteil sogar komplett neu entwickelt werden und nicht einfach auf 450 mm aufgeblassen werden. Man rechnet aktuell mit > 50 Mrd Dollar nur dafür, die Anlagenteile zu entwickeln (Was da tw. für Kniffs drinnen sind ...). Eine Fab mit solchen Teilen auszurüsten is dann gewaltig (Entwickler-Fab) und bis das rund läuft ... es läuft nie rund.
Tatsächlich ist es so, dass die 200mm bis vor gar nicht so langer Zeit noch immer nicht rund gelaufen sind, die 300mm Waver heute noch immer wieder Kopfzerbrechen bereiten (Yield-Rate ist noch immer nicht dort, wo man sein will, auch mit 65/90nm Fertigung). Ich bin daher der Meinung, dass sicher noch 15 Jahr durchs Land ziehen werden, bis die 450er eingeführt und so halbigs rund laufen werden.
 
Danke für den interessanten Bericht. Von einem reinen Die-Shrink kann man aber m. M. fast nicht mehr sprechen. Das Broadwell-Die hat kaum Ähnlichkeit zum Haswell. :)
 
Man sollte nicht vergessen, dass die Kosten, die bei so einer Umstellung entstehen, auf die Produkte und damit letztlich auf den Kunden umgelegt werden. Erst im sehr weit fortgeschrittenen Prozess kann wegen der besseren Ausbeute auch der CPU-Preis sinken. Will sagen für die Käufer ist so eine interne Prozessveränderung nur mittel bis langfristig interessant (wirtschaftlich betrachtet).
 
Der Unstieg von Haswell nach Brodwell ist so prickelnd wie der von Sandy Bridge nach Ivy Bridge.
Jedenfalls beim Desktop. Wenn man sich etwas mobiles neu kauft, sollte man natürlich die neuste Technik nehmen, wegen der höheren Energieeffizienz.
 
Danke für den ausführlichen Bericht! Solche Infos interessieren mich! Bin gespannt, was dann in vier Wochem vom IDF zu hören ist.

Krautmaster schrieb:
Wie stellst du dir denn eine IPC Zusatzleistung vor? Das geht heute fast nur noch über mehr Kerne + Takt - was im Desktop Segment wenig bringt und wo Intel eh deutlich überlegen ist.

IPC = Instructions per cycle. Mehr Takt erhöht die IPC um genau 0.

usb2_2 schrieb:
Ein test gegen die neuen AMD APUs (A10 Micro) wär sicher interessant.

Es gibt neue AMD APUs? Was hab' ich verpasst? ;) einen solchen Test würde ich auf jeden Fall auch begrüßen!
 
deo schrieb:
Der Unstieg von Haswell nach Brodwell ist so prickelnd wie der von Sandy Bridge nach Ivy Bridge.

Schonmal daran gedacht, dass die Prozessoren nicht entwickelt werden, damit man letzten Generation auf die nächste umsteigt? Ein Rechner hat eine längere Halbwertszeit, da sind es dann schon 3-4 Generationen, und da wird es wieder interessant.
 
Die Chips kommen übrigens aus Oregon und Arizona. Da stehen die 14nm Fabs. Steht das auch irgendwo im Artikel, oder habe ich es überlesen?
 
KaHaKa schrieb:
IPC = Instructions per cycle. Mehr Takt erhöht die IPC um genau 0.

danke für die Richtigstellung :)

Ich hab wohl eher unterbewusst direkt den Schlag zu der erwarteten Mehrperformance einer CPU gezogen (C = Core statt C = Takt lol), imho also eher Leistung auf wenig Threads was zum einen durch Takt (5Ghz zb) oder eben mehr IPC (pro Kern) möglich wäre.

Letzteres, bezogen auf die ganze CPU, wird eben hauptsächlich durch mehr Kerne realisiert.
 
met schrieb:
Wenn man schon so Sprüche bringt sollte man im Gegenzug vielleicht auch wieder mit richtigen Nanometern messen. Wundert mich eh das Intel noch keiner verklagt hat seit der sogenannten 22nm-Fertigung die eigentlich eine 26nm-Fertigung ist.

Wie ist denn da der aktuellem Stand?! 14-Intel-nm = 18nm?



Dann verklag mal schön die anderen mit. Du bist total unwissend. Das ist seit Jahren nur noch ein Branding, und zwar bei allen. Falls du dich schlauer machen willst: http://techreport.com/review/26896/intel-broadwell-processor-revealed


http://forums.anandtech.com/showpost.php?p=36610921&postcount=140


Viel Spaß beim Verklagen.
 
@met: Und wenn dir in Zukunft überall das Bier mit angeblichen 10 statt wirklichen 5 % Alkohol verkauft wird dann ist das auch ok "weil es alle so machen"? Der Punkt ist doch nicht, dass man Intel und den anderen nicht an den Karren fahren kann weil sie alle gleichsam lügen, sondern man kann ihnen nix anhaben weil sie in einem Punkt lügen der für den Kunden vollkommen unbedeutend ist.
 
Ah ja, weil ja auch so klar definiert ist wie die Strukturgröße anzugeben ist...
 
Krautmaster schrieb:
spannend, inbesondere der Idle Verbrauch. Da dürften selbst die starken Core Kerne mit den ARM SOCs konkurrieren können. Bin mal gespannt ob die Intelschen 14nm auch schnell den Weg ins Smartphone finden.
Smartphones dürfte da nicht alleine im Blickfeld stehen, da ARM ja auch versucht Intel in seinem lukrativsten Markt, bei den Servern, anzugreifen. Nicht zuletzt AMD setzt da ja mit seinen 64 Bit ARM Server CPU an, aber der Hauptvorteil der ARM im Servern ist eben auch die hohe Effizienz, also viel Leistung pro Watt und deshalb stellt Intel ja auch diese Punkte besonders heraus. Da sicher nicht wenige Rechenzentren zwar gerne weniger Strom verbrauchen würde, aber die Umstellung auf eine andere CPU Architektur scheuen, wird man dort gerne dagegen argumentieren, dass ja bald von Intel ähnlich effiziente Server- CPUs kommen werden. Deshalb gibt Intel da so offen Auskunft, wenn man schon verspätet ist und es noch nicht mit realen Produkten beweisen kann. Intel sieht ARM als Hauptkonkurrenten und den muss man angreifen indem man ihm dort das Wasser abgräbt, wo er besser ist. Intel kann das vor allem über die modernste Fertigung erreichen.

Krautmaster schrieb:
Wie stellst du dir denn eine IPC Zusatzleistung vor?
Steht doch da: Flaschenhälse in der Architektur beseitigen, große Sprünge sind ja kaum möglich, je effizienter man wird und bei jeder Generation 3 bis 5% sind am Ende über mehrere Generationen auch nicht so wenig. Dazu denn die Zusatzbefehle, die mehr Daten auf einmal verarbeiten auf die die gleiche Operation ausgeführt wird.

Krautmaster schrieb:
Das geht heute fast nur noch über mehr Kerne + Takt
Wie schon gesagt wurde, hat es mit dem Takt nichts zu tun und auch nicht mit der Anzahl der Kerne, das gilt pro Kern. Es ist praktisch sogar so, dass die IPC schlechter werden, je höher der Takt ist, weil die CPU mehr Takte warten muss um ihre Daten aus den langsameren Speichern (L2, L3, RAM) zu bekommen und auch, je mehr Kerne sie hat, weil es öfter Kollisionen bei diesen Zugriffen gibt, die die einzelnen Kerne zu noch mehr Wartezyklen verdammen. Dies zu minimieren, bringt daher praktisch auch mehr IPCs.
Krautmaster schrieb:
Rein über Architektur ist da nur noch wenig zu holen.
Bei Intel wohl kaum noch, außer man ändert war richtig Großes. AMDs Architektur hat da noch viel Potential, es soll ja angeblich Ende 2015 noch mal was kommen, aber warten wir es ab.
Krautmaster schrieb:
Wir reden hier von CPU, nicht von GPU die perfekt über die Breite skalieren.
Auch nicht wirklich, denn auch da sind die Speicherzugriffe das Problem, auch wenn GPUs schnelleren Speicher und breitere Interfaces dafür haben, aber linear skalieren die auch nicht, wenn auch weit besser als CPUs.

Das war ja auch AMDs Ansatz bei den APUs, die Taktraten stoßen irgendwann an einer Mauer wo man sie nicht mehr steigern kann und wenn, dann nur auf Kosten einer unverhältnismäßigen Steigerung der Leistungsaufnahme. Die Skalierung über die Kerne ist bei Server mit viele unabhängigen parallelen Aufgaben machbar, aber für einzelne Aufgabe selbst bei gutem Multithreading auch begrenzt, weil eben nicht alle gut parallel ablaufen kann, spätestens wenn die Ergebnisse eines Threads in einem anderen gebraucht werden, ist da Schluss. Daher will man eben durch die Integration der GPU in die CPU dieser möglichst viel parallele Aufgaben übertragen was sich sonst nicht lohnt, auch so kleine Aufgaben wo es sich sonst nicht lohnt, wenn man die Daten erst zu eine Graka und wieder zurück ins RAM schaufeln muss. Dazu fehlt nur die SW-Unterstützung und andererseits graben immer mehr Befehlserweiterung dem Ansatz auch das Wasser ab.

Volker schrieb:
Diese kleinen speziellen Details gibs dann zum IDF in 4 Wochen in San Francisco.
Vielleicht rückt Intel ja wieder etwas raus, z.B. wie es mit den maximalen Taktrate aussieht, die scheinen ja geringer als bei Haswell zu sein, wenn man die Desktop Spitzenmodelle weiter auf Haswell Basis belässt.

Volker schrieb:
Adieses häppchenweise ist einerseits Fluch (immer wieder das Thema rauskramen, PR für Hersteller)
Deswegen machen die Hersteller das ja auch :D

Hauro schrieb:
Das glaube ich kaum, soll doch schon in Q2 2015 Skylake erscheinen. Die CPU macht dann schon wegen des Chipsatzes mehr Sinn. Volker, ihr könntet auch mal fragen, wann Intel denn gedankte 10Gbit Ethernet in die Chipsätze zu integrieren. Es gab ja mal Gerüchte, dass es mit Skylake der Fall sein würde und wenn die PCIe 3.0 Anbindung sich bewahrheitet, wäre die Bandbreite ja auch vorhanden.

Hauro schrieb:
Setzt vermutlich einen x97 Chipsatz vorraus.
Nein, X Chipsätze dürfte nur für den S.2011(-n) kommen, so wie der X99 der für den S. 2011-3 kommen wird. Z ist die Spitzen der Mainstream Chipsätze.

Herdware schrieb:
andererseits dauert es halt immer viele Jahre, bis solche Erweiterungen auch in der Standardsoftware Einzug halten.
Jein, Intel ist da mit seinen Compilern und Bibliotheken immer recht flott, auch ein klarer Vorteil gegenüber AMD, die das Thema immer sehr vernachlässigt haben. Aber je mehr SW heute nicht mehr wirklich in Maschinencode kompiliert wird, sondern wie .Net oder Java zur Laufzeit über Interpreter läuft, umso kleiner wird das Problem.

Herdware schrieb:
Hätte man vor 20 Jahren jemandem erzählt, dass ein paar Jahre später normale Desktop-CPUs TDPs von fast 200W erreichen
Fast 200? AMD hat Desktop CPUs mit einer TDP von 220W im Angebot :freak:

Herdware schrieb:
Mal eben die TDP des Top-Modelle zu verdoppeln, ist heutzutage jedenfalls einfach nicht mehr drin.
Dafür sind die Werte auch schon zu hoch und vor allem bekommt man die Leistung, die ja bei kleineren Strukturen auch immer konzentrierter an kleinen Stellen auftritt, auch gar nicht so leicht weg. Umso unverständlicher, dass Intel auf WLP setzt statt die Heatspreader weiterhin zu verlöten.

KaHaKa schrieb:
Es gibt neue AMD APUs? Was hab' ich verpasst? ;) einen solchen Test würde ich auf jeden Fall auch begrüßen!
Nichts besonders, die alten Regel, dass der CPU Teil Intel nicht das Wasser reichen kann aber die iGPU und vor allem die Treiberunterstützung dafür besser sind, gilt noch immer.

Krautmaster schrieb:
Letzteres, bezogen auf die ganze CPU, wird eben hauptsächlich durch mehr Kerne realisiert.
Bezogen auf die ganze CPU, aber meines Wissens bezieht man die immer auf einen Kern (Thread).

Die Ausführungen von Wahlze bzgl. Kosten und Zeitrahmen für die Einführung von 450mm Wafern halt ich für weitaus realistischer als die von CD. Ziel ist es ja am Ende die Kosten zu senken, indem man pro Bearbeitungsschritt mehr Chips herstellt, man macht es also nicht wirklich wegen der paar Chips am Rand. Die Tendenz geht halt in die 3. Dimension und dafür werden nun einmal noch mehr Schritt nötig, wird reden da von Hunderten, wenn nicht gar bei CPUs schon von Tausenden. Damit verschieben sich die Fertigungskosten pro Wafer von der reinen Grundfläche immer mehr zu den Bearbeitungsschritten und dies kann man nur kompensieren, wenn man die Wafer vergrößert und so Schritt dann mehr Chips fertigt.

Der springende Punkt ist aber, und das wird auch irgendwann die weitere Verkleinerung der Strukturen betreffen, ob man diese Investitionen noch stemmen und wieder innerhalb einer überschaubaren Zeit einspielen kann.

Bzgl. der Angaben zu den Fertigungsstrukturen gehe ich mit bensen einher, denn das ist ein sehr komplexes Thema und es gibt so viele verschiedene Abstände, da kann man kaum den einen oder anderen als Referenz definieren. Daher nennen die Hersteller meist die kleinste Breite die irgendwo realisiert wurde. Das ist bei NANDs ja nicht anders, da bedeutet Xnm ja auch nicht automatisch, dass eine Zelle Xnm x Xnm groß ist, meist sind es eher Xnm x Ynm oder noch mehr. Entscheidender ist aber am Ende immer welche Eigenschaften das Produkt hat, nicht wie es genau gefertigt ist.
 
Ich hab weder zu den Kosten noch zum Zeitrahmen was gesagt. Wahlze hat das ganze dann weiter ausgeführt.
Wenn die Fertigung mit größeren Waferdurchmessern dann mal rund läuft ist es natürlich lukrativer weil man pro Wafer und damit pro Arbeitsschritt mehr Chips bearbeiten kann und man in Relation zur Gesamtfläche weniger Verschnitt (vom Rand) hat, den man wegwerfen muss weil da keine Chips mehr drauf platzen haben (immerhin probiert man möglichst viele kleine eckige Sachen auf was großem Rundem zu platzieren).

Und das Züchtungstempo ist (in erster Näherung*) nur von der Ziehgeschwindigkeit abhängig, mit der man den Ingot aus der Schmelze zieht. Deshalb gewinnt man auch dort mit größeren Durchmesser nochmal dazu, da man einfach mehr Masse in der selben Zeit züchten kann. Und wenn eins lange dauert, dann die Züchtung: die Ziehraten für Si liegen im Bereich ein- bis zweistelliger mm pro Stunde. Und so ein Ingot wird gerne mal 1 bis 2 m lang, kann man sich also denken wie lang das dauert.

*bei einer genaueren Betrachtung nimmt die maximale Ziehgeschwindigkeit mit der Wurzel des Ingotdurchmessers ab, auf der anderen Seite steigt die Ingotmasse aber mit dem Quadrat des Durchmessers, von daher wird dieser Effekt mehr als kompensiert.
 
Zuletzt bearbeitet:
Holt schrieb:
Wie schon gesagt wurde, hat es mit dem Takt nichts zu tun und auch nicht mit der Anzahl der Kerne, das gilt pro Kern.

Holt schrieb:
Es ist praktisch sogar so, dass die IPC schlechter werden, je höher der Takt ist, weil die CPU mehr Takte warten muss um ihre Daten aus den langsameren Speichern (L2, L3, RAM) zu bekommen und auch, je mehr Kerne sie hat, weil es öfter Kollisionen bei diesen Zugriffen gibt, die die einzelnen Kerne zu noch mehr Wartezyklen verdammen. Dies zu minimieren, bringt daher praktisch auch mehr IPCs.

Irgendwas passt hier in der Logik nicht. Instruktionen pro Taktzyklus. Da ist es egal, ob die Frequenz nun 2 oder 2000 Hz beträgt. Die Anzahl der verarbeitbaren Instruktionen pro Zyklus bleibt gleich. Die Beschreibung im 2. Quote ist die Latenz der Speicherhierarchie.

Hier mal ein Bsp. von Wiki:

Dieser Wert dient als Maßstab für die Effizienz einer Architektur, weil das Produkt aus IPC und Taktfrequenz die Anzahl der pro Sekunde ausgeführten Befehle (Instruktionen pro Sekunde) ergibt. So kann ein Prozessor mit IPC=1 und f=500 MHz theoretisch genauso viele Befehle ausführen wie ein zweiter mit IPC=0,5 und f=1000 MHz. Allerdings schränken Faktoren wie das Pipelining die Vergleichbarkeit erheblich ein.

Also IPC, fester Wert, vorgegeben durch die Architektur. Frequenz, veränderbar. Größere Frequenz * (fester) IPC = Viele Instruktionen pro Sekunde.
 
Mr.Seymour Buds schrieb:
Also IPC, fester Wert, vorgegeben durch die Architektur. Frequenz, veränderbar. Größere Frequenz * (fester) IPC = Viele Instruktionen pro Sekunde.
Ja, in der Theorie ist das so. Aber stell dies vor, die CPU X braucht für Befehl A 3 Zyklen, CPU Y nur 2. Für Befehl B braucht CPU A nur einen Zyklus, CPU B 2. Dann sind diese Theoretisch gleich schnell, weil sie ja im Schnitt beide pro Befehl 2 Zyklen brauchen.

Praktisch hängt die Geschwindigkeit aber davon ab, wie oft Befehl A und Befehl B im Programm vorkommen und wenn die eine öfter auf die Daten aus dem verhältnismäßig langsamen RAM waren muss, dann sieht es für sie noch schlechter aus. Deshalb habe ich auch das Wort "praktisch" dazu geschrieben, denn das ist ein feiner und oft nicht so kleiner Unterschied und Intels ganzes HT beruht alleine darauf, weshalb es bei den alten Pentium und den kleinen Atoms mit In-Order Architektur auch viel mehr Gewinn gebracht hat als bei den moderneren Out-of-Order Architekturen.
Mr.Seymour Buds schrieb:
Irgendwas passt hier in der Logik nicht. Instruktionen pro Taktzyklus. Da ist es egal, ob die Frequenz nun 2 oder 2000 Hz beträgt. Die Anzahl der verarbeitbaren Instruktionen pro Zyklus bleibt gleich. Die Beschreibung im 2. Quote ist die Latenz der Speicherhierarchie.
Genau diese Latenz der Speicherhierarchie sorgt aber für einen noch größeren Unterschied zwischen den theoretisch möglichen IPC und den praktisch erreichten. Die Cycles zählen ja weiter, selbst wenn der Kern runtertaktet, aber die Instruktionen können eben erst beendet werden, wenn die Daten dafür auch vorliegen, praktisch nehmen als die IPC bei höheren Takten stärker ab als bei geringen Taktfrequenzen, wenn die Gap der Speicherhierarchien kleiner ausfallen.

Hoffentlich hast Du nun den Unterschied in der theoretischen Betrachtung der IPC laut Lehrbuch und Wiki zu den praktisch erzielten IPCs verstanden. Darüber welche der beiden die Abarbeitungszeit Deines Programms am Ende mehr beeinflusst, brauchen wir hoffentlich nicht zu diskutieren.
 
Zurück
Oben