News Moore's Law lebt (noch): Skalierung von sechs Intel-CPU-Generationen im Detail

filisnhrnsn schrieb:
Volker, lies doch bitte nochmal nach, was Moores Gesetz wirklich aussagt. Wenn du hier solche falschen Dinge schreibst, glauben das die ungebildeten Leser vielleicht sogar. Es geht mitnichten um die Transistorzahl. Wie kommst du denn darauf? Es geht um deren Dichte. Du musst also die Anzahl und die Fläche ins Verhältnis setzen. Die 45nm CPUs haben, deinen Zahlen zufolge, eine mittlere Transistordichte von 3,07 Mio Transistoren / mm². Die mit 32nm haben 4,66, die 22nm haben 7,78 und 14nm haben 15. Bei einer Verdopplung mit jedem Fertigungssprung müsste man aber bei 3,07*2*2*2=24,57 sein.
Erbsenzählerei. Im Artikel wird oft genug auf die benötigte Fläche und die Transistorzahl eingegangen. Dass dies im Verhältnis steht, dürfte für die denkenden Leser doch trivial sein.

Btw. würde ich diese Rechnung nicht zu ernst nehmen. Wie im Artikel auch erwähnt wird, wurde das Moore'sche Law immer wieder leicht angepasst. Die Verdopplung alle 2 Jahre bzw. mit jeder neuen Fertigungs-Technik ist eine ungefähr-Angabe und kein "genau 2".
 
Das lässt sich genauso auf die consumer-CPUs übertragen. Die aktuelle Skylake-CPU ist so winzig, da bin ich schon froh dass sie die Hitze überhaupt aus dem die bekommen. Verglichen mit Sandy ist da massig Platz unter'm HS. Dass das package nicht völlig verschwindet liegt nur an der GPU und dem Speichercontroller, die sind stetig gewachsen.
 
SonGuko schrieb:
Ich habe immer wieder das gefuehl, dass die dieses "gesetzt" als mittel nutzen um dem kunden vorzugaukeln, man tue was moeglich ist. Die entwicklung wird zugunsten von verkaufszahlen verlangsamt ...
Wahrscheinlich wissen 99,99 % der Computeruser nicht einmal, dass es das Gesetz gibt. Geschweige was es bedeuten soll. Und können damit nichts anfangen.

Ja, mit sowas gaukelt man den Leuten dann was vor. Eine fehlerfreie Logik.
 
@CCIBS
Ich denke da auch an die Hauptabnehmer von CPUs, Großfirmen wie Apple, Dell, EMC, (HP), ... Die chiphersteller koennten locker eine Stufe überspringen, dieses Gesetz hilft den Chipherstellern künstliche Verlangsamung zu rechtfertigen.
 
Ich hätte gerne ein paar taktbereinigte Benchmarks gesehen, mit jeweils einer CPU aus der jeweiligen Generation.
 
Mr.Kaijudo schrieb:
die Preiserhöhung lebt

Ganz im Gegenteil, noch nie konntest du dir so günstig einen durchschnittlichen PC, der alle erdenklichen Aufgaben zufriedenstellend meistert, zusammen schrauben wie heute. Wer natürlich eine Titan-X will und sich dann beschwert, das sie teurer ist als High-End Hardware von vor 15 Jahren, der ist selbst schuld ;)

Edit, wobei...für meine GF2Ultra habe ich damals auch fluffige 1499DM hingelegt :D Möge sie in frieden Ruhen, geiles Teil :king:
 
Zuletzt bearbeitet:
würde intel die igpu nicht so aufblasen jedes modell, dann wären die cpu geschwindigkeit im desktop markt nicht so stagniert.
 
Guter Artikel, sehr informativ, weiter so :)
 
Moores Irrtum bestand darin, eine zeitlich begrenzte Regelmäßigkeit als Gesetz zu interpretieren.
Es ist nun mal kein Gesetz im Sinne eines physikalischen Naturgesetzes, welches für die Ewigkeit gilt.
 
Zuletzt bearbeitet:
Moore's Law lebt als noch, ist ja schön und gut. Aber was heißt das? Früher war es möglich, durch einen Wechsel von Pentium III auf Pentium IV, von Athlon XP auf Athlon 64, von Core 2 Duo auf Core i etc. einen deutlichen Performancesprung zu gewinnen. Alle 2-3 Jahre konnte man nur durch den Austausch von CPU und damit meist auch Mainboard einen deutlichen Schritt machen - und zwar in fast allen Anwendungsbereichen.
Heute reicht ein 6 Jahre altes Grundgerüst aus CPU+MB+RAM noch für 90% aller Anwender im Consumer-Markt aus und eine Aufrüstung oder ein Neukauf bringt leistungsmäßig fast nichts. Wer hier im Forum überwiegend spielt und noch einen Sandy Bridge hat, wird kaum aufrüsten, eben solche sind für Internet + Office fast immer overpowered - obwohl heute bereits durch zig Generationen "abgelöst".
Scheinbar bezieht sich Moore's Law praktisch heute nur noch auf Workstations und Server im Profibereich.
 
digitalangel18 schrieb:
Ganz im Gegenteil, noch nie konntest du dir so günstig einen durchschnittlichen PC, der alle erdenklichen Aufgaben zufriedenstellend meistert, zusammen schrauben wie heute. Wer natürlich eine Titan-X will und sich dann beschwert, das sie teurer ist als High-End Hardware von vor 15 Jahren, der ist selbst schuld ;)

Edit, wobei...für meine GF2Ultra habe ich damals auch fluffige 1499DM hingelegt :D Möge sie in frieden Ruhen, geiles Teil :king:

Jein, kann man so nicht sagen. Ich habe zb für meine GF2U 999DM bezahlt, also ca 500€, nicht inflations- bereinigt. Aber genaus soviel wie in etwa mein aller erster PC mit meinem Athlon und TNT2 gekostet hat. Damit konnte man schon Quake3 auf niedrigen Details spielen. Willst du heute aktuelle Titel wie Division oder Witcher spielen, musst du allerdings auch heute noch deutlich mehr als 500€ investieren.

Das einzige was bei weitem nicht mehr so schlimm ist, ist der Wertverfall. Da einfach die Leistungssprünge nicht mehr so hoch sind. So kann man heute mit einer cpu gute 5-10 Jahre überdauern. Mit einer mittelklassen Karte kommt man auch schon fast 5 Jahre über die runden. Mann muss sich nicht wie früher alle 2-3 Jahre 1000€ investieren. Nach 5 Jahren kaufe ich mir jetzt meine nächste GPU.... die sogar etwas mehr kosten darf (300€) als meine letzte (170€). Und selbst die hat jetzt 5 Jahre durch gehalten. Gerade die Grafiksprünge von Low, über Medium bis Ultra sind sehr überschaubar geworden. So das der Anreiz in Highend zu investieren für mich einfach deutlich abgenommen hat. LEGO gibt es heute quasi nicht mehr. Wen man mit Quake aufgewachsen ist, dann sieht selbst Battlefield auf Low noch immer Bombe aus.

Einmal gekauft, muss man in den PC kaum noch Geld stecken. Habe zuletzt vor 2 Jahren eine SSD investiert. Jetzt folgt mal wieder eine neue GPU. Ende des Jahres kommt Zen mit neuen Speicher und Board plus neuem Gehäuse.
Daher im großen und ganzen, zahlt man viel weniger als früher wo man eigentlich gezwungen war, alle 2 Jahre seinen PC komplett General zu überholen.

Umgekehrt mehrt man aber auch, das die Produktpalette nach oben gedehent wird, und man immer weniger zusätzlich bekommt. Wenn man überlegt wie lange 28nm auf den Markt ist, wieviele Generationen dort rebrandet wurden und wie oft die Kuh gemolken wurde, bis endlich mal etwas wikrlich neues kommt. Eine Titan für über 1000€, so etwas gab es früher einfach nicht, und es ist ja nicht nur die titan die dann teuer ist. Auch die 980ti, 980 gibt es nicht für lau. Wärend man auf eine 960ti noch immer vergebens wartet.
 
Zuletzt bearbeitet:
Das Moorsche Gesetz ist doch gar kein Gesetz...Warum soll man sich daran halten sollen? Ich finde hier wird eine alte Technologie bis zum letzten gemolken. Gibt es keine neue Technologien, mit denen man wieder Hyperpower unter der PC-Haube bekommen könnte? Wo ist der Quantencomputer?
 
SonGuko schrieb:
@CCIBS
Ich denke da auch an die Hauptabnehmer von CPUs, Großfirmen wie Apple, Dell, EMC, (HP), ... Die chiphersteller koennten locker eine Stufe überspringen, dieses Gesetz hilft den Chipherstellern künstliche Verlangsamung zu rechtfertigen.

Ja sicher kann ein kompletter Node übersprungen werden wenn der nächste Node noch gar nicht entwickelt wurde ;)

Z.B. für 7nm wird im Moment noch die Grundlagenforschung betrieben. Es ist schlichtweg im Moment gar nicht möglich Chips in 7nm zu produzieren.

Mr.Smith schrieb:
würde intel die igpu nicht so aufblasen jedes modell, dann wären die cpu geschwindigkeit im desktop markt nicht so stagniert.

Das hat nichts mit der iGPU zu tun sondern damit das keine Desktop CPU mehr entwickelt werden, sondern Notebook CPU auf einen Desktop Sockel verkauft werden. 70+% aller Computer sind Notebooks. Für die paar Desktops lohnt es sich gar nicht mehr was eigenes zu entwickeln. Der Schwerpunkt liegt seit Jahren auf Senkung der TDP und nicht bei der Steigerung der Rechenleistung. Mit schnelleren CPU lässt sich kein Blumentopf mehr gewinnen. Mit flacher Notebooks die länger laufen wird heute das Geld verdient.
 
@SaschaHa: Nein, ist keine Erbsenzählerei. Das wäre wirklich das einzig nötige Diagramm gewesen und dann würde man sehen, wie weit man davon entfernt ist. Selbst mit ganz viel gutem Willen (24 Monate als Zeitraum, nur die 3 vollständigen Zyklen seit Nehalem werden betrachtet) müssten heutige Chips über 22 Mio Transistoren je mm2 bieten.

Nehalem-EP: 2,779
Broadwell-EP: 15,789
theoretisch: 22,236

Das entspricht fast 50% mehr, als man tatsächlich bietet! Alle gezeigten Diagramme täuschen vor, dass man Moores Law erfüllt, dabei ist das nicht im Ansatz der Fall. Dass Intel uns das glauben machen will verstehe ich, aber warum das hier offensichtlich unbesehen von Volker so übernommen wurde ist bestenfalls mangelhafte Arbeit, so Leid es mir tut.

Niemand kann ernsthaft erwarten, dass sich Moores Prognose ewig realisieren lässt, aber dann muss man das doch auch so schreiben?
 
Von Leonidas gibt es dazu einen interessanten Kommentar im 3dcenter:

3dcenter schrieb:
.....welche sich mit der Weiterexistenz von "Moore's Law" beschäftigen – bewiesen an Intels neuen Broadwell-EP. Denn bei diesen Server-Prozessoren zeigt Intel, das man durchaus klar mehr Performance in dieselbe Chipfläche stecken kann – wenn eben die Zielsetzung wirklich in mehr Performance liegt und wenn der Weg dahin (über mehr Rechenkerne) auch von der Software (im Serverbereich) mitgetragen wird. Im Consumer-Markt ist schließlich nicht nur die schwache Wettbewerbssituation eine Bremse für Moore's Law – sondern sicherlich auch die Software, welche nur in eher wenigen Fällen mehr als zwei bis maximal vier Rechenkerne ausnutzen kann. Intels Consumer-Prozessoren haben sich daher zuletzt stark auf Wirtschaftlichkeit (zugunsten rein von Intel) sowie die integrierte Grafiklösung konzentriert, kaum aber auf mehr Performance. Die damit aufgekommende eher schwache Entwicklung der CPU-Performance wurde gern mal als eine Schwächung von Moore's Law angesehen – Broadwell-EP rückt dies eindrucksvoll wieder zurecht und zeigt, das bei entsprechendem Willen diese Gesetzmäßigkeit auch im CPU-Bereich noch nicht am Ende ist.
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-123-april-2016
 
Zurück
Oben