Roadmap Intel CPUs

>|Sh4d0w|<

Commander
Registriert
Jan. 2009
Beiträge
2.532
Hallo,
weiß man weshalb die letzten Intel Prozessoren im Vergleich zu den Vorgängern so schlecht abschneiden? Ich meine, da ist ja nahezu kaum eine Verbesserung hinsichtlich der Performance zu sehen. Hier und dort mal bessere Energieeffizienz, aber dann doch nur so 10 % Leistungszuwachs. Bei dem zuletzt veröffentlichten Vorabtests der i7-7700 wird das ja auch so in die Richtung laufen. Fehlende Konkurrenz? Vorbereitung auf eine kommened Monster-CPU?
Meine Hoffnungen liegen auf Cannonlake in Q3/Q4 2017, da ich mir wieder mal ne neue CPU kaufen möchte.
 
Ich tippe auf fehlende Konkurrenz. Wenn keine Investitionen in Entwicklung und Innovationen von nöten sind, dann werden sie auch nicht gemacht. Diese Mäuseschritte werden bleiben bis AMD eine Antwort liefert.
 
Eindeutig fehlende Konkurrenz.
Wozu große Neuheiten bringen (Mehr Kerne, etc) wenn die Leute eh nur bei dir kaufen können?
Da reicht es ab und zu etwas mehr Leistung zu bringen und die Effiziens zu verbessern.
Ich persönlich hoffe ja stark auf Zen und das es wieder einen stärkeren Konkurrenzdruck aufbaut.
 
Es liegt nicht an der Konkurrenz per se.

Ein Core 2 Duo ist ein verbesserter Pentium 3 von 1995 der eben ein verbessterer Pentium war. Der Pentium 4 war hingegen völlig neu und ein Disaster auf lange Sicht, deswegen der Rückschritt auf die Core Architektur: nehmen wir einen Pentium und machen ein Update davon.
Nehalem war dann ein C2D hauptsächlich mit IMC. Sandy Bridge war ein Nehalem mit Verbesserungen von Pentium 4 (MikroOp Cache und internem Ringbus). Seit Sandy Bridge, auch schon 5 Jahre her, wurde nur einzelne Dinge gemacht wie interne kleine Caches, Sprungvorhersage vergrößert, einzelne Execution Ports dazugebaut und natürlich die Steigerung durch neue kleinere Herstellungsprozesse. Die CPU Architektur ist seit dem die selbe.

Diese Änderungen seit Sandy Bridge sind aber praktisch ausgelutscht: es bringt immer weniger diese Caches noch größer zu machen oder noch einen Port dranzukleben: der erste zussätzliche Port brachte vielleicht 20%, der nächste 5% und der 3. neue Port eben nur noch 1% oder gar nix.
Selbst die 5-10% sind noch massiv geschönt, es waren Taktbereinigt nie mehr als 5% seit Sandy. Kaby Lake bringt nur den höheren Takt. Die CPU ist die gleiche.

Um weitere Steigerungen zu bekommen müsste Intel wieder eine neue CPU erstellen. Das ist hoch risikoreich. Alle der letzten CPUs sind eigentlich gefloppt, massive und total gefloppt: Milliardenverlust. Milliarden. Jedesmal.
Die letzte Änderung die wirklich erfolgreich war in der Architektur war der Pentium vor 20 Jahren. Damals wurde bei x86 RISC eingeführt.

Oder eben es schaffen den Takt hochzudrehen, aber: Moore's Gesetz ist tot, in jeder Hinsicht, die richtigen Zitate und die falschen. Um schneller zu werden muss ein neues Material und ein neuer Prozess her. CMOS auf Silizium ist auch ausgelutscht.
 
Ist doch schon schon seit fast 10 Jahren (seit Core2Duo) so das nix geht. Das ist pro Jahr/Genration nur zwischen 5 - 20 % Minileistungssprünge die man so erreicht.
Bei AMD sieht es auch nicht besser aus, die bringen zwar nicht jedes Jahr ne neue CPU raus, untern Strich sind es dort Pro Jahr auch nur wenige %.
 
HominiLupus schrieb:
Es liegt nicht an der Konkurrenz per se.
Dem und deiner Ausführung kann ich nur zustimmen. Die Entwicklung ist ausgereizt, daher kann auch keine Konkurrenz an Intel ohne Weiteres vorbeiziehen sondern höchstens aufschließen.

Man müsste ganz andere Konzepte verfolgen, wie Germanium oder Gallium statt Silizium
https://de.wikipedia.org/wiki/Siliciumgermanium
http://www.pro-physik.de/details/news/1112083/Von_Silizium_zum_Germanium.html

Oder Licht statt Elektronen
https://de.wikipedia.org/wiki/Optischer_Computer
http://www.wissenschaft.de/technik-...207388/Optischer-Computer-arbeitet-mit-Licht/

Oder Quantencomputer:
https://de.wikipedia.org/wiki/Quantencomputer
 
>|Sh4d0w|< schrieb:
weiß man weshalb die letzten Intel Prozessoren im Vergleich zu den Vorgängern so schlecht abschneiden? Ich meine, da ist ja nahezu kaum eine Verbesserung hinsichtlich der Performance zu sehen.
In Hames vielleicht, weil die meisten Games das Potential der CPUs kaum ausnutzen, bei richtigen CPU Benchmarks wie Cinebench hat sich schon einiges getan.
>|Sh4d0w|< schrieb:
Hier und dort mal bessere Energieeffizienz
Mit jedem Shrink sogar deutlich was.
>|Sh4d0w|< schrieb:
Fehlende Konkurrenz?
Wohl weniger, aber Leistungssteigerungen gegen nur über den Takt oder die IPC, nur kann man den Takt kaum noch steigern, bei 5GHz scheint so ungefähr das Limit der aktuellen Technologie zu sein und nur bei sehr viel Leistungsaufnahme geht noch mehr, was für Extremübertakter machbar sein mag, aber nicht für den Alltag taugt und die IPC sind bei Intel schon extrem hoch, da geht umso weniger, je öher das Niveau schon ist.
>|Sh4d0w|< schrieb:
Vorbereitung auf eine kommened Monster-CPU?
Bei den Server CPUs geht der Weg zu immer mehr Kernen und deren Zahl ist über die Generationen schon massiv gestiegen. Bei Skylake wird es bis zu 32 Kerne geben. Nur nutzt die typische SW von Heimanwendern kaum mehr als 4 Kerne, künftig vielleicht auch mal bis zu 8, aber viel SW ist immer noch Singlethread und nicht jedes Problem lässt sich überhaupt parallel abarbeiten. Für den Heimanwender sind daher wenige schnelle Kerne immer noch sinnvoller als viele die aber dann eher langsam sind, damit die Leistungsaufnahme im Rahmen bleibt.

Natürlich gibt es auch immer wieder Meldungen um revolutionäre neue Technologien die die aktuellen Halbleiter ablösen könnten, aber derzeit ist das alles noch Zukunftsmusik und weit von konkreten Anwendungen entfernt. Der nächste Hammer von Intel dürften FPGA in der CPU sein, womit sich die SW dann ihre eigenen Befehlserweiterungen schaffen kann, statt darauf zu warten das der CPU Hersteller welche entwickelt und implementiert. Um davon zu profitieren muss die SW aber natürlich angepasst werden, was gewöhnlich immer erst mit einer stattlichen Verzögerung und selbst dann nur bei einigen Anwendungen passiert.
 
Holt schrieb:
Der nächste Hammer von Intel dürften FPGA in der CPU sein, womit sich die SW dann ihre eigenen Befehlserweiterungen schaffen kann, statt darauf zu warten das der CPU Hersteller welche entwickelt und implementiert. Um davon zu profitieren muss die SW aber natürlich angepasst werden, was gewöhnlich immer erst mit einer stattlichen Verzögerung und selbst dann nur bei einigen Anwendungen passiert.

Ich glaube eher nicht das ein Feature für die Allgemeinheit wird.

Zum einen wird die Konfig von einem FPGA in der Regel einmal beim Stromeinschalten geladen und nicht (bzw. nur recht eingeschränkt) zur Laufzeit. Und wenn jede Software meine würde sie müsste sich hier irgendwas "reinbauen" dann müsste der Scheduler ja bei jedem taskswitch den FPGA neu laden und somit hast du auf einem Multicore-System schon wieder ein Riesen Problem wenn z.B. auf zwei Cores gerade unterschiedliche Anwendungen laufen und jede eine andere Konfig des FPGA haben will und somit eine Core auf den anderen warten muss.
Die Anwendung in einer Consumer-Umgebung kann hier also garnicht ihre eigenen "FPGA-Konfig" mitbringen. Wenn überhaupt könnte hier eventuell der OS-Hersteller hier einige Features implementieren und über seine API dann der restlichen Software zur Verfügung stellen.

Eine ganzen große Große frage ist auch noch wie ist dieser überhaupt exakt mit dem Restsystem verbunden, wo hat der FPGA überhaupt überall zugriff.
Wenn er zu große Zugriffsmöglichkeiten auf das ganze System hat kommt dann auch ganz schnell die Frage auf wie dichtet man das ganz vernünftig gegen Missbrauch ab usw. Weltweit einige Mio. an FPGA die direkten zugriff auf den LAN-Controller haben, da geht schon was...

Ich gehe eher mal davon aus das diese nur in ganz speziellen Rechnern zum Einsatz kommen wird die auf genau eine Anwendung hin optimiert werden. Von einem entsprechenden BIOS wird bei Start die Konfig in den FPGA geladen und dieser stellt dann eher komplexere Funktionen wie Teilimplementierungen von Protocol Stacks, Codecs oder Wissenschaftliche Berechnungen zur Verfügung wo dann größere Datenmengen mit recht wenig CPU-Impact verarbeitet werden können.

Ansonsten sehe ich das auch so wie etliche hier für X86 und im Prinzip auch für alle ähnlichen Architekturen "End of Evolution". Da wird keine Revolution mehr kommen. Das was jetzt alles noch kommt ist reine Kosmetik und Benchmarkoptimierung.
Die Aussage von Intel selbst auf eine Softwareentwickler Konferenz vor einigen Jahren war mal "macht euch keine Hoffnung mehr auf die Hardware die Leistung wird zukünftig nur noch über die breit (mehr Cores) skalieren".
Und somit ist das ganze Dilemma wieder auf Seiten der Softwareentwickler.


Für eine "Revolution" müsste erstmal jemand hergehen und die Gesamte eingefahrene Denke von durch Turing/Neumann/Havart/RISC/SISC geprägten Systemen über Bord werfen und war völlig neues "entwerfen".
Zu der Hardware die da neu entwickelt werden muss, muss ja auch noch eine völlig neue Software (falls man die dann überhaupt noch so nennt) Infrastrktur erstellt werden. Da reden wir dann eher über einige Jahrzehnt als wenige Jahre bis davon vielleicht mal was im Consumer Markt zu sehen wäre.
Aber die "ich klicke mir die Welt auf Framworks zusammen" Fraktion würde garantiert auch einen solchen Ansatz wieder auf "Mindestgeschwindigkeit" herunterbremsen:-)
 
Das stimmt, aber zusammen mit dem 3D XPoint könnte man die Umprogrammierung des FPGA dann schon recht schnell erledigen. Ansonsten müsste eben das OS da entscheiden wer das FPGA nutzen darf und das Programm welches als zweites kommt, bekommt dann eine Ablehnung und muss den alternativen Codepfad mit x86er Befehlen durchlaufen. Aber mal abwarten was da am Ende wirklich kommt, nur wird Intel ja nicht zum Spaß einen der größten FPGA Hersteller übernommen haben.
 
Zurück
Oben