Wie viel schneller können CPUs noch werden?

NoahFle

Lieutenant
Registriert
März 2015
Beiträge
750
Hallo zusammen,

Bei der vor kurzem releasten Intel Skylake Plattform, versprach Intel bis zu 10 Prozent mehr Performance, gegenüber den Haswell vorgängern. In der Praxis sind es allerdings oft nur 1-2 Prozent.

Vergleicht man zb. die beiden High-End consumer CPUs Intel i7 4790k und i7 6700k. Stellt man fest das diese, in den Benchmarks, nahezu die selbe Performance leisten. Genau so sieht es auch bei dem i5 4690k und dem i5 6600k aus.

Bei den Testergebnissen, habe ich mich auf diesen Computer Base Artikel bezugen:
https://www.computerbase.de/artikel...e-test.50852/seite-6#abschnitt_gesamtergebnis

Natürlich rechnen die neuen Prozessoren effizienter, bieten neue Features wie DDR4 Ram und unterstützen neuere Technologien. Aber rein von der Rechenleistung, heben sie sich nicht mehr von ihren direkten Vorgängern ab.

Das Mooresches Gesetz besagt, dass sich alle 18 Monate die anzahl Transistoren einer CPU verdoppeln. Noch halten wir das ein, aber wie lange noch? Wissenschaftler sagen voraus, dass ca. 2020 die physikalischen Grenzen, der Verkleinerung von den Transistoren, erreicht sein wird. Was danach kommt weiß man nicht, vielleicht Quantencomputer?

Was ist eure Meinung zu diesem Thema?
 
NoahFle schrieb:
Das Mooresches Gesetz besagt, dass sich alle 18 Monate die anzahl Transistoren einer CPU verdoppeln. Noch halten wir das ein, aber wie lange noch? Wissenschaftler sagen voraus, dass ca. 2020 die physikalischen Grenzen, der Verkleinerung von den Transistoren, erreicht sein wird. Was danach kommt weiß man nicht, vielleicht Quantencomputer?

Drei H2O-Moleküle übereinander sind 1 nm. Die Strukturabstände sind jetzt bei 14nm angelangt. Bis 10nm geht's noch, aber mit enormem Aufwand. Die Moore'sche Vergrößerung durch Strukturvekleinerung ist am Ende angelangt. Jetzt müßten die Chipflächen oder die Taktfrequenz steigen, was an den Wärmeleeitfähigkeiten der Materialien scheitert. Vielleicht kann man dort noch etwas entwickeln, aber möglicherweise nicht mehr viel.

Was dann kommt? Weiss keiner.
 
Das Moorsche Gesetz ist allein auf CPUs bezogen sowieso schon Makulatur.
Denn ohne die Integration von Grafik-Funktionen würde die Anzahl der Transistoren schon heute fast stagnieren.
Also ich erwarte für die Zukunft in den CPUs mehr Kerne und mehr Threads zur AUsführung, quasi Mega-Parallel.
So ähnlich wie es jetzt schon passiert.
Wenn dann endlich alle Anwendungen damit skalieren würden, wären wir schon Leistungstechnisch gaaaanz woanders.
Und CPU Power kann man ja nie genug haben. Zudem wird VR eine Menge Leistung brauchen...
 
Wie viel von der Leistungssteigerung der CPUs dann in der Praxis ankommt, hängt auch sehr davon an wo der Flaschenhals der jeweiligen Anwendung ist, also wie sehr sie die CPU überhaupt auslasten kann. In den theoretischen Benchmark sieht man daher eben meist mehr Steigerung als in den praktischen Anwendunge, was aber eben nicht bedeutet, dass die CPUs gar nicht schneller werden, sondern nur, dass die reale Software diese eben nicht (vollständig) ausnutzt.

Schneller werden die CPUs ja schon seid Jahren vor allem durch neue Befehlserweiterungen und mehr Kerne, auch wenn das im Consumer Mainstreamsegment so nicht sichtbar wird, aber die Xeons habe ja aktuell schon bis zu 18 Kerne und werden in der nächsten Generation noch mehr haben. Bei den IPC ist zumindest Intel schon auf einem so hohen Niveau, dass sich da nur noch wenig steigern lässt, AMD hat da mehr Potential und wird mit Zen hoffentlich ein gutes Stück weit aufholen. Die Taktfrequenzen stagnieren oder fallen eher mit den neuen, kleineren Fertigungsprozessen, schon weil die Hitze sich damit auf immer kleinere Regionen auf dem Chip konzentriert.
 
Schneller in welchem Zeitraum? 1 Jahr, 10 Jahre, 5000 Jahre?
CPU's kommen ja nicht nur von Intel oder AMD. Es gibt auch andere Hersteller wie IBM z.B. und die sind im Serverbereich stärker als die Intel ( Stand Heute).
Die CPU kann und wird sich in den nächsten 10-20 Jahren gravierend ändern von der Architektur. Also such dir etwas zwischen 0,1% und 1 Mio. % aus.
Heute kann dir das niemand genau beantworten
 
Vielleicht größeren und schnelleren Cache verbauen? Bringt das überhaupt merklich mehr Leistung?(Soll ja bei den Broadwell Prozessoren so sein)
 
Texas Instruments kann heute schnellere Sachen bauen als wie vor 30 Jahren deren Taschenrechner.

Alles eine Frage der Zeit und des Erfindertums ;-)
 
Ich mich auch nicht aus, meine aber mal was von neuen Rohstoff gelesen zu haben, der das Silizium ablösen soll. Ist da was dran?
 
Bartmensch schrieb:
Also ich erwarte für die Zukunft in den CPUs mehr Kerne und mehr Threads zur AUsführung, quasi Mega-Parallel.
So ähnlich wie es jetzt schon passiert.
Wenn dann endlich alle Anwendungen damit skalieren würden, wären wir schon Leistungstechnisch gaaaanz woanders.

Da stimme ich dir zu! Wie auch schon bei den Server CPUs, werden im consumer Bereich, mehr und mehr 6 CPUs mit vielen Kernen kommen. Da es mit der Taktfrequenz auch nicht mehr viel weiter gehen kann.
Wie du schon gesagt hast, haben Anwendungen noch so ihre Probleme, viele Kerne zu nutzen.
Ergänzung ()

NameHere schrieb:
CPU's kommen ja nicht nur von Intel oder AMD. Es gibt auch andere Hersteller wie IBM z.B. und die sind im Serverbereich stärker als die Intel ( Stand Heute).
Ja, aber ich beziehe mich hier auf consumer CPUs.
 
Da wird sich wohl nicht mehr viel tun. Die Strukturen werden kaum noch kleiner werden können. Die sind bereits recht nah an der Grenze, ab wo es von der Quantenmechanik nicht mehr möglich ist, die Bauteile getrennt zu betrachten.
Quanteneffekte folgen zwar gut verstandenen Statistiken, aber es hilft im CPU Bereich, ja nicht zu wissen, in wie vielen Fällen die richtige Antwort aus dem Prozessor kommt;). Und echte Quantenkomputer können nur bei extrem kalten Temperaturen funktionieren. Sowas wird zwar machbar für die NSA usw. aber nicht für Heimanwendungen.
Die Prozessoren haben sicherlich nocht etwas Spielraum für mehr Kerne und etwas bessere Effizienz, aber die Taktraten scheinen nicht mehr weiter wachsen zu können, und der Platzbedarf pro Kern kann sich auch nicht mehr viel weiter verkleinern, ohne beim Cache zu sparen.
Das bedeutet, dass es vermutlich nur über mehr Kerne mehr Leistung geben wird, und das bedeutet höhere Produktionskosten und damit höhere Preise.
Natürlich hoffe ich, dass die Entwickler doch noch neue Lösungen finden, ich hätte so gerne einen spürbaren Leistungsschub für meinen PC;)
 
NoahFle schrieb:
....
Ergänzung ()

Ja, aber ich beziehe mich hier auf consumer CPUs.


Dann musst du dich mit den Salamischeibchen von Intel anfreunden. Den die servieren nur so viel wie sie müssen. Bedeutet, das du in den nächsten Jahren kein 16-kerner oder 100% Leistungszuwachs sehen wirst. Es sei den AMD bringt etwas wirklich schnelleres als Intel im Angebot hat.

Es ist schon Heute möglich viel schnellere CPU's zu bauen, jedoch steht das nicht in Kosten/Nutzen relation. Intel hat definitiv Luft nach oben, nur springen die nur so weit es nötig is, da AMD nicht aus den Puschen kommt
 
Zuletzt bearbeitet:
Ist auch nicht schlimm, dass die Universal-CPUs kaum schneller werden. Schnelles Rechnen ist sowieso selten das Problem. Von den häufiger auftretenden, rechenintensiven Problemen sind die meisten sehr einfach gestrickt und prima parallelisierbar und werden deshalb mit massiv paralleler Spezialhardware erledigt. Gute Beispiele sind 3D-Computergrafik und Videoencoding. Wenns zu langsam ist, nimmt man halt noch ein paar Rechenwerke mehr.

Das kleine bischen, was an rechenintensivem Zeug übrig bleibt, ist entweder sehr komplex (--> schlecht in Spezialhardware machbar) oder schlecht parallelisierbar oder beides. Nur für solche Aufgaben sind schnelle Universal-CPUs ala Skylake überhaupt das Mittel der Wahl. Schaut man sich in dem Bereich um, sind Rechner mit vielen CPUs _extrem_ selten (die HPC-Nische), weil eben des rohe Rechnen viel zu selten der bremsende Punkt ist.

Viel öfter bremst der Fluß der Daten eine schnellere Verarbeitung, nicht ein zu langsames Rechenwerk. Der typische modere, teure Skylake-Prozessor verbringt den Großteil seiner Lebenszeit mit dem Warten auf Arbeit. Er schläft. :)

Stell dir einfach vor, du hättest eine CPU, die alles 10 mal so schnell wie ein Skylake berechnen könnte. Was genau wäre dann bei deiner täglichen Arbeit fühlbar schneller? Laß mich raten: Fast nichts.
 
Zuletzt bearbeitet:
Meines Wissens sind wir von dem Nanometerverfahren her ziemlich weit, weshalb ich denke, dass ungefähr 10nm die Grenze sein wird. Was danach passieren wird? Weiß ziemlich niemand, ich gehe von einer höheren Taktfrequenz, mehr Kernen bzw. Threads und einen höheren Cache aus. Aber rein Physikalisch wird sich denke ich nicht mehr viel ändern.
 
Zuletzt bearbeitet:
mensch183 schrieb:
Stell dir einfach vor, du hättest eine CPU, die alles 10 mal so schnell wie ein Skylake berechnen könnte. Was genau wäre dann bei deiner täglichen Arbeit fühlbar schneller? Laß mich raten: Fast nichts.

Wie kommst du denn auf fast nichts?! Dadurch würde doch alles schneller gehen, wo sonst der Benutzer auf den Rechner wartet. Sei es das Kompilieren von umfangreicheren Projekten, oder auch Tests und statische sowie dynamische Codeanalyse außerdem würde wohl alles schneller werden, was nicht mit der Kernanzahl skaliert.

Außerdem würden, wenn diese Leistung normal wäre, Spiele deutlich realistischer werden. Bessere KI, bessere Physik etc.
 
Wie es weiter geht? Kommt auf den Zeitraum an. Man wird sicherlich in den Jahren vor uns noch die eine oder andere Legierung finden, welche einen höheren Takt bei gleicher Wärmeentwicklung wie aktuell bringt. Aber solche Utopien wie NetBurst und Taktraten im Bereich von 10 GHz wird es mit den Metallen und aktuellen Technologien sicher nicht mehr geben. Auf längere Sicht wird wohl die Steigerung der Rechnenleistung von Graphen und / oder Nanoröhrchen kommen. Was aktuell in Laboren bei Graphen in der Entwicklung ist, deutet auf eine mögliche Steigerung der Taktraten in den Bereich von 100 bis 500 GHz hin.
 
Microarchitekt schrieb:
Man wird sicherlich in den Jahren vor uns noch die eine oder andere Legierung finden, welche einen höheren Takt bei gleicher Wärmeentwicklung wie aktuell bringt. Aber solche Utopien wie NetBurst und Taktraten im Bereich von 10 GHz wird es mit den Metallen und aktuellen Technologien sicher nicht mehr geben.

Zuerst dachte ich ja, dass du einfach nicht weißt, was eine Legierung ist (eine Verbindung von Metallen), dann schreibst du explizit von Metallen. Hat sich da in den letzten Jahren was geändert? So wie ich das in Erinnerung hab sind doch ALLE Metalle Leiter, keine Halbleiter und das gilt mMn auch für Legierungen. Mach ich da nen Denkfehler, oder du?
 
Parallelisierung und Quantencomputer sind in der Theorie schöne Dinge, in der Praxis aber nicht die Lösung eines jeden Problems. Die Aufgabe bzw. ihre Formulierung muss sich dafür eignen. Habe ich beispielsweise einen Algorithmus der immer auf den vorherigen Wert angewiesen ist bringen mir viele Kerne herzlich wenig. Eventuell kann ich das Problem anders betrachten und einen besser parallelisierbaren Ablauf finden, womöglich aber auch nicht. Bei Quantencomputern sieht es nach derzeitigem Wissensstand ganz ähnlich aus. Für Dinge wie das Faktorisierungsproblem eignen sie sich offenbar hervorragend während sie bei anderen Aufgaben keine nennenswerten Laufzeitvorteile gegenüber herkömmlichen CPUs bieten. Hier sehe ich im Vergleich zu dem Kernansatz aber noch mehr Potential durch die richtige Programmierung dieser CPUs.

@Lois
Du meinst bestimmt Graphen. Ich habe ein wenig den Eindruck, dass damit irgendwie alles auf der Welt viel besser werden soll. Je größer im Vorfeld getönt wird, desto skeptischer werde ich. Wie lange erzählt uns HP schon von ReRAM und Memristors, die Flashspeicher antik aussehen lassen sollen. Geplante Markteinführung 2013. :lol:

Bei Graphen warte ich auch erstmal ab ob da wirklich was (brauchbares) kommt. Allgemein klingt ein neuer Rohstoff aber nach einer sehr guten Option zur weiteren Leistungssteigerung.
 
WeisseSmarties schrieb:
Wie kommst du denn auf fast nichts?! Dadurch würde doch alles schneller gehen, wo sonst der Benutzer auf den Rechner wartet.
Nur in den Fällen, in denen tatsächlich auf die CPU gewartet wird. Warten auf I/O (aus CPU-Sicht gesehen, also inklusive Warten aufs RAM) dürfte der weit häufigere Wartegrund sein.

Compilerläufe mit Daten aus dem RAM sind idR CPU-begrenzt, stimmt. Nur schätze mal, wieviel % der Rechenlasten auf PCs solche Lasten sind, also CPU-begrenzt und "lang" dauernd, also sagen wir mal eine ganze Sekunde oder länger, damit wirklich ein Wartegefühl aufkommen kann. Sowas ist selten.
 
Zuletzt bearbeitet:
mensch183 schrieb:
Nur in den Fällen, in denen tatsächlich auf die CPU gewartet wird. Warten auf I/O (aus CPU-Sicht gesehen, also inklusive Warten aufs RAM) dürfte der weit häufigere Wartegrund sein.

Die von mit genannten Fälle sind doch genau solche, wo auf die CPU gewartet wird. Ich merke fast keinen Unterschied wenn ich den RAM nur im Dualchannel laufen lasse, statt Quad. Wenn ich aber den Takt ändere merk ich das fast 1:1. Takt ist übrigens auch besser als Kerne. Wenn ich nur 4 Kerne aktivieren und den Takt auf stock lasse und dann mit entweder 50% mehr Kerne (also 6) oder 50% OC vergleiche, ist der Geschwindigkeitszuwachs durch OC merklich größer.
 
Zurück
Oben