Sind wir bald an der Grenze der Physik bei der CPU Fertigung?

  • Ersteller Ersteller Sortepermand
  • Erstellt am Erstellt am
Nun ja. 5 GHz hat man im Prinzip nur in den CPU-Kernen samt L1 + L2-Caches u. die Signalwege sind da höchstens 4 bis 5 mm.
Ich bezweifle stark dass die L3 Caches mit vollem CPU-Takt laufen. L3-Cache hat ohnehin seine eigene Taktdomäne, unabhängig von den CPU-Kernen, wenn dieser von allen Kernen gemeinsam genutzt wird.
Die Kerne müssen ja nicht alle mit derselben Taktfrequenz laufen.

Dass die CPUs v.a. ein Problem mit der Leistungsaufnahme haben zeigen Extrem-Overclocker, denn ein Ryzen 3800x wurde (mit flüssigem Stickstoff) stabil bis auf 5,9 GHz gebracht.
Die Laufzeit der Signale ist also weniger ein Problem, der Energieumsatz bei hohen Taktfrequenzen ist ein Problem. Ca. 300 Watt Abwärme auf der Fläche eines Fingernagels lassen sich nur mit extremen Mittel wegkühlen.
 
Zuletzt bearbeitet:
andi_sco schrieb:
Der (L1) Cache läuft aber nicht synchron zum Kern?
Der wird ziemlich sicher synchron laufen....eventuell auch mit halber Frequenz oder so.....aber wenn man den CPU Takt ändert, ändert sich auch die Cache Latenz und Bandbreite entsprechend.

Ich halte das auch für eine mögliche Erklärung dafür, warum die Zen, zen+ und zen2 CPUs so hart in ein Taktlimit laufen.
 
Keine Ahnung, wie genau das Intel XTU ist, aber beim i5-4210u zeigt er an, das der Takt nicht synchron läuft. Können beim Cache die vollen 2.4GHz sein und der Kern läuft mit x GHZ.
 
andi_sco schrieb:
aber beim i5-4210u zeigt er an, das der Takt nicht synchron läuft. Können beim Cache die vollen 2.4GHz sein und der Kern läuft mit x GHZ.
Kann sein, dass es da anders läuft...da hat der Cache auch seinen eigenen Eintrag bei der Spannung....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
Bei den Silizium basierten CPUs wird man bei der Verkleinerung der Strukturen irgendwann an die theoretischen Grenzen kommen. Ob man da allerdings noch CPUs wirtschaftlich produzieren kann ist die Frage. Der Forschungsaufwand und dann die Einrichtung der eigentlichen Produktionsanlagen wird halt immer teurer. Was nutzt es z.B. einen 1 nm Prozess um zu setzen, wenn die Produktionslage 50 mal teurer als eine aktuelle Anlage ist und dabei von einem 300 oder 450 mm Wafer vielleicht 10 Prozent nutzbare Chips übrig bleiben. Die CPUs wird doch kein Mensch kaufen.

Es gibt ja die Forschung und Ansetze in Richtung Nanotubes und Graphen. Davon dürften dann in Zukunft die Leistungssteigerungen bei der Rechenleistung kommen, wenn man die Technik zu einer kostengünstigen Produktion entwickeln kann.
 
Mickey Mouse schrieb:
Wie gesagt, in der Realität schafft der Strom in einem Halbleiter nicht ganz Lichtgeschwindigkeit.
Naja, "nicht" ganz... :-D In Silizium schafft Strom 100000 m/s, das ist gegenüber der Lichtgeschwindigkeit schon ziemlich lahmarschig. :-D

EDit: Okay, Mono kristallin und nicht verspannt... uniaxial-zugverspannt ist es bestimmt etwas schneller.
 
Zuletzt bearbeitet:
KnolleJupp schrieb:
Irgendwann muss man sich von der altehrwürdigen x86 Architektur verabschieden und was völlig neues entwickeln, was dann schon in sich eine Leistungssteigerung ergibt, unabhängig von der Strukturgröße.
Nur würde das bedeuten das die heutige Software da nicht mehr drauf laufen würde.
Die Befehlsarchitektur wie x86, ARM & Co. ändert nichts an den physikalischen Gegebenheiten. Dürfte mittlerweile auch nicht mehr das riesengroße Problem seit. Seit dem Pentium Pro werden die Befehle ohnehin nur noch im Front-End dekodiert und dann in kleinen Häppchen in die Pipeline geschoben. Der Prozess der Dekodierung kostet zwar Ressourcen, dürfte mittlerweile aber weitgehend aus optimiert sein. Gerade die Loop-Caches (L0) haben ja schon viel gebracht. Und je dicker die Ausführungseinheiten werden, desto weniger wird der Befehlssatz darauf einen realen Einfluss haben. Ein ARM-Chip mit 512-bit-Vektoreinheit dürfte unter Last auch kein Kostverächter sein und auch die großen IBM POWER sind zwar mächtig und flink, spielen mit 225 bis teilweise 300 Watt TDP wie bei der System-z-Serie unter Wasserkühlung auch in einem ganz speziellen Markt.

Die Frage ist dann eher, ob man sich irgendwann von dem Modell Von-Neumann verabschiedet und andere Wege wie Data-Flow-Engines oder vgl. anstrebt, was natürlich grundlegend andere Programmiermodelle erfordert.
____

Viele Grundlagenforschungen finden auch unter dem Deckmantel des Militärs statt. Was da u.U. noch möglich ist und irgendwann in zivilen Anwendungsbereichen auftaucht, steht auf einem anderen Blatt geschrieben.

Die nächsten 10-15 Jahre dürften daher erst mal gesichert sein.
 
  • Gefällt mir
Reaktionen: konkretor
Zurück
Oben