ineffektives CPU Design ?

rusalkin

Cadet 2nd Year
Registriert
Okt. 2011
Beiträge
21
Meines wissen ist der haupt limitierungs faktor bei der ubertaktung die hohe temperatur ausgabe, bei extremer kuehlung ist es moeglich die leistung einer cpu fast zu verdoppeln.


Meine Frage (kling auf anhieb dumm, ich weis):

Warum sind die prozessoren so klein ?
Mir ist schon klar, je kleiner, desto mehr transistoren aber waehre es nicht sinnvoll die moementane architektur der modernen cpus einfach zu skalieren ? So ca auf die groesse eines ganzen motherboards, damit die generierte warme nicht auf so einer kleinen flaeche ensteht, sonder auf eine groessere verteilt wird ?

Wuerde die grossere entfernung der leitbahnen die effiziens wirklich um so vieles veringern ?
 
Das hab ich mich auch schon des öfteren gefragt. Aber bei den hohen Frequenzen sind denke ich lange Leiterbahnen extrem störanfällig.
 
Willst du denn 30000$ für eine CPU bezahlen ?
Die CPUs werde auf Siliziumwafer gedampft, und da kostet jeder ²mm kostbares Geld.
 
hmmm ...

ich würd mal schätzen das Silicium, Germanium und das ganze andere Zeugs verdammt teuer und aufwendig zu produzieren sind :)

ausserdem je kleiner die wege desto höher die effizienz, deswegen wollen die ja immer kleiner werden, aber hier gibts genug fachleute die dir das besser erklären könen als ich ;)
 
Das Problem ist nicht nur die Abwärme. Auch die Spannung sollte man nicht unterschätzen.
Und da schmorrt eher ein Mainboard durch als eine CPU. Ist mir leider schon passiert.
 
Hey,

Also der erste Widerspruch ist: "je kleiner, desto mehr Prozessoren".
Richtiger wäre: trotz immer kleinerer Flächen steigt die Transistoren Anzahl. Das hängt aber einzig mit der Fertigungstechnik zusammen. Grundsätzlich lassen sich auf größere Chips auch mehr Transistoren unterbringen.


Aber nun zur Frage warum die Dinger immer kleiner werden. Neben den schon angebrachten Kostenfaktoren gilt glaube ich auch noch etwas anderes (da klingelt zumindest was, wenn ich an meine TI Vorlesungen zurück denke ^^):
Meines Wissens nach hängt das mit den signallaufzeiten zusammen. Wenn du extrem große Chips baust, dann steigen die Signallaufzeiten zwischen den einzelnen Teilen des Chips an und dies drückt die maximal nutzbare Taktfrequenz nach unten, da du sozusagen im Takt länger warten musst, bis alle Signale an den entsprechenden Transistoren auch anliegen.
Wenn du jetzt den Chip einfach riesig groß baust und trotzdem sehr hoch taktes dann kommt es zu Berechnungs und Steuerfehlern, da benötigte Signale nicht rechtzeitig abgegriffen werden können, bis die nächste Taktflanke kommt.
Heisst: Ja, die großen Entfernungen würden die Performance erheblich beeinflussen.

viele Grüße
Laddi
 
Zuletzt bearbeitet:
- je kleiner, desto mehr cpus passen auf einen wafer, desto weniger material wird gebraucht, desto billiger die herstellung!
- mir ist nicht bekannt, dass cpu hersteller an endkundenübertaktungsversuchen interessiert sind!
Mir ist schon klar, je kleiner, desto mehr transistoren
<- bei dem satz fehlt ein textabschnitt um logisch zu sein!
- je kleiner ein stromkreis, desto weniger spannug braucht er und desto weniger abwärme erzeugt er!
 
Da Spielen verschiedene Faktoren eine Rolle:

1. Geld der Rohstoffe - Siliziumwafer sind richtig teurer
2. Leitungslänge der CPu - desto länger die Leitung desto größer ist 1. der Widerstand - heißt du brauchst mehr spannung auf der CPu - aber auch bei dem Entwurf der CPU muss dann auf verschiedene Störfaktoren geachtet werden - wie ZEIT - je länger die Leitungsbahn für die 0/1 desto störanfälliger wird die programmierung, weil einzelne Rechenteile der CPU auf die Übertragung warten - und die Syncronizität dann drunter leidet.

Um es anschaulicher zu gestalten:
Muss die 1 nen weg von 1mm zurücklegen ist sie schneller dort, also fast zeitgleich mit der ausgabe. der Nächste Teil kann gleich damit rechnen.
Muss die 1 nen weg von 1cm zurücklegen muss das Rechenwerk warten bis die 1 da ist. In der Zwischenzeit liegt sie Brach - das kann wieder probleme in anderen Teilen des Chips hervorrufen.
Ist sehr umgangsprachilch ausgedrückt - besser kanni ch es nicht ;)

Darum: Desto kleiner der DIE und die Transistoren und die Wege unter einander - desto weniger Leistung muss ich reingeben und die CodeBestandteile sind schneller in den verschiedenen segmenten ;)
 
Je größer der Chip, desto länger die Leiterbahnen und desto größer die Kupferverluste. CPUs sind doch heute auch noch nicht vielschichtig aufgebaut. Die Wärme pro Flächeneinheit würde sich doch nur kaum verändern, oder?

Auch die Leiter selbst sind mit steigender Länge fehlerbehafteter. (Vergleich Zugprüfung: Ein kurzer Draht wird immer höhere Zugfestigkeiten aufweisen als ein längerer Draht - statistische Fehlerwahrscheinlichkeit im Gefüge)

EDIT: Ich bin kein Mikrosystemelektrotschniker. Vielleicht ist mein Post auch ziemlich daneben und entspricht nicht der Realität.
 
Zuletzt bearbeitet:
Yinj schrieb:
Ich glaub ne kleinere Fläche lässt sich besser kühlen... aber keine ahung ob das stimmt

Killerphil51 schrieb:
Das widerspricht jeder Logik und physikalischem Gesetz...
Je größer die Fläche, desto mehr verteilt sich die Hitze ist doch logisch..
Daher kann sich die Hitze bei kleinerer Fläche nicht genügend verteilen und staut sich . quasi ein "Hotspot".

Somit muss die Hitze bei einer kleineren Fläche durch aufwendigere Kühlung schneller abtransportiert werden... eine größere Fläche ist in dieser Hinsicht also sehr wohl vorteilhafter bzw. leichter kühlbar..

Ist die Fläche groß genug könnte man eine CPU wahrscheinlich ganz ohne Kühlkörper / Lüfter betreiben, aber dazu müsste die CPU schon ziemlich groß sein.. und der Grund warum es keine riesigen CPU's gibt wurde ja schon genannt.
 
Zuletzt bearbeitet:
Man sollte nicht vergessen, dass ein CPU-Kühler eine Fläche bis zu in der Dimension eines viertel oder halben Quadratmeters haben können. Hier ist also die Fläche zur Abkühlung "versteckt". Wenn auch in Lamellen gefaltet.
 
bulldozer1 schrieb:
Je größer die Fläche, desto mehr verteilt sich die Hitze ist doch logisch..

Aber nehmen wir mal an wir haben eine CPU so groß wie ein MB mit den gleichen Temparaturen und die heutige Kühlleistung. Um diese CPU zu kühlen benötige ich eine bessere kühlverteilung und müsste dadurch mehr Kühlleistung reinstecken?^^

Ich will jetzt nich sagen das dein Argument Flasch ist, aber auf eine kleinen Fläche kann ich viel mehr Kühlleistung rüber bringen als auf eine großen.
 
Der Preis ist natürlich ein entscheidender Faktor bei der Fertigung, hinzu kommen Wiringprobleme, stell dir vor du willst zwei Dinge verbinden, die Leiterbahnen müssen bei diesen Frequenzen sehr genau gefertigt werden (Länge, elektrische Kenngrößen, usw...) würde man eine CPU in DinA4 Größe fertigen, würde man sich erhebliche Leckströme / Leitungswiderstände und andere Seiteneffekte einhandeln, die die Geschwindigkeit gegen eine Schranke trieben.

Zudem ergibt sich das Problem, dass die Lokalität der Software (Speicherhierarchie) dazu führen würde, dass sehr viele interne Transfers zu I/O Wait führen könnten -> ggf. würde das Dinge gar nicht verbessern. Die Entwicklung die Die zu vergrößern laufen ja bereits:

Man geht (ich glaube IBM war es) ja in die Richtung 3D Prozessoren zu bauen -> Also diverse Prozessoren auf einander zu kleben, und dadurch die Leistung massiv zu steigern. Allerdings stelle ich mir bei diesen ganzen Maßnahmen das Place&Route echt abenteuerlich vor! :)

EDIT: Die Hitze tritt in der CPU ja punktuell auf -> euer Anliegen würde sich nur durch gröbere Strukturen realisieren lassen. Das ist ja das wo die Hersteller von weg wollen.

Grüße
 
Zuletzt bearbeitet:
hmm... ok ist jetzt reine fantasie aber als alternative:
was ist mit mikro duennen kapilaren durch die wasser fliesst die die DIE (lol) "durchsieben" ?

vom konzept wie ein menschliches hirn halt.
 
Die Idee mit den Kapilaren gibt es auch schon länger, ich glaube auch da hat IBM mal ein Konzept vorgestellt, allerdings hat man das aus einem (ich weiß ihn nicht) Grund nicht umgesetzt.

Der Punkt wurde ja auch recht klar gemacht: Die Taktschraube ist nicht mehr der Hebel den man anfassen möchte, man möchte gerade durch bessere Branch-Prediction, Simultanes Operanden/Laden/Verarbeiten usw, die Architektur verbessern. Denn der Takt ist terminiert. Irgendwann ist da einfach physikalisch Ende. In Parallelität kann es jedoch prinzipiell beliebig wieder gehen.

Daher auch Many Core Prozessoren, die kategorisch langsamer takten.
 
also werden wir im endeffekt doch eine cpu haben die so gross wie das motherboard ist, nur bestehend aus 1000 cores ?
 
Zurück
Oben