Warum nicht mehr GHZ?

Aljoscha2

Banned
Registriert
Feb. 2006
Beiträge
587
Hallo,

ich wollte fragen, warum die CPU's nur mehr Kerne bekommen und nicht auch
mehr MHZ bzw. GHZ? Warum ist das heute so?
Liegt es etwa daran, dass man mehr GHZ ab ca :3,4 GHz nur schlecht kühlen kann?

Ich habe keinen Plan Leute, klärt mich auf^^
 
würd mich aber auch mal interessieren!
 
Kommt doch demnächst.
 
Hmmm? vermutlich ist die verlustleistung zu gross.
Ich weiss nur das man bei den alten Pentium 4, auf 4-5GHZ gehen konnte?!^^ das problem ist für den grossen strom verbrauch musste man aber dafür 2-3 Kernkfratwerke mehr bauen..^^im land, weil dan die CPU zuuuuu viel strom verbrauchen

Naja but, mein T1100 lauft mit 4,1GHZ( bei 4.38GHz ^^gibts nach 30min bluescreen) und das ist ein 6 kerner..^^

Naja ein Intel kann man aber höher takten. Guter intel OC (Sandy) CPU sollte mit 4,5Ghz gut laufen..^^ (Waku sogar 4,6++)
 
Zuletzt bearbeitet:
Desto höher eine CPU getaktet ist desto ineffizienter wird das Ding, eine normale CPU als Beispiel, fahre eine CPU ein mal mit 2GHz und dazu passender Spannung dann das gleiche mit 4GHz, das Ding wird deutlich mehr verbrauchen, selbst bei gleicher Spannung verbraucht sie ca. das doppelte, weil die Leistungsaufnahme linear skaliert und wenn dann die Spannung kommt ist sowieso alles zu spät in Sachen Stromverbrauch :D


Schönes Beispiel waren die Pentium 4, die Dinger haben mit 1GHz mehr den Verbrauch oft mals locker mehr als verdoppelt, aber waren trotzdem kaum schneller als ein Modell mit weniger Takt ^^
 
das musst du dir so denken wenn der Verbrauch proportional zur takterhöhung steigen würde und somit auch die Leistung wäre es eigentlich egal ob wir mehr Kerne einbauen oder einfach nur den Takt erhöhen, dem ist aber nciht so durch das erhöhen der Frequenz steigt die Leistung nicht Proportional und der Verbrauch erst recht nicht, also wenn man also davon ausgeht das man einen Ein Kern Prozessor mit 6 GHz hat und einen zwei Kernprozessor mit 3 GHz dann wäre in diesem Beispiel der 6 GHzer wesentlich ineffizienter also er verbaucht wesentlich mehr bietet aber im vergleich zum 2 kerner nciht die mehrleistung wie sie ein zweiter Kern liefern würde.
 
Statt mehr Takt zu übermässig viel Energieverschwendung und Abwärme,geht man doch lieber zu mehr Leistung bei gleichem Takt über.Ist der deutlich intelligentere Weg......
 
Es gibt viele Faktoren.
Einer ist, dass die Wellenlänge sinkt, wenn die Frequenz hoch geht.
Und so würden die Pins der Prozessoren als Antenne fungieren (man braucht Wellenlänge/2 um ordenlich zu senden und Wellenlänge/4 um ein mittelträchtiges Signal zu senden, aber das soll ein Prozessor nunmal nicht machen). So würden elektromagnetische Wellen rumgesendet werden und die würden so ziemlich alles stören, was es nicht verträgt (denk an das knacken der Lautsprecher, wenn dein Handy sendet). Deshalb haben PC-Netzteile auch ein Metallgehäuse. ;D

Noch ein Grund wäre, dass die Schaltzeiten der Transistoren zu hoch wird. Und da: f = 1/T ist (Frequenz = 1/Periodendauer) ist die Frequenz begrenzt bzw. der Transistor schaltet nicht mehr komplett durch und es kommen falsche Ergebnisse heraus.
Um Schaltzeiten zu senken, hilft zum Beispiel eine gute Kühlung, deshalb nehmen Extreme-OCler auch eine Stickstoffkühlung (und klar, die Abwärme muss auch weg :D).
 
Wenn die Chiphersteller irgendwann neue Materialien entdecken/entwickeln, die weniger Leckströme erzeugen, wird es auch wieder höhere Taktraten geben.
Momentan geben die Materialien bei den vorhandenen Strukturgrößen einfach nicht her, die Verlustleistung wird einfach zu hoch.
Intel könnte durchaus 5 oder 6 GHz Chips herstellen, dann bräuchte man aber Kühlungen, die 300-500 Watt Verlustleistung aufnehmen können.
Neben der Energieverschwendung wäre auch die Konstruktion (Wasser, Flüssigstickstoff) zu teuer.

Der Ausweg ist halt das Erstellen von Parallelcomputing.
 
Naja, es gibt Dual Cores mit 3,4GHz und bei den alten Core Prozessoren bis 3,6GHz Standardtakt.
Daran war früher noch nicht zu denken. Also die Frequenzen steigen schon bedingt.

Und mit dem nächsten Shrink wird sicher noch etwas mehr möglich sein. Ich hätte auch lieber einen Dual Core mit 4GHz + Standardtakt, als einen Quadcore mit 3GHz. Die meisten meiner Anwenungen sind alle für Single Cores optimiert.
 
Auch die Schaltgeschwindigkeit der Transistoren ist gewissen Grenzen gesetzt.
Diese müssen schließlich mit entsprechender Geschwindigkeit schalten.
Bisher gibt es nur Sparc und IBM Powerprozessoren mit entsprechend hoch getakteten Prozessoren.
 
copernix schrieb:
Auch die Schaltgeschwindigkeit der Transistoren ist gewissen Grenzen gesetzt.
Diese müssen schließlich mit entsprechender Geschwindigkeit schalten.
Bisher gibt es nur Sparc und IBM Powerprozessoren mit entsprechend hoch getakteten Prozessoren.

Die von IBM sogar bis gut 140 GHz (der Vorläufer 100GHz), Problem dabei, es sind Transistoren für Analoge Signale^^
 
Im Grunde ist der Takt durch die Signallaufzeiten begrenzt. Da man die Transistoren, Leiterbahnen usw. nicht beliebgig schnell bzw. klein machen kann, können auch die Signale nicht beliebig schnell vom einen zum anderen Ort gelangen. Somit ist eben irgendwo Schluss; neue Materialien, neue Möglichkeiten.
 
Wenn man die Verlustleistung optimieren kann und damit die Abwärme geht da sicherlich noch mehr. Ich denke die aktuellen Limits (auch 4 GHz galt lange als Barriere (ausser für Extrem-OC, jetzt brachte Intel doch eine CPU) gelten auch und vor allem aus wirtschaftlichen und ergonomischen Gründen. Man kann neue Fertigungsstrecken nicht aus dem Boden stampfen, Chipgröße soll handelbar bleiben, bessere Transistoren-Technologien wurden gerade erst erdacht, Kühllösungen sollen im halbwegs ergonomischen Rahmen bleiben).

Theoretisch geht noch mehr (z.B. hat die Uni von Georgia mit IBM schon einen Transistor bei >500 GHz zum Laufen gebracht [1], aber wer kann schon seinen PC auf 4,5°K kühlen...)

Limits entstehen auch dadurch, dass Elektronen beim State-Wechsel (on/off) die Leiterbahnen "erreichen"/"verlassen" müssen, vereinfacht gesagt: je dicker die Leiterbahn, desto länger dauert das. Daher schaffen Technologien im kleineren Maßstab bessere TDP und geringere Verlustleistung. Dazu muss aber die Chipfertigung kostspielig umgestellt werden, während die Multicore-Technologie im gleichen Fertigungsverfahren deutlich günstiger Leistungszuwachs bringt.

Das gleiche gilt für die Hitzeentwicklung: weitere Verkleinerung ist teurer als Beibehaltung der Fertigungsstandards. Ein Transistor gibt bei jedem Schaltvorgang Hitze ab, schaltet man den selben Transistor doppelt so schnell, gibt er eben entsprechend mehr Hitze ab, die vom Kühler und Lüftern abgeführt werden muss. Auch aus diesem Grund erreicht Extrem-OC unter flüssigem Stickstoff höhere Taktraten bei den gleichen Chips.

Bei Verkleinerung greifen irgendwann auch quantenmechanische Effekte, aber bis dahin ist noch Luft und das könnte Harald Lesch sicher besser erklären :)

[1]: http://www.golem.de/0606/45998.html
 
Parallelisierung bringt einfach mehr als Taktsteigerung. Daher gibt es statt CPUs mit 2 Kernen und 5 Ghz CPUs mit 4 Kernen und 2,5 Ghz. Das ist einfach effizienter als eine Taktsteigerung.
Wahrscheinlich wird sich mittelfristig nicht viel bei den Standardtaktraten tun. Man wird bei maximal 4Ghz bleiben und immer mehr Kerne hinzufügen oder SMT weiter verbessern. Man wird feinere Fertigungsprozesse und geringere Leckströme nicht zur Taktsteigerung nutzen, sondern um mehr Transistoren bei gleichem Takt unterzubringen und dennoch die Leistungsaufnahme nicht zu steigern.
 
Heute geht es eher nach Architektur (die Leistung) bringt.
Ein Pentium IV 3.8 GHZ (1 Kern + 1 virtueller Kern =SMT) ist trotzdem langsamer als ein AMD Athlon 64 FX-55 (1 Kern) 2.6 GHZ. GHZ sagt heute eigentlich gar nichts mehr aus. Natürlich steigt die Leistung (exponentiell auch die Verlustleistung) durch Erhöhung des Taktes (ist aber auch Architekturabhängig). Die Sandy Bridge hat ja
bereits einen erhöhten Takt (im Vergleich zum Vorgänger).
 
Warum nicht mehr GHZ?

Ich frage mich was heutzutage so in Schulen gemacht wird ?
Wird da nur noch Anwesenheit notiert ?:rolleyes:
 
wirklich effizienter ist der multicore-ansatz nicht, da nur sehr selten (z.B bei Multimediabearbeitung) auch mehrere cores voll ausgelastet werden. Ein einzelner 5Ghz core wäre in den meisten Anwendungsfällen schneller.
 
Naja, nur mit Schulwissen wüsste ich das auch nicht. :D
 
Zurück
Oben