Warum nicht mehr GHZ?

etking schrieb:
wirklich effizienter ist der multicore-ansatz nicht, da nur sehr selten (z.B bei Multimediabearbeitung) auch mehrere cores voll ausgelastet werden. Ein einzelner 5Ghz core wäre in den meisten Anwendungsfällen schneller.

Selbst wenn dem so wäre, würde das effektiver funktionieren, aber nciht effizienter! Die CPU bräuchte die anderen Kerne nicht und hätte damit nur eine geringe Auslastung.

Abgesehen davon, unterstützt heute eigentlich fast alles Multi-Core Systeme.
 
Silent3D schrieb:
Abgesehen davon, unterstützt heute eigentlich fast alles Multi-Core Systeme.

Was denn? Ich behaupte, dass die meisten Programme immer noch Single Core optimiert sind.
Selbst bei manchen Simulationsprogrammen wäre ein höher getakteter Kern besser, als mehrere Kerne, da die Lizenzen für Multicore einfach viel zu teuer sind. Oder die Windows Version mehrere Kerne einfach nicht unterstützt.
 
Eigentlich hatte Intel damals zu P4 Zeiten mit dem Nehalem eine 10 Ghz CPU geplant, hat dann aber mitten in der Forschung und Entwicklung bemerkt, dass einige Faktoren dieses Ziel verhindern.

U.a. haben die aktuellen Silizium-Transistoren ab bestimmten Frequenzen Probleme mit Leckströmen, d.h. Elektronen verlassen ihre vorbestimmten Bahnen und das führt zu Fehlverhalten der CPU. Alternative Verfahren konnten diese Probleme teilweise reduzieren, aber einige Jahre lang bekam Intel es nicht gebacken mehr als 4 GHz stabil und fehlerfrei laufen zu lassen. Mittlerweile sieht man ja, dass nen C2Duo mit Lukü 4,5 GHz packt, aber ab 5 wird es da auch kritisch. SB iX packt auch nicht viel mehr.

Aus dem Grund kam eine neue Strategie und man kam eben zu mehr Kernen. Wenn die Software gut parallelisiert werden kann, d.h. von zwei CPU-Kernen berechnet werden kann, steigert sich die Leistung ebenfalls um den Faktor ~1,8-2x. Und das ohne dass man sich mit Frequenz-Problemen ärgern muss.

Kann gut sein, dass mit neuen Verfahren und eventuell auch anderen Atomverbindungen (Carbonröhrchen, Kristallstrukturen/Lichtschalter etc.) wieder höhere Frequenzen möglich werden.

Bis dahin hat man wohl erkannt, dass es leichter ist die Kernzahl zu erhöhen und mehr Programmierer auf Parallelisierungsschulung zu schicken ^^
 
Weil nicht jeder Anwender auch VIEL GHZ braucht ?

Die meißten Box Cpu's sind ja ausreichend im hinblick auf >Leistung/Stromaufnahme/Wärmeabgabe ausgelegt.Nicht jeder braucht zum Surfen/EMail/Pockern nen 4+GHZ CPU;)

Wer MEHR GHZ will muß mit den ''Nebenerscheinungen''für mehr GHZ leben>höhere Stromaufnahme>mehr Wärmeabgabe>kosten für Leistungsfähigere Kühler>evtl.küzere Lebensdauer bei NICHT Fachgerechtem übertakten..:p

Wer das Risiko nicht eingehen will kann ja die exorbitant Teueren Spizenmodelle mit mehr GHZ kaufen>da wird Dir das Risiko abgenommen....
 
marcol1979 schrieb:
Ich frage mich was heutzutage so in Schulen gemacht wird ?
Wird da nur noch Anwesenheit notiert ?:rolleyes:

Wär mir neu, dass im Lehrplan Prozessoren etc vorkommen?
Vllt in techn. Zweigen maximal.
 
... und selbst im Physik LK waren wir noch lange nicht so weit um über Leckströme in Transisoren zu reden.
Das ist eher die Elektronik VL an der Uni ;) (oder Werkstoffphysik)
 
Das Thema ist eigentlich ein altes.

Halbleiterbauelemente und damit Comouterchips verbraten mehr Leistung in Wärme mit steigender Taktfrequenz. Dieser Zusammenhang ist linear. Doppelter Takt = doppelte Wattzahl

Allerdings muss die Betriebsspannung bei den Chips bei höherer Taktfrequenz angehoben werden sonst schalten die Transistoren im Chip nicht mehr zuverlässig.
Höhere Spannung bedeutet allerdings auch höheren Stromfluß und damit höhere Leistung -> Mehr Wärme.

Warum Intel was von 10 GHz geschrieben hat ist mir rätselhaft. Das war vermutlich eine reine Aussage des Marketings und war unrealistisch.
Wir sind jetzt bei 3 bis 4 GHz, das wird in den nächsten zwei, drei Jahren auch nicht höher als auf 4 bis 5 GHz steigen, eher werden die Chips noch komplexer.
 
stelle ich gleich mal noch eine frage.
wo meint ihr wird es mit die cpu's hingehen welche richtung.
zb. werden wir in 10-15 jahren mehr kerne haben sagen wir 23-30-40 kerne aber der takt jedes kern's wird nur 100-200 ghz haben. ALSO 23x100= 2300ghz.. aber mit hoher Leistung/wenig Stromverbrauch. die noch besser sein werden als jetzt die cpus mit 6-8-12 kern.


oder wird es 20-30 kern cpus geben die dann an gute 5-6ghz und mehr kommen.

oder was meint ihr was noch kommen wird.
 
Meine Vermutung ist, dass sich die CPUs vom Aufbau her immer mehr Richtung GPUs entwickeln werden. AMD fängt damit schon an.

Damit meine ich, dass die CPUs zukünftig nicht mehr aus Kernen sondern nur noch aus den einzelnen Ausführungseinheiten für Integer, FPU, usw. besteht. Bzw, stell dir einen Kern vor, der zu massiven HyperThreading fähig ist.
 
Ich lehne mich mal weit aus dem Fenster und frage ernsthaft:

WOZU?

Neben dem physikalischen Aspekten (Verlustleistung usw.), die bereits angesprochen wurden sollte man eine grundlegende Sache nicht vergessen:

3 Ghz reicht "normalerweise" für eine Singlecore-Anwendung aus (ansonsten gibts ja noch die Turbos). Anwendungen, die mehr Leistung brauchen sind mittlerweile Multicore optimiert.

Wieso sollten also die Hersteller ein unsinniges Ghz Rennen veranstalten wenn der Mehrgewinn, wenn überhaupt vorhanden, minimal ist.

Außerdem, sicher, nicht jedes Programm ist optimiert für mehrere Kerne, dennoch läuft ein Pc mit einem Dualcore schneller als mit einem Singlecore (bei weitem). Warum?. Die Erklärung ist einfach, es gibt mehr als einen Prozess der läuft und die heutigen Betriebssysteme verwalten diese Prozesse weitaus besser als damals.
 
Zuletzt bearbeitet:
Und wie entwickeln sich die CPU's in der Zukunft?

In den letzten 2 Jahren hat sich kaum was getan...
 
vllt. weil es auch gleich für die Zukunft dient, ohne die Fortschritte die Hersteller durch Multicore Prozessoren gemacht haben, könnten sie heute nicht weiter forschen.
 
Ich kann nur spekulieren, aber ich denke in Zukunft wird man mehrere Kerne UND einen höheren Takt erreichen. Zum Einen, weil die Strukturbreite der Transistoren immer mehr abnimmt (=> geringere Verlustleistung bei gleichem Takt), zum Anderen, weil man auch neue Transistoren in anderen Vertigungsverfahren herstellen wird. So weit ich weiß hat IBM schon CPUs mit mehr als 500 Ghz am laufen. Wie gesagt, reine spekulation :)

MfG Sandro
 
der e8600 und der e8500 mit 4400mhz und 4100-4275mhz mit oc
 
Der Grund ist simpel einerseits steigt Strombedarf und die Hitzeentwicklung und andererseits die Anzahl der Leckströme (Stichwort Effizienz).
 
hmm..

1. elektronenmigration: je kleiner die leiterbahn auf dem die und je größer der strom desto schneller is das lebenssauerende erreicht.

2. kapazitäten: je kleiner der fertigungsprozess ist, desto mehr ladungen werden durch die nun näher zueinander liegenden leitungen gespeichert, das setzt den schaltzeiten grenzen.

3. wirtschaftliches denken: 4ghz sind ja irgendwie bei übertaktern allgegenwärtig. wenn die hersteller das aber nicht verkaufen, werden die schon am besten wissen warum nicht.

4. verlustleistung/fläche: die schnellsten prozessoren nehmen schon fast 10 jahre lang mehr als 100 watt auf. sinkt die chipfläche aufgrund von kleinerer fertigung, bleibt aber die verlustleistung konstant.. entstehen hotspots, die man erst mal designtechnisch in den griff bekommen muss.

5. prozessorspannung: je kleiner das teil desto niedriger die spannung, allgemeine regel. aber je kleiner die spannung desto langsamer schalten die transistoren sicher durch. ist also stehts nen kampf von verlustleistung vs takt.

6. silizium an sich: hersteller machen nicht umsonst soi, oder low-k, oder forschen an anderen materialien, wenn man sich der spezifischen schwächen des siliziums nicht bewust wär.
 
jo, und wann sollen Quantencomputer rauskommen?
Die sollen ja schneller sein, als alle PCS heute zusammen genommen.
 
e-Laurin schrieb:
Meine Vermutung ist, dass sich die CPUs vom Aufbau her immer mehr Richtung GPUs entwickeln werden. AMD fängt damit schon an.
Dass diese sich in Richtung GPU entwickeln davon gehe ich eher nicht aus.
Fakt ist dass v.a. für den Bereich Multimedia mehr Rechenleistung gebraucht wird.
Die Bearbeitung von 2D und 3D Grafik lässt sich allerdings ziemlich gut parallelisieren, so dass hier nicht zwangsläufig die Taktfrequenz erhöht werden muss für mehr Leistung, es ist genauso möglich einfach mehr Rechenschaltkreise auf den Chip zu bauen.
So wird sich die Anzahl der GPU-Shader vermutlich weiter erhöhen und in AVX steckt sicherlich auch noch eine Menge an Potential.

Den APUs (CPU + GPU) dürfte die Zukunft gehören, denn dann können best. Rechnenoperationen auch auf die GPU ausgelagert werden, da diese ohnehin auf dem Chip vorhanden ist.
 
Matze89 schrieb:
Wär mir neu, dass im Lehrplan Prozessoren etc vorkommen?
Vllt in techn. Zweigen maximal.
Ich denke ihm geht es mehr um die Ausdrucksweise des Threaderstellers. Denn in der Schule sollte man den Unterschied zwischen Einheit und physikalischer Größe gelernt haben. Ich finde sowas auch grausam. Hier im Forum liest man ja oft "Gib der CPU mehr Volt" oder "Dein Netzteil hat nicht genug Ampere". Ich gehe ja auch nicht zum Chef und sage: " Chef ich möchte mehr Euro" :freak:
Ist doch nicht so schwer einen vernünftigen Satz hinzuschreiben, gerade als Threadtitel
 
Zurück
Oben