Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
ineffektives CPU Design ?
- Ersteller rusalkin
- Erstellt am
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.912
"Wasserkapilare" durch die CPU ergeben so keinen Sinn. Wasser leitet Wärme garantiert schlechter, als das Material, aus den die Chips selbst sind.
Wenn überhaupt, dann könnte sowas bei den gelegentlich erwähnten zukünftigen "3D-Chips" notwendig werden, wenn mehrere Lagen übereinander "geklebt" werden. Bei denen bekommen die untere Lagen sonst ja gar keine Kühlung mehr ab. Schlechter als ein herkömmlicher "einlagiger" Chip, auf dem direkt ein metallischer Kühlkörper sitzt, wird die Kühlung aber auf jeden Fall.
Wenn überhaupt, dann könnte sowas bei den gelegentlich erwähnten zukünftigen "3D-Chips" notwendig werden, wenn mehrere Lagen übereinander "geklebt" werden. Bei denen bekommen die untere Lagen sonst ja gar keine Kühlung mehr ab. Schlechter als ein herkömmlicher "einlagiger" Chip, auf dem direkt ein metallischer Kühlkörper sitzt, wird die Kühlung aber auf jeden Fall.
und vorab noch eine frage:
es wird ja momentan nur eine seite des CPUs gekuehlt, waehre es sinnvol irgendwie auch an die andere seite rannzukommen ?
pins verlangern und unter die cpu eine zweite "warme ableite platte" zu schieben. So ne art sandwitch halt.
an: Herdware, das material aus dem die chips sind fliesst aber nicht -> waku
es wird ja momentan nur eine seite des CPUs gekuehlt, waehre es sinnvol irgendwie auch an die andere seite rannzukommen ?
pins verlangern und unter die cpu eine zweite "warme ableite platte" zu schieben. So ne art sandwitch halt.
Ergänzung ()
an: Herdware, das material aus dem die chips sind fliesst aber nicht -> waku
Zuletzt bearbeitet:
GuaRdiaN
Captain
- Registriert
- Mai 2001
- Beiträge
- 3.214
Ich vermute stark, dass man dies erwogen haben wird, aber auf der anderen Seite: Wie fixierst du das ganze dann anständig. Ich vermute mal, auch wenn die aktuelle Lösung nicht die optimale ist, ist sie sicher die praktikabelste. Sonst würde man wieder ein sehr kompliziertes Pinout bekommen. Sockel müssten anders konzipiert werden. Und du siehst ja, die Ivy-Bridge ist sparsamer, und dennoch potenter. Dementsprechend, sagte Der Baya schon: Die Strukturen werden kleiner. Dann stehen noch Sachen wie 3D-Transistoren / Tri-Gate Transistoren im Raum.
GuaRdiaN
Captain
- Registriert
- Mai 2001
- Beiträge
- 3.214
Und dann will ich mal sehen, was die OC Gemeinde dazu sagte, wenn auf einmal bestimmte Cooler mit der CPU so verbaut wären, dass man sie nicht wechseln kann? Ich denke, das würde schwer werden. Im Bereich der Server (1 und 2HE) könnte ich mir das als durchaus effizient vorstellen. Aber warum sollte man dort Overclocken? Dort wird bei Leistungsengpässen eine neue CPU eingesetzt.
Ich denke das Overclocking wird überbewertet, da sich in diesen "Fachforen" solche Leute sammeln. Die meisten Leute kaufen eine neue CPU wenn sie nicht mehr potent genug ist. Der Trend geht ja dahin, dass ein 5 Jahre alter DualCore noch immer für alle Alltagsaufgaben ausreichend ist. Nur beim Gaming kommt das wirklich zum Tragen. Daher wird die Trägheit der Masse (so meine Kristallkugel) verhindern, dass sich da etwas ändern wird.
Gerade in ULV Notebooks könnte man durch derartige Kühlerlösungen grandios leise Notebooks erzeugen. Macht man aber auch nicht.
Ich denke das Overclocking wird überbewertet, da sich in diesen "Fachforen" solche Leute sammeln. Die meisten Leute kaufen eine neue CPU wenn sie nicht mehr potent genug ist. Der Trend geht ja dahin, dass ein 5 Jahre alter DualCore noch immer für alle Alltagsaufgaben ausreichend ist. Nur beim Gaming kommt das wirklich zum Tragen. Daher wird die Trägheit der Masse (so meine Kristallkugel) verhindern, dass sich da etwas ändern wird.
Gerade in ULV Notebooks könnte man durch derartige Kühlerlösungen grandios leise Notebooks erzeugen. Macht man aber auch nicht.
C
CaptainStor
Gast
Das Problem ist, je grösser die CPU wird desto undurchschaubarer werden mögliche unangenheme Effekte. Beispielsweise, dass Signale die auf dem Papier zur gleichen Zeit an einer ALU ankommen in Wirklichkeit zu verschiedenen Zeitpunkten ankommen können. Es gibt Möglichkeiten dem entgegen zu wirken, aber je grösser die CPU desto schwieriger wird das. Das ist einer der Hauptgründe warum es heute Multicore CPUs gibt. Aber auch dem sind Grenzen gesetzt, denn je mehr Cores auf einer CPU sind, desto mehr Overhead entsteht wenn diese miteinenander kommunizieren. Was auch im Prinzip schlecht ist was Effizienz angeht ist die CISC Architektur, weil dadruch die "Altlasten" immer grösser werden und Teile der CPU ungenutzt sein können. Das ist aber mitlerweile kein unlösbares Problem mehr, da man nicht mehr sagen kann, dass moderne Rechner reine CISC Maschinen sind.
Was aber leider immernoch ein sehr grosser Flaschenhals ist, ist das BUS-System in heutigen Rechnern. Die CPU ist z.B. viel schneller als der RAM und die grossen Signalwege auf dem Mainboard sind auch ein Nachteil, da man dort keine hohen Taktfrequenzen erreichen kann. Intel hat dem etwas entgegen gewirkt indem der Memory Controller in die CPU rein verlegt wurde was Geschwindigkeitsvorteile bringt (Sandy Bridge und die kommende 2011 Platform).
In der Vergangenheit wurden die Register vom Maiboard in die CPU hinein verlegt was grosse Geschwindigkeitsvorteile mit sich brachte (glaub das war mit beim PIII) und in Zukunft wird es irgendwann möglich sein den Arbeitsspeicher in die CPU zu verlegen, oder zumindest ziemlich in die Nähe des Prozessors, was wieder ein Sprung in der Geschwindigkeit bedeuten wird.
Was MEINER Meinung nach aber das allergrösste Problem von allen ist, ist dass die modernen Programmiersprachen immer weiter weg von der Hardware gehen. Dadurch wird der Code viel besser zu warten und man kann kurzen und eleganten Code erzeugen aber diese Programme verschlingen dann unmengen an Systemressourcen und sind total langsam. Alles hat seine Vor -und Nachteile
Was aber leider immernoch ein sehr grosser Flaschenhals ist, ist das BUS-System in heutigen Rechnern. Die CPU ist z.B. viel schneller als der RAM und die grossen Signalwege auf dem Mainboard sind auch ein Nachteil, da man dort keine hohen Taktfrequenzen erreichen kann. Intel hat dem etwas entgegen gewirkt indem der Memory Controller in die CPU rein verlegt wurde was Geschwindigkeitsvorteile bringt (Sandy Bridge und die kommende 2011 Platform).
In der Vergangenheit wurden die Register vom Maiboard in die CPU hinein verlegt was grosse Geschwindigkeitsvorteile mit sich brachte (glaub das war mit beim PIII) und in Zukunft wird es irgendwann möglich sein den Arbeitsspeicher in die CPU zu verlegen, oder zumindest ziemlich in die Nähe des Prozessors, was wieder ein Sprung in der Geschwindigkeit bedeuten wird.
Was MEINER Meinung nach aber das allergrösste Problem von allen ist, ist dass die modernen Programmiersprachen immer weiter weg von der Hardware gehen. Dadurch wird der Code viel besser zu warten und man kann kurzen und eleganten Code erzeugen aber diese Programme verschlingen dann unmengen an Systemressourcen und sind total langsam. Alles hat seine Vor -und Nachteile
Sherman123
Fleet Admiral
- Registriert
- Nov. 2002
- Beiträge
- 12.344
Das sehe ich auch so. Die Rechenleistung steigt allerdings überproportional stark an. Also ist es doch im Sinne der Wirtschaftlichkeit, wenn man dem teuren Programmierer Stunden spart und stattdessen mehr vermeintlich kostenlose Rechenzeit draufgeht.Dadurch wird der Code viel besser zu warten und man kann kurzen und eleganten Code erzeugen aber diese Programme verschlingen dann unmengen an Systemressourcen und sind total langsam. Alles hat seine Vor -und Nachteile
Im Alltagsbetrieb wird in den nächsten 5 Jahren nicht mehr die Rechenleistung limitieren.
GuaRdiaN
Captain
- Registriert
- Mai 2001
- Beiträge
- 3.214
CaptainStor schrieb:[...]
Was aber leider immernoch ein sehr grosser Flaschenhals ist, ist das BUS-System in heutigen Rechnern. [...] der Memory Controller in die CPU rein verlegt wurde was Geschwindigkeitsvorteile bringt (Sandy Bridge und die kommende 2011 Platform).
[...]
Was MEINER Meinung nach aber das allergrösste Problem von allen ist, ist dass die modernen Programmiersprachen immer weiter weg von der Hardware gehen. Dadurch wird der Code viel besser zu warten und man kann kurzen und eleganten Code erzeugen aber diese Programme verschlingen dann unmengen an Systemressourcen und sind total langsam. Alles hat seine Vor -und Nachteile![]()
Da kann ich dir nicht widersprechen, aber das hat ja mit der Kühlung um die es nach dem TE eigentlich ging nichts zu tun. Wie gesagt entsprechend teure Softwaretools lösen das Place & Route dann schon recht gut.
Bei diesen Multicore CPUs geht es ja dahin, dass man eine recht symmetrische Aufteilung hat (selbst wenn man sich aktuelle Die shots ansieht) ein zentraler Crossbarswitch leistet ja die von dir angesprochene Arbeit, ich bin SEHR gespannt, wie das bei den 3D Chips werden wird. Zumal die CPUs in sich wieder 2-dimensional sind. Also hat man dann wieder eine Art externen Bus. Mh ob es das besser macht? Ich denke gerade die Kühlung wird dann ein echtes Problem.
Sherman123 schrieb:Das sehe ich auch so. Die Rechenleistung steigt allerdings überproportional stark an. Also ist es doch im Sinne der Wirtschaftlichkeit, wenn man dem teuren Programmierer Stunden spart und stattdessen mehr vermeintlich kostenlose Rechenzeit draufgeht.
Im Alltagsbetrieb wird in den nächsten 5 Jahren nicht mehr die Rechenleistung limitieren.
Zu den Programmen, das ist wahr man nimmt gerade durch objektorientierte Programmierung sehr großen Abstand von der Maschine, in diversen Microcontrollerforen wird bemängelt, dass C++ oder Objective C gegenüber C wesentliche Aspekte der Effizienz verliert.
Dennoch ist es so, dass viel Code der erzeugt wird (echter Maschinencode nicht Bytecode wie bei Java) gar nicht optimiert wurde. Gerade wenn man sich ansieht, was der gcc / g++ mit -O5 als Option an RAM und CPU Zeit verschlingt (noch extremer soll der Intel Compiler sein) - da wird klar, dass da noch vieles zu machen ist.
Wegen des CISC Argumentes: Ohne Cisc wird die Software wieder sehr plattformabhängig nehme ich an.
Mh auch OT -> Aber schön.
Caanon
Lt. Junior Grade
- Registriert
- Juni 2010
- Beiträge
- 262
Im "Endeffekt" werden wir einfachen Verbraucher zig Kerne in Smartphone-SoCs haben.rusalkin schrieb:also werden wir im endeffekt doch eine cpu haben die so gross wie das motherboard ist, nur bestehend aus 1000 cores ?
Ähnliche Themen
- Antworten
- 92
- Aufrufe
- 13.153
- Antworten
- 17
- Aufrufe
- 3.044
- Antworten
- 121
- Aufrufe
- 21.694
- Antworten
- 300
- Aufrufe
- 44.704