News AMD A12-9800: Bristol Ridge mit 4,8 GHz auf Asus Octopus

Es können mit SMT zwar 2 Jobs auf einmal auf einem Kern laufen aber nicht parallel.
Natürlich parallel, deswegen heißt das ganze auch SMT und nicht Interleaved Multithreading oder sonstwie. Lässt sich auch beweisen, indem man auf einem Intel-Prozessor zwei Instanzen dieses Programms auf demselben Kern ausführt...
Code:
mov rax, 0x800000000;
.align 32; 1:
sub rax, 1;
sub rax, 1;
jnz 1b;
...und feststellt, dass sich die Laufzeit gegenüber einer einzelnen Instanz nicht erhöht. Die IPC liegt pro Thread bei 1.5.

Geht bei AMDs CMT natürlich auch. Dass SMT aber seriell arbeitet, ist schlichtweg falsch. Zumal Intel z.B. vier einfache ALUs pro Kern verbaut statt zwei, sodass der maximale Durchsatz bei vielen einfachen Integer-Befehlen schonmal derselbe ist wie bei einem AMD-Modul. Selbiges wird nebenbei wohl auch für Zen gelten.

Edit: Auch hier nochmal erklärt. Den Artikel zu SMT selbst kann man hingegen ziemlich in die Tonne treten.
 
Zuletzt bearbeitet:
Das bedeutet nichts anderes als das 2 Prozesse wegen dem zweiten, virtuellen Kern zur gleichen Zeit auf einem physischen Kern laufen aber nicht das die gleichzeitig bearbeitet werden. Wie soll das auch gehen wenn keine doppelten Ressorcen zur parallelen Ausführung vorhanden sind ?
 
Wie soll das auch gehen wenn keine doppelten Ressorcen zur parallelen Ausführung vorhanden sind?
Es sind aber mehr als genug doppelte Ressourcen zur parallelen Ausführung vorhanden...
 
Zuletzt bearbeitet:
Na die zeig mir mal.
Ich sehe einen Integer Kern, eine FPU und der Cache des Kerns ist auch nicht doppelt vorhanden.
 
Ah du willst den einen Job also künstlich ausbremsen um genug freie Kapazitäten für eine bessere Skalierung zu schaffen, sag das doch gleich!
3x darfst du raten warum der Sheduler den zweiten, virtuellen Kern normalerweise erst belegt wenn alle physischen Kerne des Prozessors bereits einen Job haben. Würde er nicht zwischen den physischen und virtuellen Kernen unterscheiden würde es deutliche Leistungseinbrüche geben.
 
Ah du willst den einen Job also künstlich ausbremsen um genug freie Kapazitäten für eine bessere Skalierung zu schaffen, sag das doch gleich!
Zitat, wo ich das geschrieben habe, bitte.
Mir scheint, du verstehst nicht viel von modernen CPU-Architekturen. Sagt dir das wort Superskalar etwas?

Würde er nicht zwischen den physischen und virtuellen Kernen unterscheiden würde es deutliche Leistungseinbrüche geben.
Richtig. Dasselbe gilt aber auch für die Module, wenn zum Beispiel die FPU stark gefordert wird oder der L1-Cache von beiden Threads mit der vollen Bandbreite angeprochen wird (der soll zwar doppelt vorhanden sein, allerdings skaliert die Bandbreite nicht!)

Beide Techniken haben dieselben Best- und Worst Case-Skalierungen (+100% und ~0%) - im Durchschnitt skaliert CMT zwar besser als Intels Implementierung, aber weil Einheiten bei den einzelnen Kernen gespart werden, geht das auf Kosten des Single Thread-Durchsatzes. Daran, dass SMT prinzipiell genau so parallel arbeiten kann und es in passenden Szenarien auch tut (siehe Code von weiter oben), ändert das ganze aber nichts.
 
Aber gern doch, extra für dich
VikingGe schrieb:
Es sind aber mehr als genug doppelte Ressourcen zur parallelen Ausführung vorhanden...
Mag sein das parallel berechnet werden kann aber die Einheiten sind dann noch lange nicht frei sondern rechnen bereits am ersten Job. Willst du das beides wirklich parallel berechnet wird mußt du zwangsläufig Rechenkapazitäten vom ersten Job abziehen und bremst ihn damit aus.
Das Problem hast du z.B. bei Integer Berechnungen beim Modul Design nicht weil die Recheneinheiten des zweiten Integer Core für den ersten Job nicht nutzbar und damit frei sind.
 
Willst du das beides wirklich parallel berechnet wird mußt du zwangsläufig Rechenkapazitäten vom ersten Job abziehen
Wenn der erste Job die Rechenkapazitäten, die der zweite Job benötigt, selbst nicht braucht, muss ich gar nichts abziehen, und genau deswegen skaliert SMT ja überhaupt. Natürlich wird man häufiger auf Flaschenhälse stoßen, wenn zwei Threads auf demselben Kern laufen, aber nochmal, an dem grundlegenden Problem ändert auch CMT nichts.

Fakt ist aber nunmal, dass ein einzelner Kern schon seit den 90er Jahren mehr als einen Befehl zur selben Zeit abarbeiten kann, und zwar in der Regel mehr als die Software zu nutzen weiß - und genau das wird bei SMT ausgenutzt.

Oder um es nochmal deutlicher zu formulieren - Doppelt Hardware verbauen tut man bei beiden Ansätzen und auch bei Kernen ohne SMT/CMT, der eigentliche Unterschied ist, dass man bei CMT eine Trennlinie dazwischen malt.

Das Problem hast du z.B. bei Integer Berechnungen beim Modul Design nicht weil die Recheneinheiten des zweiten Integer Core für den ersten Job nicht nutzbar und damit frei sind.
Aber das ist kein Vorteil, solange nicht gleichzeitig auch der maximale Durchsatz höher ausfällt. Wenn wir mal bei unserem Beispiel mit Integer-Befehlen bleiben und mal annehmen, dass sowohl Job 1 als auch Job 2 jeweils drei triviale Additionen pro Takt ausführen können, dann laufen die auf dem SMT-Kern mit vier Einheiten mit jeweils 2/3 ihrer maximal möglichen Geschwindigkeit, bei dem CMT-Modul mit zwei Kernen und jeweils zwei Einheiten... ebenfalls mit 2/3. Nur Job A allein läuft auf dem CMT-Modul ebenfalls nur mit 2/3 der theoretisch möglichen Geschwindigkeit, weil er auf die Einheiten des anderen Kerns nicht zugreifen darf, auf dem SMT-Kern liefe er dagegen mit 100%.
 
Zuletzt bearbeitet:
@VikingGe
Alles klar, du kannst und willst nicht zwischen Befehl und Thread unterscheiden und deshalb auch nicht sehen das die Rechenwerke die die Befehle abarbeiten auch von einem Thread genutzt werden und damit nicht verstehen willst das diese nach Möglichkeit auch schon von einem Thread benutzt werden, womit keine freien Ressorcen mehr für den zweiten Thread da wären und dieser dann der Logik nach bei SMT nicht zur gleichen Zeit vom gleichen Kern berechnet werden kann.

Bei AMDs CMT Lösung hat man diese freien Rechenwerke für einen Teil der Befehle zwangsläufig weil der erste Thread nicht ohne weiteres bzw. nicht darauf zugreifen kann.


@martinallnet
Der Test an und für sich ist ja schön und gut aber er ist letztendlich inzwischen komplett veraltet (die Architektur ist schon 2 Ausbaustufen weiter) und beruht scheinbar auf auf Daten synthetischer Benchmarks die relativ FPU lastig ausfallen. Damit kommt im Fazit das zum Tragen was ohnehin schon bekannt ist. Je FPU lastiger (welche schließlich geteilt wird und bei Nutzung von beiden Kernen von 1x 256 Bit auf 2x 128 Bit umschalten kann) desto schlechter die Skalierung. Das kann man in dieser Grafik des Tests ganz gut sehen: http://blog.stuffedcow.net/wp-content/uploads/2014/01/fx8320-scaling.png
Hinzu kommt ein weiteres Problem. Wie nutzt die Software die FPU? Im 128 Bit Betrieb oder im 256 Bit Betrieb? Auch das dürfte für die letztendliche Leistung entscheidend sein und den Unterschied zwischen Alltagssoftware und synthetischer Benchmarks prägen.

Dummer weise wurde der Begriff "Kern" bzw. "Core" geprägt als er noch keine FPU hatte, bzw. es wäre mir neu wenn der Begriff eine feste und einheitliche Definition hätte. Womit wir beim gleichen Punkt sind wo bei solchen Diskussionen das Thema schon 1000x durchgekaut und offenbar wieder ausgespuckt wurde um erneut drauf rumzukauen.

Die Modul Bauweise hat nicht die gleiche Leistung wie 2 einzelne Kerne, soweit so gut aber das wurde von AMD auch nie behauptet sondern relativ offenkommuniziert.
 
Was ist bitte so schwer daran zu verstehen, dass ein einzelner Thread in der Regel nicht in der Lage ist, einen Kern so stark auszulasten, dass für den zweiten nichts mehr übrig bleibt? Man kann nicht einfach alle Befehle, die in einem Programm hintereinander stehen, gleichzeitig ins Backend stopfen, weil es dazwischen Abhängigkeiten gibt.

Sicher gibt es Ausnahmen, wenn z.B. beide Threads eine der FPU-Einheiten voll beschäftigen können (für viele Befehlsarten gibt es nur jeweils eine, sodass das in der Praxis durchaus realistisch ist).

Bei AMDs CMT Lösung hat man diese freien Rechenwerke für einen Teil der Befehle zwangsläufig weil der erste Thread nicht ohne weiteres bzw. nicht darauf zugreifen kann.
Und trotzdem steigt die Gesamtleistung dadurch nicht. CMT wäre sinnvoll, wenn die Kerne gleichzeitig breiter wären, denn ab einem gewissen Punkt wird es unpraktikabel, alles in einen Kern zu stopfen (2x3 Wege vs 1x6), dann müsste aber auch das Frontend stark genug sein, um zwei Threads mit hohem Durchsatz zu beschäftigen. Beides ist bei AMDs Implementierung aber nicht der Fall.
 
Ja Bulldozer Integer Core hat ja auch nur zwei ALUs (Modul insgesamt 4) und K10 davor hatte pro Core 3 ALUs. Zen hat jetzt 4 ALUs, also insgesamt soviel wie ein Modul.
VikingGe, beschreibe doch die Ebene tiefer. Den Wadenbeiser geht ja davon aus, das Integer Core schon eine Einheit ist und nicht aus Rechenwerke besteht, die wie bei der GPU, nicht immer Vollständig ausgelastet sind. Und hier spielt ja Hyper-Threading hinein.

VISC Prozessoren wollen das ja auf die obere Ebene, quasi ausbauen, glaube ich zumindestens. Mehrere Cores können einen Thread bearbeiten oder 2 Cores teilen sich auf, sodass ein starker und schwächer Thread gebildet werden kann usw.
 
Zuletzt bearbeitet:
@galatin

Ich bin ja normalerweise nur stiller mitleser und beteiligte mich selten an Diskusionen , aber hier muss ich einfach mal was dazu schreiben, auch wenn da Thema schon einige Tage alt ist.

Dennoch will ich es noch einmal versuchen es zu erklären, weil ich weiß, dass das für viele Leute ohne Bezug zur Materie schwierig ist, sich dass vorzustellen.
Um es kurz zu machen, und ohne Anspruch auf komplette Fachliche Korrektheit oder Vollständigkeit:

In der Natur gilt der physikalische Grundsatz der Energieerhaltung:
Dieser besagt ganz einfach, dass Energie nie verloren oder verbraucht sondern nur umgewandelt werden kann.

Am Ende dieser Umwandlung steht steht dabei thermische Energie aka Wärme.



Vereinfacht gesagt, bedeutet dass, dass jegliche Energie, die in einen Körper gesteckt wird, auf die ein oder andere Weise diesen Körper auch wieder verlassen muss.

Dies ist ein Unumstößlicher Fakt der Naturwissenschaften und gilt auch für die CPU.


Zwar kann z.b eine Batterie Energie für eine gewisse Zeit speichern, aber irgendwann, wird auch hier sämtliche Energie den Körper verlassen haben.


Nun gibt es mehrere Möglichkeiten, wie die Energie einen Körper (hier die CPU ) verlassen kann:


-Änderung der potentiellen Energie : (meist Höhenänderung)
Dies trifft für eine CPU allerdings nicht in signifikanter Weise auf.

-Änderung der kinetischen Energie : (Bewegung)
Dies ist nur Zwischenform, die unweigerlich weiter umgewandelt werden muss und trifft des weiteren ebenfalls nicht auf eine CPU zu.

-Elektromagnetische Strahlung
Hier wird es etwas komplizierter, aber ohne zu sehr ins Detail gehen zu wollen, wird auch Licht und andere Strahlung irgendwann weiter in Wärme umgewandelt zur Einfachheit ignoriere ich das allerdings hier.
Denn die Menge an Strahlung und Licht, die eine CPU aussendet ist zwar sicherlich messbar, aber hier ebenfalls nicht relevant. Das selbe gilt für Schallwellen.

-Thermische Energie
Wärme in irgendeiner Form bildet den Rest der Energie.


Zusammengefasst bedeutend dass, die Energie, die den Prozessor betritt diesen auch wieder verlassen muss, dass erfolgt zu 99% durch Wärme und im Rest durch Strahlung oder sichtbares Licht.


Alles was dazwischen passiert, ist zwar interessant, aber nicht relevant, da stets nur Energieumwandlungen stattfinden nie aber Energieverbrauch und am Ende jeder Umwandlungskette immer thermische Energie steht. Die Transistoren innerhalb der cpu verrichten also ihre Arbeit und durch die Wiederstände und andere Elektrische Effekte wandeln sie dabei eine gewisse Menge der Energie um (in Wärme) .
Dieser Umgewandelte Teil entspricht der Verlustleistung sowie dem "Verbrauch" der elektrischen Schaltung. Für die reine Rechenarbeit kann keine Energie "verbraucht" werden, da eben ein Verlust von Energie physikalisch nicht möglich ist und ein Rechenergebniss keine Energieform darstellt


Da das ganze kein wissenschaftlicher Artikel werden soll ist meine Erklärung sicherlich an einigen stellen nicht zu 100% fachlich korrekt und auch stark vereinfacht.


Das Thema TDP ist sowieso wieder etwas völlig anderes.
 
Zuletzt bearbeitet:
Ich weiß nicht ob es die Mühe wert war,@meav33, eine so lange Ausführung zu schreiben.. Ich habe mich mal die der angeblich von uns ignorierten Frage von ihm / ihr an uns beschäftigt.

Galatian schrieb:
Warum wir dann nicht nicht auf unseren CPUs kochen kann ja hier keiner beantworten. Genauso hat ein Tauchsieder nicht 100% Wirkungsgrad. Packt das Ding ins Wasser rein und die 3500W die er zwar aus der Dose zieht, werden NICHT 1 zu 1 in das erwärmte Wasser gesteckt.

Gegenüberstellen mit:
https://de.wikipedia.org/wiki/Tauchsieder schrieb:
Tauchsieder arbeiten sehr energieeffizient. Das Heizelement befindet sich beim Betrieb direkt im Wasser. Der Wärmeverlust ist sehr gering, der Wirkungsgrad liegt bei über 98 %. Dem steht aber, je nach Primärenergiequelle, ein deutlich schlechterer Wirkungsgrad bei der Erzeugung des verwendeten Stromes gegenüber. Bei thermischen Kraftwerken beträgt dieser je nach Bauart nur zwischen 30 und 60 %. Tauchsieder sollen daher wie alle Elektrowärme-Geräte kostenbewusst eingesetzt werden. So sollte nur die Wassermenge erwärmt werden, die nötig ist.
Disqualifiziert Galatian, er/sie sollte besser noch mal die Schulbank drücken und selbiges nicht uns vorhalten.

Galatian schrieb:
Dann geht trotzdem elektrische Energie durch die CPU. Die muss ich verdammt nochmal beim Stromwerk auch bezahlen. Die kann ich auch messen. Anders ausgedrückt: macht ne Klemme vor die CPU und ich garantier euch, dass das was ihr messt eben nicht gleich der abgebenen Wärme sein wird.

Und was die Herdplatte angeht, genau das gleiche. Nur dass dort die Wärmeübertragung durch die Platte, den Topfboden und die hauchdünne Luft dazwischen gehemmt wird. Dazu strahlt die Herdplatte in alle Richtungen (360°) Wärme ab, der Topf deckt aber nur max. 180° davon ab. Beim Tauchsieder kann fast die ganze Wärme (98%) an das Wasser abgegeben werden, da erdavon umschlossen ist. Eine Herdplatte kriegt das nicht hin. Aber, sofern man Gleichstrom nutzt, wird die Energie aus der Steckdose zu 99% in Wärme umgewandelt.

Und was das Stromwerk angeht, bitte die Blindleistung bei Gleichstrom (wie in der CPU) nicht mit einbeziehen, das gehört zu Wechselstrom - hat also beim Thema CPU nix verloren. Darfst du aber gerne bei handelsüblichen Herdplatten und Tauchsiedern anwenden.

Entweder hast du deine Frage ein deine Kollegen Chemiker nicht spezifisch genug gestellt, oder hättest sie mal besser einem Elektroingenieur/Physiker stellen sollen.
 
Zuletzt bearbeitet:
Nichts für ungut aber die Frage ist auch einfach nur dämlich....
Was passiert wohl wenn die Oberflächentemperatur einer CPU so hoch ist das sie das Wasser in einem Topf zum Kochen bringen kann?
Die Kern Temperatur ist deutlich höher und das Ding raucht ganz einfach ab.
Natürlich wird die Energie die in einen Herd gesteckt wird nahezu 1:1 in Wärme umgewandelt, in was denn sonst?
 
Also es fällt mir immer schwerer zu antworten...ihr schreibt es ja selbst aber macht die falschen Schlüsse:

Aussage war: 100% Energie die rein geht wird in Wärme umgewandelt. Ich sagte, dass ist falsch. Es beantwortet hier keiner die Frage, warum Energie unbedingt umgewandelt werden muss und nicht einfach durchlaufen kann. Es muss einfach ganz grundsätzlich wenigstens ein kleiner Teil durchgehen ohne umgewandelt zu werden, letztlich ist das ja der Witz: die Transistoren schalten und bahnen daher unterschiedliche Wege je nachdem wie geschalten wird; mal leiten sie, mal nicht. Du kannst auch nach deiner CPU noch irgendwas dran hängen und das Gerät wird funktionieren, weil eben nicht 100% umgewandelt wurde, weil der Rest von 100% NULL wäre.

[...]der Wirkungsgrad liegt bei über 98 %[...]

Genauso hat ein Tauchsieder nicht 100% Wirkungsgrad. Packt das Ding ins Wasser rein und die 3500W die er zwar aus der Dose zieht, werden NICHT 1 zu 1 in das erwärmte Wasser gesteckt.

Mir fällt es unglaublich schwer hier noch was anderes zu sagen. Euer Beispiel mit dem Tauchsieder zeigt es doch auch. Das steht 98%. Da wird also NICHT 100% umgewandelt in Wärme. Was disqualifiziert mich daran?

Und bitte verschont mich mit eurem Energieerhaltungssatz. Den bestreitet hier keiner. Aber - warum auch immer - nehmt ihr alle ihn zum Anlass zu denken, dass 100% Energie die reingeht auch in IRGENDWAS umgewandelt werden muss? Ihr seht gar nicht das Energie auch einfach mal in einer Form bleiben kann, ohne das sie umgewandelt wird. Vielleicht ist das so eine Physiker Konvention, dass euch nur Energie interessiert, die umgewandelt wird? Jedenfalls macht es die Aussage nicht richtig auf einmal. Von der Energie die in die CPU reingeht wird sicherlich zu 99,9% Energie in Wärme umgewandelt. Der Rest geht einfach so durch. Damit sind es verdammt nochmal keine 100%.

Ich glaube wir drehen uns hier argumentativ im Kreis. Wenn ich sage Energie kann auch einfach durchgehen ohne umgewandelt zu werden, könnt ihr mir nicht antworten mit Energieerhaltungssatz. Mir ist völlig bewusst, dass die Energie die umgewandelt wird zu 100% in Wärme umgewandelt wird. Damit werden aber immer noch nicht 100% der Energie die reingeht zu 100% Wärme umgewandelt, da einfach auch ein Teil der Energie (wie im Tauchsieder oder bei jedem anderen Gerät) durchgeht ohne umgewandelt zu werden.

Und damit ist die Frage nämlich auch nicht dämlich. Man kann Transistoren sicherlich auch so designen, dass sie nicht bei 100°C dir abbrauchen. Das sind meines Wissens nach eben eher die Grenzen durch das verwendete Silizium. Die Frage wäre doch viel mehr, warum du davon ausgehst, dass ein steuerbarer Leiter - also der Transistor - besser darin wäre elektrische Energie in Wärme um zu wandeln, als einfach nur ein Widerstand. Da muss man gar keine genauen Zahlen kennen, um schon im Prinzip zu erkennen, dass der Heizwiderstand wohl deutlich effizienter umwandelt, als ein für diesen Fall unnötig komplizierter Transistor.

Jungs ich glaube hier geht es nicht mehr darum recht zu haben...hier geht es nur noch darum, dass die Leute, welche großspurig anderen Leuten ihre Schuldbildung aberkannt und sich lustig gemacht hatten, irgendwie versuchen ihr Gesicht zu waren. Diese absolute Eskalation hier wäre sowas von unnötig, wenn sich nicht von links und rechts Leute einmischen würden und einfach absolut provokativ ihr eigenes vermutetes Wissen als einzig Wahrheit aus zu geben und dabei alle anderen zu beleidigen.
 
Zuletzt bearbeitet:
Galatian schrieb:
Du kannst auch nach deiner CPU noch irgendwas dran hängen und das Gerät wird funktionieren, weil eben nicht 100% umgewandelt wurde, weil der Rest von 100% NULL wäre.

Richtig. Nur muss dein Netzteil dann eine höhere Spannung (für den zusätzlichen Widerstand) liefern, da sonst der zusätzlich angehängte Widerstand zu einem geringeren Stromfluss in der CPU führt. Im schlimmsten Falle schalten die Transistoren gar nicht mehr und dann fliesst (fast) gar kein Strom.

Euer Beispiel mit dem Tauchsieder zeigt es doch auch. Das steht 98%. Da wird also NICHT 100% umgewandelt in Wärme. Was disqualifiziert mich daran?

98% der gelieferten Energie geht ins Wasser über. Der Rest erwärmt den Tauchsieder selbst, die Zuleitung und die Luft. Nichts mehr sagt dieser Wirkungsgrad aus - das Verhältnis an genutzter Energie (Wasser erwärmen) zu reingestreckter Energie.
 
Pontiuspilatus schrieb:
98% der gelieferten Energie geht ins Wasser über. Der Rest erwärmt den Tauchsieder selbst, die Zuleitung und die Luft. Nichts mehr sagt dieser Wirkungsgrad aus - das Verhältnis an genutzter Energie (Wasser erwärmen) zu reingestreckter Energie.

Ok fair enough...Wirkungsgrad ist schlechtes Beispiel. Dennoch sage ich auch hier - analog zur CPU - das auch hier elektrische Energie durchgehen kann ohne das was mit ihr geschieht (sie als in Wärme umgewandelt werden kann). Und das war am Ende die Aussage die ich mit dem Beispiel getroffen hatte: der 3500W Tauchsieder wird zwar 3500W aus der Steckdose ziehen, wird aber nicht alles ins Wasser geben. Sicherlich aus zwei Gründen: erstens wie du schon sagst durch den Verlust in der Zuleitung, zweitens aber auch einfach nur, weil ein Teil der elektrische Energie auch auf der anderen Seite wieder raus kommt, ohne das sie in irgendeiner Form umgewandelt wurde. Und um diesen Kern geht es hier.
 
Zuletzt bearbeitet:
Galatian schrieb:
Aussage war: 100% Energie die rein geht wird in Wärme umgewandelt.

Das behauptet hier auch keiner und wurde schon oft genug klar gestellt. Du unterstellst uns mit unserer Aussage, dass nahezu 100 % in Wärme umgewandelt werden, dass wir wirklich 100% meinen, das tut hier keiner. Und wenn haben hier einzelne, nur gesagt 100% werden gewandelt, aber nicht dass die komplett in Wärme gewandelt werden, sondern eben gewandelt.

Aber für die Auslegegung der Spannungswandler am System und der Kühlung ist es nun mal praktisch egal ob 100% oder 9x,x Porzent der Energie in Wärme gewandelt werden. Ob du nun 65 Watt oder 63,7 Watt thermische Energie wegkühlen muss ist doch in der Praxis egal. Selbst beim Faktor 10 ist das in der Praxis irrelevant, es fängt erst in der Praxis frühestens bei zwei- bis dreistelligen Kilowatt-Größen an Sinn zu machen, den Unterschied zu berücksichtigen. Und diese Wärme haben wir im PC nicht.

Und was dein "Leiten" Beispiel aus dem Post eine seite vorher angeht, das wurde hier ja auch schon aufgriffen, ich hatte es nur vergessen zu erwähnen. Abgesehen von Supraleitern, die du nicht in der CPU findest, ist es nicht möglich Strom/Energie/oderwasduwillst verlustfrei zu leiten. Selbst Luft und Wasser lassen sich nicht verlustfrei einfach nur "leiten". Somit hättest du selbst mit deinem "einfach mal Elktronen durch die CPU leiten" Energieverluste, die in Wärme umgesetzt werden.
 
Zuletzt bearbeitet:
Zurück
Oben