Realsmasher schrieb:
@aspro :
110A maximale stromaufnahme gegen 80A... ähm und wo ist da die spannungssenkung ?
welche spannung hat der 945 ?
daraus liese sich der maximalverbrauch auch ableiten.
aber ehrlich gesagt kenne ich mich in der Richtung nicht sonderlich aus, von stromstärkensenkungen
Entschuldige bitte, man merkt es, dass Du keine Ahnung hast
Und dafür, dass Du so wenig Wahres von Dir gibst, schreibst Du ganz schön viel
Natürlich bestimmt die Stromaufnahme direkt die Leistungsaufnahme der CPU, ist doch logisch: P = U * I
aspro schrieb:
Ist doch egal, ob man Spannung oder Stromstärke nimmt. Wenn eines von beiden sinkt, sinkt auch die Leistungsaufnahme. Der Nutzer hat darauf natürlich keinen Einfluss, aber sicherlich AMD, indem die Herstellung optimiert wird, also parasitäre Ströme minimiert werden.
richtig.
Realsmasher schrieb:
Man kann doch nicht plötzlich einen Chip produzieren dessen Gates weniger strom benötigen und dann das ganze auch noch nur für ein modell.
wenn dem so wäre, dann wäre die komplette reihe betroffen (da eh alles die gleichen chips sind und nur der maximale multi variiert).
eventuell der 955 nicht, aber zumidnest die modelle darunter.
Eine tatsächliche verbrauchssenkung von sagen wir 20W wäre in dem bereich nämlich absolut phänomenal.
Insbesondere sehe ich keinen Grund warum AMD ein solches Effizienzmonster für das gleiche Geld verkaufen sollte.
Ähnliche Einsparungen kosten bei Intel z.b. 50% mehr(q9550s)
Doch kann man, sogar für das gleiche Modell. Allein schon eine bessere Ausbeute in einer Fab kann für optimierte (höher getaktet und/oder niedrigerer Verbrauch) Prozessoren sorgen. Mach Dich am besten mal mit dem Begriff der Yield Rate und deren Auswirkungen vertraut.
Lar337 schrieb:
Macht sie nicht!
Die TDP steht für die WärmeLEISTUNG! Ich falle hier noch vom Glauben ab, so wie hier manche klar diffinierte Größen verbiegen

Die Wärmeleistung hat nichts, aber auch garnichts mit irgendwelchen Temperaturdifferenzen zu tun (außer das Chips bisschen mehr Strom brauchen, wenn sie wärmer sind, aber das ist ein anderes Thema).
Recht geb.
Denahar schrieb:
Also wie ich Realsmasher verstanden habe, ist die TDP lediglich das "Wärmeleistungsäquivalent" in Bezug auf die mögliche, abzuführende Wärmeleistung bei einer gegebenen Temperaturdifferenz. Es stimmt schon, dass es leichter ist 125W "Wärmeleistung" mit einer "Kühllösung für 65W" abzuführen, wenn die maximal erlaubte Temperatur beispielsweise sehr hoch ist. Die TDP würde hierbei nicht 125W lauten sondern eben 65W. Ähnlich kann es auch anders herum sein, wenn eben das Szenario eine geringere Akzeptanz von erhöhten Temperaturen verlangt.
Absoluter Nonsens. Die Temeraturdifferenz sagt lediglich aus, wie effizient der Kühler ist bzw. sein kann. Das bedeutet, dass eine höhere CPU-Kerntemperatur zu einer höheren Temperaturdifferenz (DELTA) führt und somit die CPU effektiver gekühlt werden kann bei gleicher TDP (z.B. 125W). So wäre schon bei gleicher TDP von 125W und außschließlich einer höheren CPU-Kerntemperatur ein nicht so leistungsfähiger Kühler notwendig.
Im Fall des 945ers tritt aber noch zusätzlich die Senkung der TDP ein, womit der Kühler auch noch weniger Verlustleistung in Form von Wärme abführen muss.
Realsmasher schrieb:
ein x2 3600+ liefert bei weitem keine 90W die weg müssen. der kühler muss hier vielleicht 40W bewerkstelligen, eher noch weniger.
Entscheident für die Dimensionierung des Kühlsystems ist aber nicht die Verlustrleistung sondern die Arbeit die der Kühler/lüfter verrichten muss.
Würde eine cpu 1000° aushalten gäbe es gar keine tdp da auch kein kühler benötigt würde.
Die Arbeit, die der Kühler verrichten muss, hängt direkt von der TDP ab. Dass die TDP nicht unbedingt immer erreicht wird (vor allem bei kleineren Modellen), ist doch eine ganz andere Frage.
Realsmasher schrieb:
nein, sie gehen vom tdp wert aus.
von einer bestimmten temperatur auszugehen wäre eine absolute schnappsidee weil die sich extrem unterscheiden.
TDP und zulässige Maximaltemperatur bestimmen beide zusammen die notwendige Kühllösung, wobei aber die TDP eine wesentlich größere Rolle spielt.
Realsmasher schrieb:
den zusammenhang musst aber mal erklären.
insbesondere in dem zusammenhang als das alte cpus mit teils sehr hohen spannungen höhere temperaturen mitmachen als aktuelle.
und jetzt nicht mit mehr wärme durch mehr spannung oder kleineren strukturen kommen, mich interessiert nur der zusammenhang zwischen spannung und instabilität bei hohen temps.
Ich empfehle dazu ein paar Bücher zu "Grundlagen der Elektrotechnik", das ist doch etwas tiefgründiger und bedarf einigem Fachwissen. Aber in Kurzform: Die Kenngrößen Stukturgröße, Kernspannung, Stromaufnahme, Leckstrom, Taktrate, DIE-Größe sowie TDP hängen stark voneinander ab, vor allem die immer geringere DIE-Größe bei gleichbleibender TDP führt zu geringeren erlaubten Maximaltemperaturen (sehr grob formuliert).
Realsmasher schrieb:
Das die anderen beide Punkte stimmen ist richtig, aber mehr Spannung macht eine cpu nie instabiler, sondern genau das gegenteil.
Und das ändert sich auch bei höheren temps nicht. auch hier ist weniger spannung = weniger stabilität.
Leg mal 5V an und beobachte die Rauchwolke bzw. das Feuerwerk, das dabei entsteht. Das soll stabil sein?
Viele Grüße