News Intels SDP als Alternative zu TDP vor dem Aus

Eine gute Entscheidung- die SDP hat für viel Verwirrung gesorgt! :D
 
Ich warte "noch immer" auf brauchbare CPUs für den Desktop mit einer TDP von unter 10W. Ob wir das mal erleben?
 
Das Problem aber: Wie man hier sieht, sorgt TDP für genauso viel Verwirrung :)
 
ACP kann man nun wirklich nicht mit SDP vergleichen.

ACP wurde von AMD genutzt da Intel im Gegensatz zu AMD bei der TDP nicht das absolute Worst case nutzte und der Verbrauch deshalb durchaus durchgängig über der TDP liegen konnte. Bei AMD dagegen damals nicht, deshalb wurde dann ACP genutzt. Inzwischen hat AMD die TDP Angabe aber "angepasst" und orientiert sich näher an Intels TDP, wenn auch heute AMDs TDP oft leicht höher ist als Intels bei gleichen Verbrauch.
 
Also ich habe die TDP immer so verstanden, das sie die leistungsabgabe in form der Verlustleistung(Abwärme) angibt und somit die Mindestanforderung für eine Kühlung festlegt.

Hat also maximal nur indirekt etwas mit der Leistungsaufnahme(Stromverbrauch) zu tun. Somit liegt der Stromverbraucht grundsätzlich immer mindestens über der angegebenen TDP, so eine CPU soll ja auch etwas anderes schaffen als nur Wärme zu produzieren.
 
Ich würde es am transparentesten finden, wenn ich ein Diagramm bekäme, auf dem die TDP gegen die Last aufgetragen ist. Dann wüsste jeder, wo er dran ist.
mfg Verata
 
Statt die TDP also Verbrauchswert interpretieren zu wollen und sich dann aufzuregen, dass sie das nicht ist, sollte man sich noch mal klar vor Augen führen, wofür diese Abkürzung steht: Thermal Design Power! Anders als bei wikipedia steht, ist es eben heute nicht so, dass diese "meist größer als die reale maximale Verlustleistung" ist. Das ist Zeiten der sehr dynamischen Anpassung des Taktes an die Anforderung und dem Deaktivieren von Teilen die gerade nicht verwendet werden, auch kaum noch sinnvoll. Daher wählen die Hersteller eben eine TDP die etwa der maximalen Belastung bei normalen Anwendungen entspricht und wenn diese eben in Benchmark überschritten, gerade auch wenn diese intensiv energiefressende Befehlserweiterungen nutzen, dann reduziert die CPU eben notfalls den Takt um nicht zu überhitzen, die haben ja extra Temperatursensoren eingebaut.

Was wäre den die Alternative? Die TDP ständig auf die maximale mögliche Leistungsaufnahme auszulegen? Dann hätten 95% der CPUs total überdimensionierte Kühler verbaut. Und was will man dann für übertaktbare CPUs angeben? Wer länger die maximale Leistung von der CPU abfordern will, der muss eben mehr Strom bezahlen und Geld für eine bessere Kühllösung hinlegen, das war aber eigentlich schon immer so, seid man die Takte einstellen kann. Wer die reale Leistungsaufnahme seines Systems wissen will, der muss sie selbst messen und kann dann mit den Einstellungen versuchen diese zu drücken und wer diese vor dem Kauf abschätzen will, der schaut sich Reviews an um eine Idee zu bekommen, was das gewünschte System in etwa so verbrauchen wird.
 
Im Prinzip bezeichnet die TDP die Stromaufnahme der CPU Kerne im eingeschwungenem Zustand, welche durch 100% Last auf allen Kernen nach längerer Laufzeit (aufgeheizt und meist mit reduziertem Turbo) erreicht werden kann. Diese Last lässt sich bei modernen CPUs mit Tools wie z.B. Prime nicht mehr simulieren, Intel selbst bietet aber hier sehr wohl Utilities dies nachzuvollziehen (unter NDA).
Die Worst Case Angabe, nach welcher hier schon gefragt wurde, liegt bei 1,25x TDP. Das sog. Power Limit 2 (PL2 max) erreicht sich dabei nur mit einem bestimmten Verhältnis von CPU, Grafik und Speicherlast und nur in der Zeit, in der die CPU den maximalen Turbo Modus fahren kann (z.B. die ersten 30s bei Last).
Von daher finde ich die TDP Angabe von Intel am Sinnvollsten, den keine Anwendung ist in der Lage CPU, Grafik und Speicher auf Maximum zu belasten. Im schlimmsten Fall kann eine Anwendung unter Ausnutzung aller CPU Funktionen die CPU auf die TDP bringen, deshalb dient diese als Richtwert für die Kühllösung.
 
Zuletzt bearbeitet:
Tulol schrieb:
Also ich habe die TDP immer so verstanden, das sie die leistungsabgabe in form der Verlustleistung(Abwärme) angibt und somit die Mindestanforderung für eine Kühlung festlegt.

Hat also maximal nur indirekt etwas mit der Leistungsaufnahme(Stromverbrauch) zu tun. Somit liegt der Stromverbraucht grundsätzlich immer mindestens über der angegebenen TDP, so eine CPU soll ja auch etwas anderes schaffen als nur Wärme zu produzieren.

Ich bin jetzt kein Physiker,aber soweit ich weiss ist die reine Rechenleistung und damit die Hauptaufgabe der CPU nichts was als Physikalische Grösse gilt und wirklich Energie verbraucht. Die Energie kann nur in Wärme umgewandelt werden,anders als eine Glühlampe die noch zu einem geringen Prozentsatz Licht emittiert...Also Max .Stromverbrauch = Max.Verlustleistung in form von Wärme
 
@Reload83 und Tulol:
Die Verarbeitung von Informationen benötigt tatsächlich etwas Energie, die dann sozusagen in den geordneten Bits gespeichert ist. Diese Energie ist aber verschwindend gering und die elektrische Energie, die der Prozessor aufnimmt wird daher praktisch zu 100% in Wärme umgewandelt.

@P!nkY:
Als kleine Ergänzung sollte man vielleicht noch erwähnen, dass die TDP dem maximalen, über einen kurzen Zeitraum gemittelten Verbrauch entspricht. D.h. die CPU kann auch im eingeschwungenen Zustand kurze Leistungsspitzen haben, die weit über die TDP hinaus gehen. Allerdings müssen diese Spitzen eben so kurz sein, dass sie thermisch nicht relevant werden.
 
Zuletzt bearbeitet: (typo)
Naja, heutige CPU sind halt ein geschlossener Regelkreis, die messen die Temperatur und takten runter, wenn diese zu hoch wird, im Notfall auf wenige MHz, während z.B. ein P4 dann einfach aus ging um keinen Schaden zu nehmen. Daher ist die TDP heute eher ein Zielwert als ein Limit der maximalen Leistungsaufnahmen wie es früher war, als es eben ein ernstes Problem dargestellt hat, wenn die CPU die Hitze nicht loswerden konnte. Damals musste die TDP so angegeben und damit die Kühlung so ausgelegt werden, dass eine CPU keineswegs überhitzen konnte. Heute regelt sie die Frequenz so weit runter, bis die Temperatur wieder passt, die TDP kann also vom Hersteller praktisch beliebig zwischen den minmalen und der maximal möglichen Leistungsaufnahme gewählt werden und wenn man sich die maximalen Taktraten der "Energiespar-/Mobil-CPUs" ansieht, dann ist das auch fast der Fall, denn da geht die Schere zwischen Basis- und Turbo-Takt umso weiter auf, je geringer die TDP im Vergleich zu den Spitzenmodellen ist.

Das "Energiesparen" wird doch im Grunde nur über einen geringeren Basistakt realisiert, der Turbo wird bei den Modellen kaum gesenkt, womit klar sein sollte, dass sie bei gleiche Takt auch auch allenfalls minimal weniger Energie aufnahmen als die normalen Geschwister, der Unterschied zwischen TDP und maximaler Leistungsaufnahme also größer ist.
 
Zuletzt bearbeitet:
Ich denke der einzige wirkliche Grund warum SDP und nicht TDP wieder in der Versenkung verschwindet ist, dass die TDP schon viel länger existiert und akzeptiert wurde :lol: Einen echten Verbrauchswert einer CPU fehlt leider völlig. Aus technischer Sicht sicherlich irgendwie nachvollziehbar, aus Usersicht ärgerlich :mad: Auch wenn ich genau weiß, dass die TDP-Werte eigentlich nicht den Verbrauch direkt nennen und außerdem fragwürdig sind, ist das für mich einer der wichtigsten Werte nachdem ich meine CPUs aussuche :cool_alt:

Also meines Erachtens nach sollte es doch eigentlich für die CPU-Hersteller möglich sein, den Stromverbrauch im Idle und unter Vollast (eben ein definierter, stark beanspruchender Zustand) direkt anzugeben. Mit Vergleichswerttabellen bin ich mir sicher, dass hier sinnvollere Ergebnisse rauskommen würden als der TDP bisher ist. Eines der größten Probleme hierbei wäre allerdings, dass die CPU-Hersteller sich auf Messsysteme einigen müssten - und das kriegen die sicherlich wieder mal nicht hin :freak:
 
Reload83 schrieb:
Also Max .Stromverbrauch = Max.Verlustleistung in form von Wärme

Richtig gemeint, aber die korrekte Formulierung ist:

Die aufgenommene elektrische Leistung (Spannung * Strom) ist gleich der abgegebenen Wärmeleistung.

Die Leistung P(t) ist ein zeitabhängiger Wert. Obige Aussage gilt für Minimal-, Maximal und auch Durchschnittswerte.
Und aus letzteren wird (bei voller Auslastung) die TDP abgeleitet.
 
kisser schrieb:
Und aus letzteren wird (bei voller Auslastung) die TDP abgeleitet.
Das war mal so, seid die CPUs selbst die Temperatur messen und die Taktraten entsprechend anpassen, ist das längst nicht mehr so, da die TDP nur garantiert größer als der Mindestwert, damit sie auch mal abkühlen kann.

Schau Dir nur den neuen Core-M an:
Also ein Core M-5Y70 mit einer TDP von 4,5 Watt soll so schnell sein wie i5-4200U mit einer TDP von 15W, der von 1.6 bis 2.6GHz taktet. Wäre die Aussage richtig, die TDP würde sich aus der maximale Leistungsaufnahme ableiten, so wäre mit dem Wechseln von 22nm auf 14nm eine Verdreifachung der Effizienz erreicht worden, weit mehr als bei jedem Shrink zuvor. Ok, man kann ein paar Prozent abziehen, weil es ja auch bei einem Tick (Die Shrink) minimale Optimierungen in der Architektur gibt, aber die machen meist nur einige Prozent aus.

Das glaubst Du doch hoffentlich selbst nicht, aber was auffällt ist, dass der Core-M von 1.1GHz bis 2.6GHz takten kann und der i5-4200U schon einen Basistakt von 1.6GHz hat. Beide können bis 2.6GHz takten, aber dann brauchen sie nicht 4.5W und 15W, sondern eher 30W und 35W oder noch mehr und wenn beiden nur mit einer Kühlung betrieben werden sie ihrer TDP entspricht, werden beiden nicht dauerhaft mit den 2.6GHz takten, sondern weit darunter und der Core-M noch deutlich tiefer als der i5-4200U. Bekommen beide die gleiche Kühlung, z.B. für die 15W des i5-4200U, dann dürfte der Core-M auf Dauer etwas schneller sein.

Hardwareluxx hat das auch gut erkannt und warnt entsprechend vor zu viel Euphorie:

 
Das die Core-Ms wohl nur kurzfristig volle Leistung bringen ist in vielen Anwendungen ja auch vollkommen ausreichend. Die wenigsten Programme sorgen für dauerhafte Auslastung. Die meisten Anwendungen brauchen für einzelne Aktionen ordentlich Wumms für einige Sekunden und danach ist wieder "ewig" Ruhe im Karton.

Was halt wenig sinnvoll sein wird sind leistungshunrige Spiele, größere Berechnungen. Video Rendern über QuickSync wird aber wohl doch recht gut von der Hand gehen. Ebenso reichen wenige Sekunden Rechenleistung oft schon für kleinere RayTracing Renderings oder grobe FEM Modelle einzelner Bauteile (oder vereinfachte Baugruppen). Also werden die CPUs wohl überall dort drosseln, wo man sinnvollerweise eh deutlich dickere Maschinen einsetzt um die Rechenzeit klein zu halten (denn die ist wohl auch auf voller Leistung eines solchen Core-Ms vergleichsweise bescheiden).
 
Natürlich ist so ein Turbo sinnvoll weil meist ein paar Sekunden Volle Pulle reichen und dem Anwender das Gefühl einer schnellen CPU geben, aber man sollte eben nicht glauben, dass die TDP bei dieser Vollauslastung noch eingehalten wird und man dauerhaft so eine Performance abrufen könnte.

Man beachte übrigens den Unterschied zum Xeon-D:
Das ist eine Server-CPU, die wird dauerhaft hoch bis voll ausgelastet und da gibt Intel wirklich den Maximalverbrauch an. Übrigens frage ich mich, wann wir endlich eine 10Gbit Ethernetschnittstelle für den Consumerbereich sehen werden. Die meisten NAS und Heimserver könnten mehr, aber diese alte 1Gbit Ehternet bremst und ist nun schon wirklich die langsamste Schnittstelle am PC. Zwar gibt es Karten zum nachrüsten, aber solange das nicht Mainstream wird, sind die Preis noch viel zu hoch, 250€ für eine Karte, 700€ für eine Switch! Wenn das in die Chipsätze Einzug hält, kostet so ein Switch bald keine 100€ mehr. Der Stromverbrauch kann ja auch nicht das Argument sein, wenn man sogar so einem 15W SoC diese Schnittstelle gönnt.
 
Zurück
Oben