News IDF: Nehalems neue Stromspar- und Turbo-Modi

Klingt ja sehr schön. Aber Intel wird schon wissen wie sie sich am besten vermarkten. Solange kein Neutraler Test Schwarz auf weiß den Idle-Verbauch zeigt ist das alles nur Marketing.
 
also besonders die neuen Stromsparmechanismen mit der PCU (Power Control Unit) finde ich sehr gut!

Ich hoffe das funktioniert so wie es soll und trägt wesentlich zum Stromsparen bei (man beachte, dass die Energiekonzerne die Stromkosten um weitere 20-25% anheben wollen)
 
Zuletzt bearbeitet:
ich hoffe auch dass die neuen Funktionen gut funktionieren... die sache mit dem Turbo und dem C6 lassen aber eine komplizierteres OC Verhalten vermuten. Man wird sehen was in sachen OC überhaupt machbar ist. Schön wäre es wenn amn die Stromsparfunktion und den min V unangetastet lassen kann und nach oben keine Grenzen gesetzt sind. Wäre aber auch zu schön...

Greedz
 
Man beachte auch, dass sich die Stromsparmodi größtenteils in Software umsetzen lassen müssen. Ansonsten wird auch kein Dualcoreoptimizer mehr helfen. Da werden Programme zu Hauf abstürzen,wenn die Programme von einem Kern auf den anderen springen bei unterschiedlichen Taktraten.

AMD wollte dieses Verfahren schon längst ausgereift haben. Viel sieht man nicht davon beim aktuellen Phenom.
Auch Intel wird sich schwer tun.
Die Aussage, das das neue Powergate Leckstöme wie von magischer Hand eliminiert, ist fragwürdig bis falsch. Es schaltet die Kerne ab, mehr aber auch nicht. Da ich die Originalquelle (Pat Gelsingers Rede) nicht kenne, will ich CB vorhalten hier etwas zu leichfertig ins Deutsche übersetzt zu haben.
Ich meine, dass ist das Originalpatent von Intel zum Nehalem und der C6 Schaltung: http://www.patentstorm.us/patents/7095255.html
Falls nicht, bitte Verbesserung posten.
 
Warum sollten Programme abstürzen, wenn sie beim Kern-Wechsel auf unterschiedliche Taktraten treffen? Gibt keinen Grund dazu. Der Dualcore-Optimizer hat meines Wissens nach lediglich die TSCs synchronisiert, mehr nicht. Und Abstürzen tun Programme auch ohne Dualcore-Optimizer nicht.
 
Zuletzt bearbeitet:
Weil die Timestamps nicht stimmen, z.B in diversen Spielen, die nicht Multicore optimiert sind.
Multimediaprogramme und Serveranwendungen haben damit auch so ihre liebe Not.
Die typischen Aussetzer.

p.s. Für mich ist dies ein Programmabsturz, da im Programmcode Fehler aufgetreten sind. Es muss nun nicht immer ein Bluescreen/Neustart/Programmabbruch erfolgen.
 
Zuletzt bearbeitet:
Wobei ich eher davon ausgehe, das diese ganze TSC-Geschichte ähnlich hochgespielt wurde/wird wie die Fehler in den alten Phenom-CPUs. Und bei mir ist noch nie ein Programm abgestürzt oder hat unnormales Verhalten aufgezeigt wegen asynchronen TSCs, und das obwohl ich nie den DC-Optimizer installiert hatte.

Das einzige Programm, das mich auf diesen Umstand hinweist, ist VMware, und auch das macht bei mir keinerlei Probleme. Und wenn da intern vlt. hier und da mal ein Fehler auftaucht, der für mich irrelevant weil nicht bemerkbar ist, dann ist mir das ehrlich gesagt komplett egal und kein "Programm-Absturz", egal wie man das definiert.
 
Sachen die keiner braucht.
 
@ETA-2824
Sachen die keiner braucht? Spinnst du?

Je mehr Strom man heutzutage sparen kann desto besser. Bei den Energiepreise musst dir bald überlegen ob du den PC heute anschalten kannst oder nicht ohne dabei Schulden aufnehmen zu müssen (Na gut is a bissel übertrieben)

Die Forschungen in die Richtung müssen weiter gehen.
 
Ideal wäre es natürlich, wenn man dann z.B. zwischen 4 Kernen álà 3.2GHz oder 2 Kernen álà 4GHz umschalten könnte.

Diese Stromsparfeatures sind auf jeden Fall eine gute Sache!
 
Ist ja alles schön und gut, aber wo sind denn mal richtige Zahlen? Wieviel verbraucht denn nun der Nehalem im Idle? Man erinnere sich daran das beim Phenom ähnliche Aussagen gemacht wurden und im Ergebnis stellten sich die Stromsparmechanismen als ein riesen Rückschritt dar.

Vermutlich wird der Stromverbrauch beim Nehalem deutlich höher liegen als bisher, allein schon wegen dem integrierten Speichercontroler. Man sollte hier wirklich nicht so hohe Hoffnungen setzen. Auch der Verbrauch bei Vollast scheint ja eher am oberen Limit zu sein, schade!

Der Nehalem ist wohl vorerst vor allem eine Hoffnung im Servermarkt, im Desktopmarkt wird er wohl frühestens in einem Jahr so richtig einschlagen, Notebook eher noch später.
 
Schade, dass in der News nichts zu beiden letzten Folien (Folie 13 und 14) geschrieben wurde. Verbraucht 8T nicht mehr Platz als 6T. Ich dachte, es gebe das bestreben alles auf 4T zu reduzieren, damit man noch mehr Platz spart oder habe ich da was verwechselt?
Die Verwendung von Static CMOS würde letzten Endes auch bedeuten, dass man dann weniger hoch takten kann, da der ja langsamer ist, oder?

Wirklich sehr schade, dass hier der Redakteur nicht nachrecherchiert hat, das banalste, was jeder aus der Folie selbst versteht, wurde aber in ein Text umgewandelt :/
 
Zuletzt bearbeitet:
Die Erklärungen für die grössere Anzahl n Transistoren ist ja praktisch auch auf den Folien.
Mittlerweile haben Intel und AMD nur mehr Probleme mit der Hitzeentwicklung und die Taktrate ist kein Problem, um sonst sind nicht so extrem gute Übertaktungen möglich.

Der 8T hat den Vorteil das weniger Energie zum Lesen, als zum Schreiben benötigt wird und somit die Verlustleistung sinkt.
Wenn man es sich vom Takt her leisten kann, dann ist eine Optimierung auf niedrige Verlustleistung kein Problem.


Vielleicht kann mir aber auch jemand beantworten wie die Folie mit den 7mm CU gelesen werden soll.
Soll das mm für µm stehen oder für mm, weil 7mm Kupfer ist duch etwas unvorstellbar und 7µm ist kein wirklich grossartiger Wert.
 
Chilliwalker schrieb:
Je mehr Strom man heutzutage sparen kann desto besser. [...]
Die Forschungen in die Richtung müssen weiter gehen.
Nova1984 schrieb:
Vermutlich wird der Stromverbrauch beim Nehalem deutlich höher liegen als bisher, allein schon wegen dem integrierten Speichercontroler. Man sollte hier wirklich nicht so hohe Hoffnungen setzen. Auch der Verbrauch bei Vollast scheint ja eher am oberen Limit zu sein, schade!
Genau! Ich muss auch nur den Strom den der Prozessor verbraucht selber zahlen, den Strom der vom Mainboard & anderen Komponenten verbraucht wird zahlen glücklicherweise meine Eltern... Daher kann ich mich mit Nehalem auch nicht anfreunden, weil ein zusätzlicher Stromverbraucher (IMC) vom Mainboard in die CPU wandert! WAS EIN SCHEISS!!! :rolleyes: :D
 
Und? Du musst immer das komplette System zählen und zahlen!

Da in den letzten Jahren die Leistung von CPUs im Vergleich zu GPUs gestiegen ist mit wesentlich weniger Strommehrverbrauch, solltest du als erstes mal über Grafikkarten schimpfen!

Solange kein Penryn System mit dem X38/X48 gegen ein Nahelem System mit dem X58 verglichen wird, können wir dazu eh nix sagen.


Nebenbei: Der "zusätzliche" Stromverbraucher (IMC) ist dann ja vom Mainboard weg, also wo ist dein Problem?
 
Ja was denkst du denn? Dass ich nen Stromzähler am Mainboard habe, der nur den Verbrauch des Prozessors ausließt? :evillol:

Genau darauf das es auf den Gesammtverbrauch ankommt wollt ich eigentlich mit meinem ironischem schriebsel hinweisen, da interessierts nicht die Bohne wo der IMC hockt - ob nun im Prozessor oder in der Northbridge...
Na ja, wobei der verbrauch des IMC allein betrachtet im Prozessor vermutlich insgesammt niedriger ist, als wenn der immernoch in der Northbridge aufgehoben wäre - alleine aufgrund der fortschrittlicheren 45nm Fertigungstechnik der CPU gegenüber den Chipsätzen. Aber das ist eine reine Vermutung meinerseits.



Das man den IMC negativ beleuchten kann hinsichtlich der TDP eines Nehalem PCs, sprich das die CPU deswegen mehr kühlung benötigt, mag ich nicht anzweifeln - aber hinsichtlich des Stromverbrauchs eines Nehalem PCs lässt er sich sicherlich so nicht anführen.

... Aber es gibt ja auch noch genügend leute die TDP = Stromverbrauch setzen. ;)
 
castlestabler schrieb:
Vielleicht kann mir aber auch jemand beantworten wie die Folie mit den 7mm CU gelesen werden soll.
Soll das mm für µm stehen oder für mm, weil 7mm Kupfer ist duch etwas unvorstellbar und 7µm ist kein wirklich grossartiger Wert.

Hier die Folie in grün: http://www.extremetech.com/article2/0,2845,2328441,00.asp
Intel konnte sich wohl nicht ganz einigen, was unter den Bildern stehen soll.
Hier im Zusammenhang. http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3377
oder dieser Blog: http://www.pcper.com/article.php?aid=606&type=expert
Die PCU könnte tatsächlich 7 mm Kupferschichten benutzen. :rolleyes: Keiner der Liveblogs hat aber über die Folie ausführliches geschrieben. Extremetech hat noch die besten Kommentare zu dem Powerdesign gegeben.
Youtube schweigt sich aus. Die Vorstellung eine mindestens 7mm dicke CPU zu haben, wäre interessant. Ich gehe aber von 7 µm aus.

Wer meint sinnvolles Beitragen zu können. Der Wikipediaartikel steht noch nicht: http://en.wikipedia.org/wiki/Power_Control_Unit
 
1.) Das mit dem Übertakten, wenn nur 1 Kern benötigt wird, das wird so nicht funktionieren. Den Takt limitiert nämlich nicht die Temperatur, sondern die Fertigung/Architektur der CPU an sich. Die Temperatur macht da, solange sie nicht zu hoch ansteigt relativ wenig aus. Was ich mir vorstellen kann ist, dass bei single threaded Anwendungen 1 Kern auf vollem Takt läuft, während die anderen untertaktet werden.

2.) Die Timestamps kommen nicht vom CPU Takt bzw. FSB. Dieser schwankt da viel zu viel. Bei einigen Mainboards sind es fast 1%. Da würde die Uhr am Tag um 20 Minuten falsch gehen, von übertakteten Systemen einmal ganz zu schweigen. Einmal abgesehen davon bekommt das die Anwendung ja gar nicht mit und wenn VMWare etc. mehr oder weniger Takt feststellen, dann liegt das ausschließlich an Werten, die irgendwo ausgelesen werden. Es wird pro Takt nicht ein Befehl ausgeführt, sondern mehrere parallel und dafür gibt es wieder Zeiten, so gar nichts passiert, weil auf den Cache/RAM gewartet wird. Das ist sogar der Großteil der Zeit. Weiters kann ein Programm nicht einfach so von einer CPU zur anderen springen. Das ist eine Aufgabe des Betriebssystems und das pausiert ständig Threads/Prozesse bzw. setzt diese wieder fort und das dauert oft sogar Stunden z.B. bei einem sehr selten besuchten Webserver, der auf eine TCP/IP Verbindung wartet.
 
Dass das Betriebssystem die Hauptfehlerquelle bei verkehrten Timestamps ist, sollte klar sein, verursacht wird es aber trotzdem intern durch die Threadaufteilung auf die einzelnen Kerne und die variable Taktung. Ursache und Wirkung.
Zitat AMD:
The AMD Dual-Core Optimizer can help improve some PC gaming video performance by compensating for those applications that bypass the Windows API for timing by directly using the RDTSC (Read Time Stamp Counter) instruction. Applications that rely on RDTSC do not benefit from the logic in the operating system to properly account for the affect of power management mechanisms on the rate at which a processor core's Time Stamp Counter (TSC) is incremented.

Zum Punkt 1: Höchstwahrscheinlich wird es funktionieren. Die PCU ist der sogenannte "uncore" Bereich mit eigener Firmware. Diese soll sogar über das Bios updatebar sein, aber trotzdem unabhängig vom Bios agieren können. Ein gut gemachter Logikchip sollte damit in der Theorie keine Probleme haben. 1 Millionen Transistoren sollten hoffentlich ausreichen, damit wenigstens der C6 Modus funktioniert.
Zumindest steht ein aktueller unabhängiger Test dieses Features noch aus.
 
Zurück
Oben