News IDF: Neue CPUs sparen 1 Mrd. Energiekosten

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Wie erwartet hat Intel im Rahmen des diesjährigen Intel Developer Forums erste Einblicke in seine kommende Prozessor-Architektur gewährt, die unter anderem in den Produkten mit den Codenamen Conroe (Desktop), Merom (Mobile) und Woodcrest (2-Wege-Server) zum Einsatz kommen wird.

Zur News: IDF: Neue CPUs sparen 1 Mrd. Energiekosten
 
Gut, dass AMD sein TDP bereits vor Jahren im Griff hatte. Das war ein Zwangszug für Intel, sonst stünden sie schneller Schach-Matt als gedacht...
 
Oh mann, kein Bashing mehr...

AMD hatte die Probleme mit der zu hohen Verlustleistung btw schon VOR Intel, und ist sie erst mit dem Winchester wirklich losgeworden...
 
Also 10 Euro Energie pro CPU, wahrscheinlich kostet die dafür 100 Euro mehr und verbraucht in der Herstellung 20 Euro mehr Energie, aber sowas amcht sich in der Werbung immer gut ;)
Das nächste Mal wenn jemand nen P4 kauft werd ich ihm bespucken, wie kann man nur :evillol:
 
Ja schön, und wann war der Winchester? Doch wohl einiges vor der heutigen Zeit... Meinungsmache? Werbung? >>> Intel kauft sich die Leute, kein Problem.
 
auch wenn ich seit >6 jahren AMD-fan bin, begrüsse ich die neue entwicklung Intels doch sehr und freue mich darüber. man darf gespannt sein, wann diese technick breitflächig einzug nehmen wird
 
Cameron schrieb:
Ja schön, und wann war der Winchester? Doch wohl einiges vor der heutigen Zeit... Meinungsmache? Werbung? >>> Intel kauft sich die Leute, kein Problem.

Entschuldige, aber der Winchester ist erst letztes Jahr auf den Markt gekommen.
AMD hatte allerdings schon mit dem Athlon (bis 1400mhz) Verlustleistungen jenseits der 70 Watt, bei so "niedrigen" Taktraten war das schon krass ;)
Und der Northwood war so ineffizient nicht, beispielsweise bei 2.8 ghz unter 70 Watt TDP, das ist noch im Rahmen, finde ich.
 
du kannst aber auch keinen p4 northwood mit einem athlon xp vorgänger vergleichen. wenn du schon einen p4 vergleichst, dann mit einem a64.
 
@Blutschlumpf: Wieso sollten die neuen Prozessoren mehr in der Fertigung kosten?
Die CPUs sind immerhin kleiner. Und wenn da die Fehlerrate nicht enorm angestiegen ist (und bei 65nm liest man keine derartigen Meldungen), dann sollte die Fertigung bei gleicher Wafer-Größe sogar bililger sein! Bei der Forschung sieht das evtl. anders aus...

@affe mit waffe: Einen P4 Northwood mit einem A64 vergleichen. Naja, das würde ich dann doch wieder ein wenig unfair finden. Ich hab hier meinen Northwood schon 3 Jahre... wann kam der A64 nochmal auf den Markt? Zu ziemlich der selben Zeit hat AMD den Athlon XP 2000+ gezeigt... nicht den A64 (Quelle: http://www.heise.de/newsticker/meldung/23785).

Ich verstehe nicht warum hier die Meldung negativ sehen.
AMD war schneller, stimmt... deshalb kauf ich mir noch diesen Monat einen AMD (besonders weil der X2 für 2Cores einfach geniale Werte hat ;-)).
Das sollte aber bitte nicht dazu führen, dass man eine eigentlich gute Entscheidung seitens Intels schlecht machen muss. Ich sehe es sehr positiv, dass Intel aus dem Drama um den Prescott was gelernt hat... auch wenn sie es ein wenig übertreiben und für Marketing Zwecke nutzen!

Ich würd also nicht grad davon sprechen, dass sich Intel Leute kauft oder zu diesem Schritt gezwungen wurde (die Prescotts verkaufen sich ja auch net grad schlecht...)
 
Oh Mannometer, damit könnte man also weltweit ein AKW schliessen überspitzt gesagt. Ich verzichte dann lieber auf tausende WKW (Windkraftwerke) oder sonstige überteuerten Stromerzeuger. Die sollten dann lieber die Kohlekraftwerke schliessen, die wahren Umweltschmutzfinken und nicht permanent auf den AKWs rumhacken. Was ist denn umweltschädlicher? Und bitte sachlich bleiben bei der persönlichen Antwort auf diese Frage. Wer macht mehr Dreck beim Erzeugen von Energie?Ich meine nicht einen Notfall...
 
Ist natürlich klug erst einen Prozessor rauszubringen, der über 100 Watt verbrät und dann mit den neuen ach so tollen Technologien rauszurücken. :D Aber wenigstens haben sie es auch endlich eingesehen...

Zu den AKWs... war da nicht etwas mit Wassererwärmung und Fischen die das nicht abkönnen? Auch nicht toll. Aber keine Ahnung... ich dachte ich hätte sowas gehört. ;)
 
Wahnsinnige Innovation...

Wenn die neuen CPUs nun auch preislich gleich auf mit denen von AMD liegen, kaufe ich mir vielleicht in 5 Jahren einen... :)
 
@DukeGosar
Warum keinen Notfall betrachten... Kommen in deinem Universum keine Störfälle vor? Arbeiten keine Menschen in AKWs? Oder machen die keine Fehler bei der Planung, Genehmigung, Bau oder im Betrieb? Harrisburg/USA 1979, Tschernobyl 1986 und vor kurzem die Kursk. Man muss die "Notfälle" sehr wohl betrachten. Also alles in allem gehen wir einer Strahlenden Zukunft entgegen.

Zurück zum Topic:
Ich finde die Ankündigung von Intel "cool". Wäre doch nicht schlecht in ein paar Jahren einen Quat-Prozi mit 10 W Verlustleistung zu betreiben. Noch ne Graka mit 10 W na das wär doch watt. Irgend wann braucht der normalo User, dazu zähle ich auch die Spieler, nicht mehr Leistung. Spätestens wenn in HDTV Quali und in Echtzeit geränderte Spiele an der Tagesordnung sind, während im Hintergrund 2 HD-DVDs gebrannt werden können und dazu "Folding at Home" noch läuft sollte man die Überschüssige Leistung in die Energieeffiziens stecken. In diesem Sinne ...
 
Wenn man betrachtet, daß vor wenigen Jahren CPUs der fast GHz-Klasse mit einem 135 Watt Desktop Netzteil ausgeliefert wurden ... (damit kann man übrigens noch einen Tualatin mit ca. 1,2 GHz und ne passiv gekühlte GraKa laufen lassen)

Intel verkauft als Fortschritt, was sie selbst per Netburst angerichtet hatten.
Noch schlimmer - Intel weigerte sich jahrelang die Stromsparfeatures im P4 (wie im P4 mobil üblich) beim Desktop frei zu geben. AMD wurde aus Gründen der Intel-Speichelleckerei beim K7 (der hatte schon sowas) von den Mainboardern übergangen und erst per K8-AMD kam das dann am Desktop an.

In Summe ist das Ende des Thermowahnsinns aber zu begrüßen.
Ich wünsche mir aber wieder neue 135/200 Watt fähige Designs in kompakten Gehäusen.
Da fehlts bei Intel und AMD aber noch.
 
Ich begrüße die Entwicklung zu effizienteren CPUs auch. So schön fotorealistische Rendergrafiken auch sein mögen, so toll das alles ist, was man mit nem PC alles machen kann... wenn ich mir dann den Stromhunger moderner Systeme angucke und da im Speziellen auch die Verlustleistung beachte, dann kann ich mir nur an den Kopf fassen. Seit einiger Zeit läuft auf tomshardware nen Stresstest von PC-Netzteilen. Unabhängig davon, wie sinnvoll man das finden mag: das Top-Modell liefert 850 Watt und kostet 500 Euro. Na irgendwann hörts auch auf, oder?

Kürzlich hab ich jedenfalls nen Strom-Messgerät erstanden und werd bei der nächsten Aufrüstaktion doch ein Auge auf den Verbrauch der Komponenten (allen voran CPU und GPU... und was is mit Creative's X-Fi?) werfen.
 
"Da kann man wohl von Glück sprechen, dass die Prozessoren der Konkurrenz im Einsatz bereits jetzt deutlich weniger als 65 oder 80 Watt benötigen. "

schöner Schluss-Satz ;)
 
@rkinet

Ich hab sogar mein Pentium M @ 2,4 GHz, 512 MB PC3200 RAM + GeForce 4 Ti4400 + Restsystem mit einem 145 Watt Kombi AT/ATX Netzteil mit 90 Watt(!) Combined Power am laufen. ;)
Sollte vielleicht auch mitm Turion auf 754 Board Basis möglich sein, nur aktuelle Grakas sind nicht drin, die brauchen die 4,2A, die das Ding auf der 12 Volt Schiene liefern kann schon zum Anlaufen der Lüfter. ^^

mfg Simon
 
Zuletzt bearbeitet:
Hallo. Ich muss jetzt auch mal was dazu sagen. Ich habe bereits seit über einem Jahr einen Prescott (3 Ghz) und bin damit voll auf zufrieden. In unserem Haus gibt es insgesamt drei Computer mit Prescott-Prozessoren und es gibt darüber nichts negatives zu sagen. Die Computer sind nicht besonders laut wie es immer behauptet wird. Und dass sie besonders viel Strom ziehen kann ich auch nicht gerade behaupten, in meinem Computer ist noch ne 6800GT verbaut und das Netzteil (230W) läuft mit meiner Konfiguration (alle Slots belegt) auch nicht auf voller Belastung. Ich hatte selber mal nen Athlon (2500+, jedoch nur einen Monat),weil alles sagten die seien so gut besonders für Spiele. Danach stieg ich wieder auf Intel um (hatte vorher nur Intel) und muss sagen nach dieser Erfahrung nie wieder Athlon, der ist ja so was von schlecht gelaufen und war für meine Zwecke nicht geeignet. Mit dem HyperThreading kann ich die TV-Karte nutzen während ich im Hintergrund etwas konvertiere. Das ging mit nem AMD nicht, da schmierte die TV-Karte ab. Also kann man nur eins von beiden machen entweder Fernsehen oder konvertieren. Also frag ich mich was da Energie sparen sein soll, wenn man alles nacheinander machen kann. Den Zug mit ner HyperThreading ähnlichen Technologie hat AMD wohl verpasst. Wahrscheinlich hatte von euch noch keiner einen Prescott,. aber direkt mal volles Rohr drauf los schießen. Ich würde mir jederzeit wieder nen Intel kaufen.

Gruss Matze
 
ob man es hintereinander macht oder gleichzeitig aber langsamer ist doch wohl egal
klar ist ht ein nettes feature aber manche tuen so als könne man 2 anwendungen gleichzeitig nutzen welche viel performance schlucken
ht ist noch lange kein dualcore
 
@Intelfreak89:
du kennst dich aber schon aus ja??
so wie du das schreibst glaub ich das nicht! wenn du einen prescott@3,2ghz, eine 6800gt 256mb und alle slots belegt, also 4 oder 5 pci(-e)-karten hast, plus mind. eine hdd, dann verbraucht der pc unter volllast schon um die 230w, d.h dein netzteil hat eine combinated-power von vieleicht 230w, aber es wäre dann mind. ein 300w, wenn nicht ein 350w netzteil!
und 230w unter volllast, damit kannst du fast dein zimmer im winter heizen und leise ist der pc dann auch nicht wirklich
 
Zurück
Oben