News AMD Phenom: Overclocking pro Kern

ich weiss ja nicht, wo diese ganze freude herkommt? meinen informationen nach stinkt der neue AMD in allen test mächtig ab gegen einen GLEICHgetakteten intel. ob nun 2, 3, oder auch 4ghz. wer kauft sich denn bitteschön die zweite wahl und jubelt über seinen käfer als wärs ein ferrari? :evillol:

http://my.ocworkbench.com/bbs/showthread.php?p=422641#post422641
http://www.expreview.com/news/hard/2007-10-30/1193716099d6667.html
http://www.expreview.com/news/hard/2007-10-29/1193620830d6602.html

bis denne
 
find ich gut, solche technischen neuerungen(in meinen augen) sind sie für den home bereich nicht wirklich so wichtig, wie es in servern(grossrechnern), also richtigen systemen sich auswirkt.

beispiel :es wird jedem einleuchten, das bei einem system, welches 4 cpu`s hat nur vielleicht 2 watt gespart werden mit dieser neuen technik. rechnent man dann aber 2 x 4 sinds schon 8 watt. man spiele das ganze in form eines grossrechners ab und schon wird einem klar, das es da um bares geld für die firmen geht. wir regen uns vielleicht über eine hohe stromrechnung auf, doch bei ner firma gehts um rendite oder ums effizient arbeiten. weniger grundkosten, konkurrenzfähiger durch die möglichkeit, am preis zu schrauben. gegen unten versteht sich. gut für den käufer, gut für die forschung.
fazit, aus meiner sicht. sinnvolle neuerung für echte nutzung, also server etc. weiter so amd ... und beim nächsten intel tread ... go intel. es braucht beide firmen, falls das untergegangen wäre. intel ist grösser, darum schneller der buhmann. doch was würde amd an intels stelle machen. eben.
entscheidend ist doch p/l, nix anderes.

weniger verbrauch = wirtschaftlicher = weniger kosten = mehr gewinn/konkurrenzfähigkeit


noch was in eigener sache. ich hab mich im netz mal versucht schlau zu machen, was leider fehlgeschlagen ist. darum frag ich nun euch*s
wo besteht das problem ? warum ist es so, das wenn man vier kerne hat,
nicht alle in einem taktzyklus je eine arbeit zugewiesen bekommen. wenn einer schneller fertig ist, mit dem zu berechnenden teilstück, bekommt er das nächste. und so weiter und so fort. womit doch gegeben wäre, das die cores alle genutzt würden und die beste performance herausgeholt würde.
mir ist klar, das es einen grund gibt, doch welcher das wäre, hab ich selbst nach längerem suchen nicht gefunden, oder nicht verstanden *s

ich wäre um links dankbar, oder gleich erklärungen.
vielleicht interessiert das ja auch noch sonst wen, ausser mir*g

greez
 
> meinen informationen nach stinkt der neue AMD in allen test mächtig ab gegen einen GLEICHgetakteten intel.

Wow, da hast Du ja die renomiertesten Tests verlinkt ... ;)

Und unglaubliche 14% weniger Performance gegenüber Penry Extreme beim
Crysis-Demo-Bench ...

verdammt ... AMD ist echt im Arsch ... da werden wir jetzt alle Intel kaufen müssen ... :rolleyes:
 
Tarrabas,
Software ist so gebaut, dass eine Reihe Befehle sequentiell, dass heisst hintereinander, abgearbeitet wird. Ist wie beim Zusammenbauen eines Hauses: Bevor das Dach draufgebaut werden kann, müssen Fundament und Wände stehen.

Bei der meisten Software ist es ähnlich: es müssen Voraussetzungen erfüllt werden, damit das Programm zum nächsten Schritt übergehen kann.

Parallelisierung ist hier in einigen Bereichen möglich, Beispiel Haus: Es könnten alle vier Wände gleichzeitig errichtet werden,w as schneller geht, als wenn alle Wände nacheinander aufgestellt werden.

Warum ist Software nciht so gebaut? Weil mehr als ein CPU-Rechenkern erst seit ein paar jahren in der breiten Masse, abseits von teuren Spezielsystemen, zu finden ist.

Erst seitdem wird Software so weit parallisiert, dass die Teilaufgaben, die zerlegbar sind, zerlegt werden. Erst damit sind mehrere Kerne einigermaßen sinnvoll nutzbar.

Die meiste Software ist jedoch noch nicht so gestrickt, dass sie sich einfach in parallele Teilaufgaben zerlgen lässt, und das ist das Problem mit Multicore-Prozessoren im Consumer-Bereich.

Gruß ErichH.
 
Habe nicht alle Posts gelesen aber an Diejenigen die glauben, dass wenn man zum Beispiel 2 Kerne runtertaktet möglicherweise dann in Spielen zur Physikberechnung die runtergetakteten Kerne benutzt werden haben einen Denkfehler. Hörtmal ich glaube es ist doch klar, dass je nachdem was für eine Arbeit an Berechnung ansteht der dazu passende Kern ausgesucht wird und nunja wenn viel Arbeit ansteht dann wird der Kern ausgesucht der am höchsten getaktet ist und nicht der Kern der gerade gegen "Null" arbeitet. Somit sit es schon sehr genial von AMD so ein Tool zu bringen.

Erst jetzt macht sich die native Bauweise "bemerkbar". Und wie schon Schreiber vor mir richtig angedeutet haben ist es gerade für Firmen interessant weil sie damit Geld sparen können.
 
Deine eine Quelle kannst du schön mal in die Tonne kloppen.
Schaut mal was ich da noch gefunden habe.

http://www.expreview.com/news/hard/2007-10-30/1193719352d6668.html
Und jetzt kuckt mal unten links auf's Copyright von Nvidia. Vom Jahr 2006. :evillol:


Aber jetzt zurück zum Topic:
Hier ist noch eine Grafik, http://www.expreview.com/news/hard/2007-11-01/1193903929d6728.html

Die Spannung ist festgelegt und nicht variabel. Wenn das stimmt wars das mit von wegen stromsparen durch runtertakten. Dann wird er vielleicht weniger heiss aber bei gleicher V-Core Leistung wird das vom Strombedarf nicht viel bringen.
 
gruffi schrieb:
Ich nehme mal an, du liest THG? Kannste vergessen, deren Messmethoden sind zweifelhaft, um nicht zu sagen falsch. H4U, die ich für weitaus kompetenter erachte, haben zB Tests, bei denen ein 6400+ System im Idle immer noch 30W weniger braucht als ein QX9650 System. Und die K10 Quadcores sollen ja ähnliche thermische Leistungsdaten wie die K8 Dualcores haben. [...]

ich glaube auch eher dem test von H4U. es kommte eben beim stromverbrauch NICHT nur auf die CPU an. sondern auch auf den chipsatz/spannungswander. jeder meint "C2D ist sooo stromsparend im vergleich zu K8"... nur weil die TDP der C2D cpu unter der TDP von Athlon64 x2 (bei den NICHT EE) heißt dass noch nicht dass C2D stromsparender ist. Mit einem 690G chipsatz ist ein X2 sicher stromsparender als ein C2D auf einem P965 board. Die neuen RD780 Boards sollen angeblich nur 8Watt brauchen (northbridge). was braucht aber ein P35, X38 oder X48 board?!
 
Na mittlerweile kann ich schon fast perfekt chinesisch lesen ... ;)

> Deine eine Quelle kannst du schön mal in die Tonne kloppen.
> Schaut mal was ich da noch gefunden habe.

Ja schöne Werbefolie ...
doppelte Balkenlänge = 10% Mehrperformance ...
ich will auch was davon was die bei nVidia jeden Tag rauchen ... :)



> Die Spannung ist festgelegt und nicht variabel.
> Wenn das stimmt wars das mit von wegen stromsparen durch runtertakten.

Wahrscheinlich kannst Du besser chinesisch als ich,
denn ich les da nur was von gelocktem Multiplier ...
und das ist ja logisch, der Multiplier ist immer auf einen Maximalwert
begrenzt ... beim Runtertakten wird dann halt ein kleinerer Multiplier
verwendet und eine geringere Spannung verwendet ...
 
> nur weil die TDP der C2D cpu unter der TDP von Athlon64 x2 (bei den NICHT EE)
> heißt dass noch nicht dass C2D stromsparender ist.

Wobei ich stark anzweifle das C2D-Systeme sparsamer als Athlon64 X2 sind.


Vielleicht mag mal jemand mit C2D-System und Strommessgerät zuhause
seinen Idle- und Maximalverbrauch posten?

Ich biete mit meinem Opteron170 75W in Idle/Windows und 225W beim Spielen ... :)


PS: beim Penryn-Test wurden von CB 170W im Idle und 400W beim Spielen ermittelt ...
 
rx4711 schrieb:
Und unglaubliche 14% weniger Performance gegenüber Penry Extreme beim
Crysis-Demo-Bench ...

Mit einigen Unterschieden:

- Der QX9650 steht bald im Laden und der QX6850 ist seit längerer Zeit käuflich.

- Der Phenom ist noch nicht käuflich, auch nicht bald und schon gar nicht in einer 3Ghz Version.


rx4711 schrieb:
Ich biete mit meinem Opteron170 75W in Idle/Windows und 225W beim Spielen ... :)


PS: beim Penryn-Test wurden von CB 170W im Idle und 400W beim Spielen ermittelt ...

Nur das du keine stromfressende HD2900XT hast und auch natürlich auch nur einen Dualcore.
 
Zuletzt bearbeitet:
> Mit einigen Unterschieden:
> - Der QX9650 steht bald im Laden und der QX6850 ist seit längerer Zeit käuflich.
> - Der Phenom ist noch nicht käuflich, auch nicht bald und schon gar nicht in einer 3Ghz Version.

Ja, zu preisen ab 800€... ich hoffe, der Phenom wird ein paar Euro weniger kosten
und für die meisten erschwinglich sein ... :)


> Nur das du keine stromfressende HD2900XT hast und auch natürlich auch nur einen Dualcore.

Ja, und spielt das eine Rolle für Windows/Idle?
Immerhin reden wir hier über einen Unterschied von 100W!

Und es wurde ja auch ein C2D System zum Vergleich mitgebencht,
und das lag im gleichen Bereich ...

Poste halt mal die Werte von Deinem Rechner !
 
Zuletzt bearbeitet:
@erich

danke für die doch recht einleuchtende erklärung.
nun versteh ich zumindestens den ansatz. nun gut, wir werden ja
sehen, wie lange es dauern wird, bis auch diese probleme gelöst werden.

greez
 
rx4711 schrieb:
Ja, und spielt das eine Rolle für Windows/Idle?
Und es wurde ja auch ein C2D System zum Vergleich mitgebencht,
und das lag im gleichen Bereich ...
http://www.au-ja.de/review-core2qx9650-17.phtml
Was CB hier gemacht hat weiß ich nicht.
Vielleicht liegt der hohe Gesamtverbrauch am X38, an der HD2900XT, am Netzteil, am Meßgerät oder sonstwo.... andere Rewies zeigen deutlich weniger.

PS. ja auch im Idle spielt das eine Rolle, diese aufgezählten Geräte ziehen auch im Idle Unmengen.


rx4711 schrieb:
Ja, zu preisen ab 800€... ich hoffe, der Phenom wird ein paar Euro weniger kosten
und für die meisten erschwinglich sein ...

Im vergleich wurde ein 3Ghz Phenom gegen einen 3Ghz C2Q getestet, beides Flagschiffe, nur das der Phenom noch lange nicht käuflich ist.
Und dieses Flagschiff wird sicher nicht billig.

Ja es wird auch billige Phenoms geben, so wie es auch billige C2Qs bereits gibt und geben wird.


rx4711 schrieb:
Poste halt mal die Werte von Deinem Rechner !

Würde mich auch mal etwas interessieren, aber ich habe kein anständiges, vertrauenswürdiges Messinstrument zur Hand.
 
> PS. ja auch im Idle spielt das eine Rolle, diese aufgezählten Geräte ziehen auch im Idle Unmengen

Naja, einen Chipsatz, Festplatten und eine Grafikkarte braucht mein PC ja auch ... :)
und warum sollten diese Komponenten beim QX viel mehr ziehen als bei mir???


> Im vergleich wurde ein 3Ghz Phenom gegen einen 3Ghz C2Q getestet, beides Flagschiffe,
> nur das der Phenom noch lange nicht käuflich ist. Und dieses Flagschiff wird sicher nicht billig.

Nun ja. Das Intel-Flagschiff kostet sogar deutlich über 900€.
Und warum sollte ein PhenomX4 so viel kosten wo der bereits
verfügbare Barcelona X4 Opteron nur 300€ kostet ???

Klar ist der Q6600 günstig ... aber der ist halt nunmal kein moderner Penryn ...
 
naja eigendlich coole idee aber ist das nicht ein schritt zurück? 2 Kerne "runterzutackten" das man 2 andere höchertackten kann ist doch nicht die zukunft denn dann könnte ich gleich ein dual core kaufen und denn übertakten! Und wenn die Spiele und Software auf 4 Kerne optimiert sind dann bringt das ganze auch nichts!
Mal schauen was man da wirklich rausholen kann interessant ist es aufjedenfall.
 
rx4711 schrieb:
und warum sollten diese Komponenten beim QX viel mehr ziehen als bei mir???

Weil eine HD2900XT nunmal alleine 200W verbläst? - Deine x800 vielleicht 60W.
Oder ein X38 50W? - Dein Chipsatz verbraucht wohl lachhaft wenig dagegen.


rx4711 schrieb:
Nun ja. Das Intel-Flagschiff kostet sogar deutlich über 900€.
Und warum sollte ein PhenomX4 so viel kosten wo der bereits
verfügbare Barcelona X4 Opteron nur 300€ kostet ???

1. 840€
2. Weil der Phenom nunmal nicht mit 2Ghz des Opteron antanzen braucht, wenn diese Benches auch nur ein bisschen Wahrheit haben.
3. Schon Gehört im Januar (viel früher kommt auch der Phenom nicht gibts einen schicken modernen Yorkfield für 200€


PS. Genug für heute. :)
 
> naja eigendlich coole idee aber ist das nicht ein schritt zurück?

Nö. Die Gründe wurden hier in dem Thread bereits lang und breit erörtert.


> Weil eine HD2900XT nunmal alleine 200W verbläst? - Deine x800 vielleicht 60W.
> Oder ein X38 50W? - Dein Chipsatz verbraucht wohl lachhaft wenig dagegen.


Was kann ich dafür dass der X38 so ineffizient ist?
Und die 2900XT verbrät sicher keine 200W im Windows-Betrieb.
Und ich hoffe, meine X850XT viel weniger als 60W ... ;)

Hier nochmal die Werte für meinen PC:
- Idle/Windows: 75W
- Windows/CPU Vollast: 145W
- Spiel/Volllast: 225W

Damit kannst Dir ausrechnen, dass der Opteron 70W mehr unter Vollast verbrät als im Idle.
Und die X850XT verbrät 80W mehr im Spiel als Windows-Desktop.


> 3. Schon Gehört im Januar (viel früher kommt auch der Phenom nicht gibts einen
> schicken modernen Yorkfield für 200€

Klar. Der muss dann kommen weil sonst der PhenomX4 den IntelQuad-Verkaufszahlen
zusetzen würde ... aber bis dahin ist erstmal Geldverdienen im Hause Intel angesagt ... :)
 
rx4711 schrieb:
Klar ist der Q6600 günstig ... aber der ist halt nunmal kein moderner Penryn ...

Das stimmt, aber AMD hat hier im Moment nichts entgegen zu setzen. Die ersten SuperPi Werte des Phenoms waren ja nicht gerade der Knaller. Obwohl man hier fairerweise noch abwarten muss, da die Tests sehr undurchsichtig waren.

mFg tAk
 
Kann man den Prozessor bzw. die einzelnen Cores "Programmieren"?, sodass ich wenn ich eine Singlecore - Anwendung benutze nur 1 Core laufen lasse, bei Dualcore - Anwendungen auf 2 Core laufen lasse usw.... also sogar ganze Cores abschalte?
Kann man die denn auch abschalten ode "nur" niedriger takten
Was passiert mit der CPU wenn ich ein Core hochtakte und die anderen niedrig Takte verzieht sich dann das ganze Teil?
Funktioniert die Software mit jedem Motherboard, dass soeine CPU unterstützt?
Hier ist ein erster Vergleich mit Intel E6850, QX6850 und QX9650 - er wäre zwar erstmal der langsamste der 4 Testkadidaten allerdings läuft der Phenom X4 auf 200MHz x 15, geringe Systembuserhöhungen lassen dasTeil auch schon schnell nach oben schießen.
Alle CPU´s sind gleichermaßen auf 3GHz getaktet.
http://www.expreview.com/news/hard/2007-10-29/1193620830d6602.html
 
@baFh
1. sagt der Test gar nichts aus:
Wie man sieht ist Crysis an dieser Stelle total GPU limitiert, da ein E6850 gleichviel FPS wie ein QX9650 bringt. Alle CPU sind also auf dem gleichen Niveau. Der RAM auf dem Phenom-System taktet eben etwas niedriger, wie im Artikel beschrieben, und verliert dadurch etwa 3-5 FPS. - ein CPU Ram Test nichts weiter. Die Grafikkarte limitiert den Test, Crysis kann kaum eine aktuelle CPU auslasten, da muss Video - Encoding oder andere richtige Rechenintensive Last her.

2. Weiss niemand, ob es noch ein Biosupdate für die Motherboards geben wird.

3. AMD eh hauptsächlich den Massemarkt bedient, dass sieht man daran dass sie trotz ihrer Langzeitflaute Intel weiter Marktanteile abgenommen hat:
http://www.tomshardware.com/de/AMD-Intel-CPU-Prozessor-Markt,news-240087.html

4. Bisher noch keine Preise offengelegt wurden, zumindest habe ich noch nichts gefunden, man also gar nicht weiss, welche CPU´s AMD zu konkurrieren versucht.

5. Allerdings selbst die kleinste Version der Phenom - Reihe mehr Strom verbraucht als der neue Intel Core 2 QX9650: http://www.chip.de/news/c1_news_26450618.html

6. Ich hasse Fans von Intel/AMD/Nvidia/ATI etc., ich kaufe nach Anwendungsart und Preis/Leistung, und habe kein Geld für Spinnereien zu verschenken von denen ich nichts habe.
 
Zurück
Oben