News AMD Phenom: Overclocking pro Kern

Muss man gar nicht, da sie, im Gegensatz zu den aktuellen Intel Quadcores, alles andere als hungrig sind. :rolleyes:
 
Ja geil noch 100 Kommentare mit "Ich finds schwachsinng"

Schwachsinnig sind solche Postings! Die sind an schwachsinn nicht mehr zu überbieten.

Ja auch mein Posting ist schwachsinn... aber das musste jetzt mal raus.


--

Zum Topic: cooles Feature, werde es wahrscheinlich nie brauchen, aber für Overclocker eine nette Spielere.
Wer weiß, vielleicht kann eine Single-Core Anwendung (z.B. Spiele) beim start automatisch ein Core hoch getaktet und die anderen runter getaktet werden.
 
> 5. Allerdings selbst die kleinste Version der Phenom - Reihe mehr Strom verbraucht als
> der neue Intel Core 2 QX9650: http://www.chip.de/news/c1_news_26450618.html

Klar, deswegen werden ja die kleinen BarcelonaQuads auch mit 65W TDP angegeben und
der QX mit 130W ...


> naja, auch ne möglichkeit, dem stromhunger der phenoms entgegenzuwirken

Vielleicht liest Du mal mehr als die Intel-Werbebeilage zum Penryn, bevor
Du so etwas postest?


> kann mir jemand sagen für welchen sockel der AMD Phenom raus kommt?

Agena FX :: Phenom FX :: Sockel 1207+ :: Enthusiast (Quadcore)
Agena :: Phenom X4 :: Sockel AM2+ :: High-End (Quadcore)
Kuma :: Phenom X2 :: Sockel AM2+ :: Mainstream (Dualcore)

Wobei die AM2+ Variante auch im Sockel AM2 laufen wird, aber mit etwas weniger
Performance (da HT hier etwas langsamer läuft) und vermutlich ohne dass man die
Cores verschieden takten kann ...
 
Toliman ist beides, High-End (mit viel Takt) und Mainstream (wenig Takt).
Meiner Meinung nach ist der Kuma nicht mehr der K10 DualCore, der mal angedacht war und eher eine Low-End CPU.
 
AMD ist immer für eine Überraschung gut! Vorbildlich geht man eigene Wege - auch wenn dieser eingeschlagene Weg am Anfang bei einigen für Unverständnis sorgt, versucht durch Innovation die Konkurrenz zu überflügeln und lässt sich von angeblich bevorstehendem Untergang nicht aus der Ruhe bringen. So schwachsinnig, wie manche glauben und in ihrer Empörung dem Ausdruck verleihen, ist diese Technik nämlich gar nicht und schon überhaupt nicht überflüssig. Die Entwicklung digitaler Technologie verschlingt unheimlich viele Ressourcen, bereits in der Forschung- und Entwicklungsphase. Es wird viel Zeit, vor allem aber viel Geld in diese Entwicklung investiert! Da wird AMD wohl kaum mit einer neuen Technik daher kommen, die halbfertig oder fehlerhaft ist, ausser natürlich, sie wollen sich selbst in den Bein schießen oder Intel einen gefallen tun, um schon im voraus konkurrenzunfähig zu sein.

AMD hat mit der Etablierung der X2-Reihe viel Zeit gehabt und die hat man gewiss sinnvoll nutzen können. Denn bei der Athlon 64 X2-Reihe hat man sich kaum mehr Arbeit angetan als die Freuquenz erhöhen, einen mit offenem Multiplikator oder den anderen in sparsamer Energieklasse vermarkten. Viel mehr war nicht nötig, denn der Aufwand für eine grundlegend neue Architektur wäre bei der Fertigungstechnik in 90 nm tatsächlich völlig sinnfrei gewesen und hätte darüber hinaus Unmengen an Geldmittel verschlungen.

Was den Phenom betrifft: Die Vorteile der (automatischen/manuellen) Frequenzregelung je Kern liegen auf der Hand (oder stehen in einem schlauen Buch drin - wie dem auch sei!), wie einige meiner Vorredner beispielhaft und in aller Ausführlichkeit genannt haben. AMD bietet optimierte und zuverlässige Technik zu, in der Regel, erschwinglichem Preis an. So war es in der Vergangenheit und so wird es auch weiterhin, künftig, sein, zumindest gehe ich stark davon aus.

Ich freue mich jetzt schon auf die ersten ausführlichen Tests. Erst dann und nur dann wird sich schließlich zeigen, wo die neue Generation von AMD leistungstechnisch liegt.

LG
Ganeagon

PS: Ich will mir bis Ende Februar 2008 einen neuen Rechner zusammenstellen. Die nächsten Wochen und Monate werden zeigen, was in meinen Rechner darf - AMD oder Intel, nVidia oder ATI. :D
 
Nun sickern auch langsam erste Ergebnisse durch - ein 2,0 Ghz Phenom ist einer BE 6400+
ausser im 3DMark 06 etwas unterlegen...was nicht verwundert betrachtet man es andersherum braucht man rund 3 Ghz konventioneller CPU -Leistung um einen 2.0 Ghz zu übertrumpfen:D
Das lässt hoffen - bei 2,3 Ghz + muss einfach mehr Leistung kommen - na dann abwarten
bis er endlich da ist:evillol:
 
Indem Test wird der 3DMark als Game Test gemssen, ist also 100% GPU limitiert bei einer 8600GTS
 
wir wissen doch alle, wie es ausgeht: nach monatelangem geHYPE um die extremperformance der neuen AMD's wird es plötzlich heissen: ist ja nur für midrange und die masse gedacht. wie beim hochgelobten turbo r600 :lol: liest man hier ja schon in einigen posts ;)

vom kaufmännischen her vollkommen okay, ein produkt für die masse, am besten billig und mit neuen features, welche gross in die öffentlichkeit getragen werden, aber an dessen wirkung und nutzen zweifel bestehen. die performancekrone holt amd/ati damit aber nicht.

nun gut, wer halt vier kerne von hand takten möchte und sich über stunden und tage hinweg in oc-versuchen mit stabilitätstest üben möchte, um am ende doch nur eine rechenleistung zu bekommen, die intel schon seit fast einem jahr bietet, dem sei es gegönnt.

bis denne
 
baFh schrieb:
wir wissen doch alle, wie es ausgeht: nach monatelangem geHYPE um die extremperformance der neuen AMD's wird es plötzlich heissen: ist ja nur für midrange und die masse gedacht.
Tja, wenn du dir diesen Hype einredest, ist das dein Pech. Der K10 wurde nicht für "extremperformance" designed, sondern für Effizienz. Und sollte diese ähnlich dem Penryn sein, wäre das ein Hammer. Denn man darf nicht vergessen, 45nm wird auch bei AMD kommen. Wer sich zudem die bisherigen Ergebnisse anschaut, weiss, dass es Szenarien gibt, da wird die CPU weiterhin hinter Intel bleiben, zB FPU (x87). Genauso gibt es aber auch Szenarien, da wird das umgekehrt sein (SSE). Je nach dem, was für Anforderungen an die CPU gestellt werden.

baFh schrieb:
nun gut, wer halt vier kerne von hand takten möchte und sich über stunden und tage hinweg in oc-versuchen mit stabilitätstest üben möchte, um am ende doch nur eine rechenleistung zu bekommen, die intel schon seit fast einem jahr bietet, dem sei es gegönnt.
Darum geht es nicht, und darum wurde diese Technik auch nicht integriert. Für OC Freaks ist das halt eher ein zusätzliches Schmankerl.
 
Vielleicht sollten einige Leute hier mal bedenken, dass die Software sich auch verkaufen will, soll heissen sie passt sich den Marktgegebenheiten, der Masse an, da auch Softwareherrsteller tatsächlich Geld verdienen wollen. Oder sieht jemand Spiele, Programme etc. auf dem Markt die ausschliesslich für High End CPU´s bzw. High End Hardwarekombinationen konstruiert sind?
AMD ist viel zu "klein", um sich auf Intel´s Spielchen einzulassen, Hardcore - Usern und 3DMark - Weltrekordjägern zu bedienen, wer braucht den sonst noch ´ne High End Hardwarekombinationen, die neueste Spiele in max. Auflösung mit über 100 FPS darstellen.
Es sei denn man will sein System auf 5 Jahre oder so auslegen, machen aber die wenigsten.
Warum hat Intel denn vor Jahren die Softwareindustrie so stark angegriffen, mit der Forderung CPU-Lastigere Software zu produzieren und ist dabei auf heftigsten Wiederstand gestossen?
 
Zuletzt bearbeitet:
Ich würde mich freuen, wenn AMD endlich wieder ins Rennen zurück findet, damit es wieder günstige, gut zu übertaktene CPU´s gibt, da ich mein 13. Monatsgehalt voll in einen schnellen, technisch auf neuestem Stand gebrachten PC samt Monitor stecken will.
Das gleiche gilt für ATI, die auch ein wenig den Anschluss verloren haben.
Aber am 1. Dezember sind die letzten neuen Komponenten auf dem Markt, und ich hoffe ich treffe dann die richtige Wahl, für mich gleichgültig, ob es AMD-, ATI-, Intel-, Nvidia-, oder sonst welche Produkte sind.
 
@68Marcus69

du hast föllig recht. die meisten home pcs sind sicher nicht mit high-end hardware bestückt wie es von de users hier im forum verwerdendet wird. einem durchschnittlichen user ist es föllig egal wenn sein game mit 30fps statt mit 60 läuft. genauso wie es ihnen egal ist ob das kovertieren eines filmes 30min oder 40min dauert. für diese leute - eben den mainstream markt, solten die pcs schon etwas power haben, aber es muss bei weitem nicht highend sein. genauso wäre es sinnvoll wenn die pcs vernünftig gekühlt werden, ohne gleich zu laut zu sein. wenn ich meinen bekanntenkreis so ansehe (die non-informatik-freaks) haben die meisten noch einen singlecore und eine grafik in der leistungsklasse GF6 bzw. x600/700/800 oder auch weniger. dass diese leute übertakten ist sowieso auszuschließe. und der mainstreammarkt sit eben größer als der highend markt. darum verstehe ich amd schon, dass sie auf den größeren markt setzen. sie sollten wieder mal schwarze zahlen schreiben.
 
Ycon schrieb:
Wer auch immer gefragt hat:
Itanium² nutzt seit langer Zeit ein Feature, dass die Kerne selbstständig während des Betriebs hoch-/runtertaktet, um sich dem Parallelisierungsgrad der Software anzupassen bzw. optimierte Performance bei single-threaded Anwendungen zu bieten, während die CPU stets innerhalb des TDP bleibt; Foxton oder so hieß die Geschichte.
Ich wollte es eigentlich nicht tun, trotzdem muss ich das Thema nochmal ansprechen. Schon toll, was einem Intel Fanatiker immer verkaufen wollen. Foxton wird nicht mal vom neuen Itanium unterstützt. Aber mach nur weiter, mit Papierfeatures zu flamen. :rolleyes:

Ycon schrieb:
Penryn verfügt über das gleiche Feature, wahrscheinlich bloß weniger rigoros als beim Itanium².
Nein, der Penryn verfügt über eine erweiterte Version von DAT (Dynamic Acceleration Technology). Und auch nur die mobilen Ableger. Mit AMD's Technologie ist das nicht vergleichbar. Soviel zum Thema, AMD würde nur von Intel abkupfern. Schon blöd, wenn einem vor lauter Fanboy Sturheit sämtliche Objektivität verloren geht. :freak:
 
@rx4711
Der Intel Core 2 QX9650 verbraucht 73W bei 3GHz
Dabei sollen Phenoms zwischen 65 Watt (Phenom X2 2,4 und 2,6 GHz) und 89 Watt (alle Phenom X4, Phenom X2 2,8 GHz) verbrauchen.
Seit wann sind 89 Watt kleiner als 73 Watt?
Selbst die X2 Prozessoren verbrauchen fast soviel, haben aber 2 Kerne weniger und sind deutlich niedriger getaktet, deine Angabe von 130W bezieht sich auf eine Übertaktung auf 4GHz (genauer 135,46W), selbst bei 3,8 GHz verbraucht der Core 2 QX9650 gerade mal 108,54 W und im Leerlauf sind es gerade mal 3,8W. Selbst der Phenom X2 2,8 GHz verbraucht mehr Leistung als ein Quadcore und das bei niedrigerer Taktung.
 
Zuletzt bearbeitet:
@Torhe
Wer weiss, ob hier alle überhaupt richtige Angaben zu ihrem System machen, daher habe ich mir diese Eintragung auch erspart, zumal was bringt es mir?
 
Zuletzt bearbeitet:
Zurück
Oben