News AMDs Triple-Core-Phenom gesichtet

Da setzt du aber voraus, dass ein Dual-Core immer mehr Takt hat, als ein Triple-Core.

Aber was ist denn, wenn beide gleich getaktet sind und der Triple-Core nur marginal weniger kostet?
 
Vielleicht sollte AMD dafür die Dualcores auslaufen lassen - wer will kann ja aus dem 3-Core
übers BIOS(AMD 790er) ja nach Bedarf 1 oder 2 Cores abschalten um Strom zu sparen oder besser zu übertakten - vom Preis her sollte er als Einstiegs CPU dann durchaus konkurenzfähig gegenüber den unteren Pentiums(Core2) mit deaktiviertem Cache werden.
Allerdings kann noch kein Phenom dem X2 Topmodellen aus dem eigenen Haus gefährlich werden(deshalb wohl eingestellt) - und gegenüber den Core2 Duos solllte man für gleiche Leistung immer 200 Mhz dazurechnen...
Also ergo muss ich weiter auf höhere Taktraten im B3 Stepping warten:rolleyes:
 
Zuletzt bearbeitet:
genghis99 schrieb:
Wenn man Quadcores produzieren will, die Ausbeute besch***** ist - dann nimmt man halt Alles was auf dem Die funktioniert und verhökert es irgendwie.
Alle Anderen Begründungen halt ich für dummes Gewäsch - AMD haben mal wieder eine Technologie entwickelt, ohne den Produktionsprozess bedacht zu haben.

So ein Teil kommt mir niemals ins Gehäuse - zumal jetzt schon gesagt wird das auch noch die schlechtesten Steppings zuerst in den Handel kommen.

AMD - setzen - 6 !

Oh man, als ich das gelesen hab musste ich echt lachen ;)

Grade weil AMD sich den Produktionsprozess überlegt hat, können sich die Leute streiten ob sie n X3 gebrauchen können oder nicht. Das wird bei Grakas schon lange gemacht, siehe die ganzen GS und XL-Modelle. Und bei nicht funktionierenden DCs genauso. Da hat weder INTEL noch AMD was zu verschenken. Was die Steppings angeht, du musst ja kein altes Stepping kaufen. Wobei der TLB-Bug den Normaluser eh nicht stört, oder schon mal von jemand gehört der sich beschwert hat? CPUs haben alle möglichen Probleme, das lässt sich bei sowas komplexen gar nicht vermeiden.

Wenn der Preis stimmt, hol ich mir son Teil.
 
soweit gar nicht mal schlecht, nur die Taktraten müssen höher!
 
Vor vier Monaten wurde von AMD noch dementiert, dass es sich um einen Vierkernprozessor handeln würde mit einem deaktivierten Kern. Wenn damit die Verlustleistung und der Preis sinken und die Leistung bei den normalen Anwendungen nicht merklich abnimmt, warum nicht?

Ich warte eigentlich immer noch auf den Fusion Prozessor. Rein mit einem 2D Grafikkern anstelle der vierten CPU, mithilfe von PCi Express 2.0 kann man den Grafikslot der Grafikkarte völlig deaktivieren. Und schwupp die wupp nochmal 20 - 30 Watt eingespart. Wenn man bedenkt wie lange ein PC nur zum surfen und co. verwendet wird, dann lohnt sich das sicherlich.
 
Zuletzt bearbeitet:
Wurde es direkt dementiert? Und es war glaub ich der CTO, der damals den Reportern zum Thema Tri-Core gesagt hat "ihr könnt euch schon denken, wie das geht..."
 
@ ein paar, die es offensichtlich nicht verstehen wollen bzw. mich nicht verstehen wollen

Ich habe g e n e r e l l gesprochen. Das hätte man herauslesen können,
insbesondere an dieser Stelle (ich zitiere mich nun selbst) --> "ist es schlichtweg Abwägungssache."

Das soll heißen eure ganzen Zahlenspielchen und hochdetaillierte AMD vs. Intel Benchmarks
in hunderttausenden von Anwendungen sind mir relativ egal. ;-)

Und um es jetzt nochmals zu verdeutlichen - sei mir eine Frage gestattet:
Wie bzw. wann und nach welchen Maßstäben kauft Ihr eigentlich eure Hardware ein?
Jährlich? Monatlich? Täglich?

Es ist doch völlig absurd (aber ich muss so fragen). Preis/Leistungsverhältnis ist doch keine Konstante sondern immer nur eine Momentaufnahme.
Mal ganz ehrlich - wenn ich die Wahl zw. einem 5200+ und demächst für 'nen Hunni mehr
zum E8400 hab, der aber brachial mehr Leistung "abwirft" als besagter AMD, dann stellt sich
(zumindest mir) die Frage nach ein ein paar läppischen Euro mehr/weniger einfach nichtmehr.
Wozu irgendein Midrange an den Haaren herbeiziehen, wenn ich wirklich preiswert High-End
haben kann?

Ihr könnt von mir aus natürlich gerne erstmal auf die 5. Nachkommastelle berechnen was jetzt für welchen konkreten Zweck das Optimum ist. Ich bestell mir in der Zeit dann allerdings schonmal mein neues System. ;-)

Mann, Mann. Findet ihr eigentlich nicht, dass das womöglich ein bisschen "krank" ist was ihr da macht? Warscheinlich nicht... :freak:
Zum Schluss noch mein Geheimtip für die Sparfüchse unter euch -
kauft euch unbedingt den QX9650 boxed!!!:mussweg:
 
triple (amd) vs dual (intel)

win -> AMD

wieso glauben die meisten (n00bs) das etwas "dualcore" optimiert wird o_O es wird multithread-fähig gemacht -> kerne spielen dabei keine rolle !
 
Zuletzt bearbeitet:
Suxxess schrieb:
Vor vier Monaten wurde von AMD noch dementiert, dass es sich um einen Vierkernprozessor handeln würde mit einem deaktivierten Kern.

Wer auch immer das dementiert hat, war sicher nicht von AMD. Die Aussage kam schon vor Monaten, daß die 3-cores "kastrierte" 4-core-Phenoms sein würden.
 
nutel schrieb:
.....das etwas "dualcore" optimiert wird o_O es wird multithread-fähig gemacht -> kerne spielen dabei keine rolle !
So ist es eben nicht. Die meisten Anwendungen und Spiele heutzutage unterstützen 2 aber nicht mehr Kerne. Hoffentlich werden es bald mehr mit Multicore Unterstützung
 
wäre es nicht ein "deffekter" 4 core CPU, würden sich daraus vielleicht in spez fälle intersannte möglichkeiten ergeben. zeichnet mal einen "quad" core auf. oben zwei kästen und unten zwei kästchen. jetzt versucht mal einen core mit den jeweil 3 anderen zu verbinden "ohne das sich leiterbahnen überschneiden. bei einer dreieckigen anordnung kann jeder core in direkte verbindung mit dem anderen treten und daten austauschen.

klar, für otto normalo recht unnütz aber bei wissenschaftlichen sachen wo quasi ne mehrheitsentscheidung entscheiden soll bestimmt ganz lustig ^^

seht dann so aus ^^

image14fa1.jpg



@coupefex

gebe dir recht. games unterstützen ja endlich ma 2 cores. von 4 und mehr ist momentan nur zu träumen es sei den es wird was nachgepatcht. windows kann prozesse selbständig auf cores verteilen, aber meist ist ein prozess ein programm was dann nur dem ihn zugewiesen core nutzt. ausnahme sind programme wie z.b. renderer wo berechnungen parallel laufen. da kann es nicht genug cores geben. ^^
 
Zuletzt bearbeitet:
@AvenDexx

hm, das ein Trippelcore weniger kosten wird als ein gleichgetakteter DC glaub ich kaum :)
Wenn er exakt gleich getaktet ist, wird der DC billiger sein. Dann muss man sich entscheiden ob man 5% Mehrleistung bei normalem Betrieb geben 30% mehr Stromverbrauch und wohl ein paar Euro mehr opfert.
Einzelne Cores wird man denke ich eher nicht komplett abschalten können, heruntertakten ja, aber längst nicht ganz.
Den einzigsten Sinn sehe ich in der Zukunft, wenn vielleicht irgendwann mal jedes Programm mehr als 3 Threads voll unterstützt. Wenn man so denkt kann man sich aber auch einen Quad kaufen. Ist halt die Frage, je nach dem ob AMD die 3Kerner einem hinterherwirft im Vergleich zu den Quads.
Außerdem werden wohl noch 5 Jahre ins Land gehen bis überhaupt 50% aller Anwendungen 3 Kerne gemeinsam auslasten.

Meine Meinung nach wie vor, wer möglichst viel will, kauft X2 und denkt dabei noch energiebewusst.
Wer noch weniger Energieschleuder will, nen Intel - der zugleich mehr Potenial bietet, aber dafür teurer ist. Trippelcore wenn er mehr als andere Multicore Anwendungen nutzt, dabei aber möglichst billig wegkommen will.
 
Egal wieviel hier geblubbert wird, natürlich lohnt sich ein x3 (für AMD) alleine weil der verluste durch defekten CPUs geringer wird.
Und natürlich wird auch die Leistung , wenn die Anwendung mehrere Kerne gut nutzt, höher sein als bei Dual core CPUs.

Wer es nicht glaube soll mal CineBench anwerfen ;) .
 
Zuletzt bearbeitet:
@ tochan01: Wegen dieser direkten Kommunikation gibt es ja auch diese Opteron-Platform für 3 CPUs. :)

Aber in Form von Crysis gibt es schon Spiele, die von Quadcore profitieren. Naja, typisch Crytek halt. ;)
 
@ruthi91
Die Frage sollte eher lauten, welche Anwendung unterstützt 2 und 4, aber keine 3 Kerne? Software wird nicht direkt auf "Kerne" abgestimmt, es werden einfach je nach Anforderung Threads erstellt. Das System ist dann dafür verantwortlich, wie diese in Hardware abgearbeitet werden. Und ob dabei nun 2,3,4 oder 42 Kerne zur Verfügung stehen, ist relativ egal. Das "schlimmste" was passieren kann, ist, dass für einen 3. Kern keine Last erzeugt werden kann. Dort nutzt dir ein Quadcore übrigens auch nichts. Simple Partitionierer haben damit sowieso keine Probleme.

@Vesh
Wozu soll ein IBM Xenon gut sein? Du weisst schon, die CPU in der XBox 360. :rolleyes:

katanaseiko schrieb:
AMD muss nicht wirklich auf über 3 GHz kommen... Die haben keinen Flaschenhals zwischen den Prozessoren wie Intel, von da her können die ruhig noch ein paar Tage daran arbeiten.
Die Frage ist doch eher, ob AMD das auch wirklich will. Sie arbeiten eben sehr kundenorientiert, und OEMs scheinen nicht so wirklich taktfixiert zu sein. Das Klientel in Foren wie diesem ist für den Markt und seine Bedürfnisse nicht wirklich repräsentativ.

coupefx2 schrieb:
Genau das ist aber Sinn der Sache wenn man die Spielleistung von Prozzis testen will.
Das ist aber eher kontraproduktiv. Natürlich ist es logisch, Auflösung und Qualitätseinstellungen runterzuschrauben, um so die Limiterung der Grafikkarte möglichst auszublenden. Man sollte aber auch bedenken, dass damit die Menge der Daten, die durch sämtliche Busse, Cache oder andere Verbindungen fliessen, deutlich geringer werden. Und hiervon kann Intel durch den grösseren Cache gut profitieren. Mit realen Spielumgebungen hat das aber wenig zu tun. Solche Testverfahren halte ich daher für suboptimal.

djot schrieb:
Wenn dann von 4 nur noch 2 Kerne gehen, wird er halt als Dual-Core verkauft ;)
Ich glaube kaum, dass sich das lohnt. Ich habe vor einigen Monaten einen K10 Wafer gesehen, mittlerweile könnte die Ausbeute auch besser sein, und da hat sich folgendes Bild ergeben (iirc):
>50% X4
20-30% X3
5-10% X2
5-10% X1
Rest unbrauchbar
 
Zuletzt bearbeitet:
Zathras schrieb:
eigentlich sind anwendungen entweder klassisch single-core oder multi-core ausgelegt. ob das nun 2, 4 oder 7 kerne sind ist dabei egal. die rechenlast wird verteilt und fertich.
Das stimmt so nicht, z. B. iTunes steuert nur bis zu zwei Threads gleichzeitig an, Quadcore hat in dem Fall keinen grundsätzlichen Vorteil.

genghis99 schrieb:
Wenn man Quadcores produzieren will, die Ausbeute besch***** ist - dann nimmt man halt Alles was auf dem Die funktioniert und verhökert es irgendwie.
Soweit richtig.

genghis99 schrieb:
Alle Anderen Begründungen halt ich für dummes Gewäsch - AMD haben mal wieder eine Technologie entwickelt, ohne den Produktionsprozess bedacht zu haben.
Das war AMDs Strategie. Intel wird nix anderes machen, wenn das Unternehmen dann mal native Quadcores produziert, denn - wie du gesagt hast - weggeschmissen wird nichts, was man ganz klar noch verkaufen kann, und Ausschuss produziert jeder Produktionsprozess. Auch z. B. der für die Dualcores der beiden Unternehmen.

roi schrieb:
jo ich sehe darin auch keinen sinn Multi threaded anwendungen laufen auf 1 2 4 8 ... kernen aber nicht auf 123456
Das ist falsch.

roi schrieb:
INtel ist marktführer in ALLEN segmenten...
Das ist auch fasch. Wenn mir mal nur bei den Prozessoren bleiben, hat AMD z. B. HPC-Markt (Supercomputer).

roi schrieb:
nicht umsonst haben die 4 mal mehr umsatz und vom gewinn will ich jetzt mal garnicht anfangen
Der Vergleich ist schlecht, denn Intel verkauft andere Produkte (außer x86-CPUs) als AMD. Z. B. WLAN-Chipsätze und Flash-Speicher. Wenn dann vergleiche man die CPU-Sparten.

blackiwid schrieb:
[...] wenn man unter windows so wie z.B. ich nur spielt, kann man den tlb-fix ausschalten, dann muss man vielleicht mal mit einem hänger im monat rechnen [...]
Quatsch, der Bug tritt unter hoher Last bei gleichzeitiger Verwendung eines der neuen K10 Virtualisierungfeatures auf. Benutzen Spiele Virtualisierung? Nicht, das ich wüsste...und "einen hänger im monat" wirst du wegen des Bugs auch nicht haben.

Xedos99 schrieb:
Vielleicht sollte AMD dafür die Dualcores auslaufen lassen - wer will kann ja aus dem 3-Core übers BIOS(AMD 790er) ja nach Bedarf 1 oder 2 Cores abschalten um Strom zu sparen oder besser zu übertakten - vom Preis her sollte er als Einstiegs CPU dann durchaus konkurenzfähig.
Die Fertigung der Dualcores ist wesentlich günstiger, es wäre idiotisch, diese auslaufen zu lassen. Außerdem kann man die Kerne des K10 relativ unabhängig voneinander takten und Teile der CPU deaktivieren sich, wenn sie nicht gebraucht werden (wie bei der Core2-Architektur auch)

tochan01 schrieb:
zeichnet mal einen "quad" core auf. oben zwei kästen und unten zwei kästchen. jetzt versucht mal einen core mit den jeweil 3 anderen zu verbinden "ohne das sich leiterbahnen überschneiden. bei einer dreieckigen anordnung kann jeder core in direkte verbindung mit dem anderen treten und daten austauschen.
Die Kerne innerhalb eines Chips werden über eine Crossbar angesprochen - kein Problem. Zum Austausch von Daten zwischen den Kernen wurde ja gerade der L3-Cache geschaffen.
Falls du HyperTransport und Systeme mit mehreren CPU-Sockeln meinst, gibt es ebenfall keine Probleme, die Skalierung ist relativ gut.

Der Tricore wird seine Käufer finden. Er hat den Vorteil, einen gewissen Kompromiss aus möglichst vielen Kernen und möglichst hohen Taktraten darzustellen.
 
Zuletzt bearbeitet:
gruffi schrieb:
Ich habe vor einigen Monaten einen K10 Wafer gesehen, [...]

Oha, war das in Dresden? Und was machst du da, wenn ich fragen darf? Bieten die auch Führungen an? Ich wohn nämlich da in der Nähe und hab es bisher versäumt, mal dort anzurufen. :cool_alt:
 
wieso sich immer alle so zerreißen zwischen Intel und AMD ...eieiei

Intel hat zur Zeit die schnelleren CPUs, da kann keiner was gegen sagen, das ist FAKT!

Aber es ist doch interessant was AMD mit seiner neuen Architektur so alles produziert.
Ist doch auch logisch das man die CPU mit 3 Kernen verkauft wenn einer nich so funtzt wie er soll.
So wird das in der Prozessorherstellung schon immer gemacht. Anfang der 90iger hat man den 486DX auch als 486SX verkauft weil der Math.Co Prozessor(FPU) defekt war....wieso wegschmeissen wen der rest funtzt?

Das machen nunmal alle so, und es hat für den Kunden den vorteil gute CPUs für wenig Geld zu bekommen :)
Nen gutes Beispiel ist auch der kleine Pentium2140 mit 1,6GHZ und 2x512KB Cache.
Ist nen vollwertiger Conroe nur mit bissl weniger Cache....hochtakten und man hat für paar Euro ne super CPU.
Klar ist der langsamer als nen gleich getakteter core2duo, aber trotzdem schnell genug.
Noch krasser der Celi mit 2x256kb oder der Celi mit einer Core.

ich weiß es nich, aber gut möglich das es auch nur leicht "defekte" Core2Duos sind die so verkauft werden. Kann natürlich auch sein das die extra so produziert werden....;)

Ich denke man sollte nich so meckern und lieber froh sein, das man sone mega Auswahl hat und jeder genau das richtige für sich selbst finden kann.

PS: ich wohne in Dresden und habe auch nen Freund der bei AMD als mikroelektronik dingsbums arbeitet....werd den ma fragen was der dazu sagte "alles von uns ist Spitze" :D
 
@darko2
kannste ja mal nach nem Wafer mit 90% Ausschuss fragen... vllt kannste den haben und übertakten ^^



"Ich denke man sollte nich so meckern und lieber froh sein, das man sone mega Auswahl hat und jeder genau das richtige für sich selbst finden kann."
- stimm dir zu - nur bringts AMD nicht sonderlich viel, dann werden halt weniger Quads und weniger Dualcores verkauft und dafür ein paar Trippelcores. Aber die Kapazität/Ausbeute erhöht es etwas...
 
Zuletzt bearbeitet:
Zurück
Oben