News AMDs Zwölf-Kern-Prozessor bereits im März?

Da gibts ein Problem, wenn du auf den Sockel jetzt noch mehr Cores drauf packst wird die Speicheranbindung evtl. wieder zum Engpass.
Wie es aussieht packt man da ja jetzt 2 dice auf einen Sockel und jeder behält seine normale Speicherbandbreite (2 Kanäle), macht also 4 Kanäle für den Sockel. Wenn du da mehr als 2 dice draufpackst muss der Speicher über den HT angesprochen werden oder jeder die bekommt nur noch einen Kanal. Beides dürfte die Sache langsamer machen.
 
Für den Desktopbereich reichen noch immer locker 4 Kerne.
Ein schneller Quad Core langweilt sich dabei eh die meiste Zeit.
Und bis die Software in diesen Bereich mit 12 Kernen umgehen kann ziehen noch einige Jahre ins Land.

Für den Serverbereich ist das natürlich etwas anderes, dort können diese Prozesoren auch sinnvoll genutzt werden.
 
Megatron schrieb:
Für den Desktopbereich reichen noch immer locker 4 Kerne.Und bis die Software in diesen Bereich mit 12 Kernen umgehen kann ziehen noch einige Jahre ins Land.

Warum muss man den Käse eigentlich immer wieder lesen? Bei den meisten Anwendungen ists so, dass die direkt von Single Core auf X-Multicore ausgelegt worden sind. Bei anständigen Videoschnittprogrammen ist das auch schon lange so. Spiele sind natürlich was anderes aber da wird sich die Sache bald ähnlich verhalten, wobei die Aufteilung vermutlich durch die Echzeitberechnung nicht so ganz easy vonstatten geht.
 
Die Entwicklung geht wirklich rasant weiter. Ein wenig enttäuschend ist der geringe Takt, aber dafür scheinen ja die Leistungsaufnahmewerte in Ordnung zu sein. Hier hatte ich doch schon gehofft, dass Amd mit einem besseren Silizium und/oder neuem Stepping mehr rausholt, so ähnlich wie die knallharten 3,33 GHz beim Gulftown, der immerhin 12 Threads mitbringt.

Ein Wunsch noch an den Autor: Bitte, bitte schreibe künftig gleich groß und fett in die Überschrift der Meldung, dass es sich hier um Serverprodukte handelt! Damit wird weder gedaddelt noch ärgert man sich in diesem Umfeld groß über Mehrkernoptimierung; die ist nämnlich schon lange vorhanden bei den professionellen Anwendungen (da lohnt dann nämlich auch die entsprechende Entwicklung).
Manch sinnbefreite Kommentare hier lassen wirklich an die Lesefähigkeit der entsprechenden User zweifeln.
 
Freu mich schon auf die ersten Tests mim VMmark. Gerade als Basis für virtuelle Maschinen sind solche CPUs natürlich prädestiniert und mit 96 GB RAM (mit 4 GB Riegeln) dürfte da auch einiges drauf laufen...
 
Vermutlich gibts das gar nicht, aber du kannst ja bei nem Board mit 32 Slots 8 Slots leer lassen ;)
 
Hi Denahar, man wie ich mich freue deinen Beitrag zu lesen. Deine Beiträge über AMD News sind ja immer gleich. Das beruhigt sehr, denn der Mensch ist ja ein Gewohnheitstier.

Diesen Satz sehe ich als sehr spannend an den du mal wieder von dir gegeben hast.
Hier hatte ich doch schon gehofft, dass Amd mit einem besseren Silizium und/oder neuem Stepping mehr rausholt, so ähnlich wie die knallharten 3,33 GHz beim Gulftown, der immerhin 12 Threads mitbringt.

Was bedeutet besseres Silizium? Das ist doch eine Aussage die praktisch nichts sagt.
Deine Gulftown Geschichte. Findest du nicht das du da sehr unwissend wirkst mit der Aussage dass der Gulftown immerhin 12 Threads abarbeiten kann, was ja der Dodeca Core von AMD auch kann?
Nur ist es eben so. Die maximale Leistungssteigerung durch virtuelle Kerne ist wenn es absolut glatt läuft, also schon eher in dem utopischen Bereich bei 30%. Bedeutet dass die 6 virtuellen Kerne jeder für sich maximal 30% mehr an Leistung bringt, während ein echter Dodeca Core 12 Thread mit 100% bringt, macht der Gulftown nur 6x100% und 6 x30%.
Aber das hättest du doch wissen müssen, als eifriger AMD Kritiker.
 
Zuletzt bearbeitet:
...und somit bleibt zu hoffen, dass sich diese Entwicklung auch baldigst auf dem Desktopsegment niederschlägt.
 
Ich würde mir für AMD für den Desktop lieber etwas in der Richtung Turbo-Mode oder noch geringeren Verbrauch a la i5 wünschen, imo fehlt dem Phenom 2 aktuell beides doch eher als noch mehr ungenutzte Kerne.
Gerade ein Turbo-Mode bei CPUs unter 100 Euro wäre imo der Burner.
 
Zuletzt bearbeitet:
DrogenKroete schrieb:
Acht Kerne ? Ich hab zwölf gezählt und komme somit auf ca 7 Watt pro CPU-Kern ;-)

Neben den ersten Prozessoren mit zwölf Kernen wird es auch Ableger mit acht Kernen geben....als TDP stehen maximal 140 Watt im Raum – mit Abstufungen herab bis zu 85 Watt.

Denke mal schon, daß der wenigste Verbrauch bei den 8 Kernern zu suchen ist. ;)
 
[TLR]Snoopy schrieb:
Was bedeutet besseres Silizium?
Ich dachte schon, dass du dich ein wenig mit der Fertigungstechnologie auskennst. Daher sollte klar sein, dass natürlich zu hoffen ist, dass durch entsprechende Verbesserungen auch Taktsteigerungen zu erwarten wären, ähnlich wie Amd die desaströsen Taktungen vom P1 zum P2 steigern konnte. Insofern bleibt bei einem Magny-Cours mit 2 Ghz nicht viel Euphorie hängen, wenn dagegen die Konkurrenz bei zusätzlich besserer IPC auch noch mehr als 1 GHz mehr absoluten Takt bietet. Und dabei skaliert auch noch SMT bei Serverapplikationen viel besser, was deine Rechnung recht oberflächlich stehen lässt.

Aber egal, dass sollte auch gar kein Vergleich sein, da Magny-Cours sowieso gegen Beckton bzw. Westmere-EX-Chips antreten wird. Gulftown ist ja natürlich eine Desktop- und Workstation-CPU mit ganz anderem Zielmarkt. Daher vergessen wir das. Es ist trotzdem toll, dass Amd weiter bei der many-core-Strategie bleibt und dabei offensichtlich recht erfolgreich ist, wenn der Termin eingehalten wird. Toll finde ich auch, dass das ewig kritisierte Vorgehen nicht monolithisch die Kernanzahl zu erhöhen von Amd nun doch auch nachgemacht wird. Na ja, man lernt halt stets dazu, was völlig in Ordnung ist.
 
@ Denahar AMD12 Kerne Intel 6 Kerne Intel 32nm AMD 45nm.
Und da willst du nun 3,33ghz? Zudem sind 12 Threads nicht 12 Kerne bei Intel.
Etwas übertrieben.
 
Ich bin mal gespannt, ob CCP aufrüsten wird. Die haben ja momentan einige hundert 4-Kern Opterons in ihren Server-Clustern stecken. (Ja, weil der Opteron besser skaliert als der Xeon..)

@Blutschlumpf: Kommst du auch noch mit weniger Watt raus, wenn du BOINC durchlaufen lässt?
 
Zuletzt bearbeitet:
Keine Ahnung, ich weiß weder was ein i5 so crunsched noch wie viel er dabei verbraucht, ich halte den Distributed Computing-Kram für mit die sinnloseste Verschwendung von Energie im Bereich IT die ich mir denken kann. Zu Zeiten vom Athlon XP wars ja noch egal, aber kurz nach dem ersten P4 hab ich SETI abgeschaltet.
Mein Rechner ist aktuell geschätzt 95% der Zeit idle, Werte unter Last sind somit zweitrangig für meine Kaufentscheidung, keine Ahnung wie das andere sehen.
 
Schaffe89 schrieb:
Und da willst du nun 3,33ghz?
Ich will gar nichts. Ich bin lediglich von nur 2 Ghz enttäuscht und habe angemerkt, dass doch vielleicht mal eine signifikante Prozessverbesserung noch was bringen kann auch wenn es eben noch der alte 45nm-Prozess ist. Vielleicht eine neue Revision oder dergleichen; das letzte Stepping hat ja wortwörtlich herzlich wenig gebracht. Aber egal...

Schaffe89 schrieb:
Zudem sind 12 Threads nicht 12 Kerne bei Intel.
Stating the obvious. Hat ja niemand behauptet, wobei der Vergleich eh hinkt, wie dem restlichen Beitrag deutlich zu entnehmen ist. Daher lass es einfach.
 
@Denahar:
Du scheinst mir von den Beiträgen her eigentlich nicht so naiv, dass du wirklich ernst sagen würdest, AMD sollte sich doch mal beeilen, was höhere Taktraten und geringere Verbräuche angeht.

Die Herstellung von Halbleiterprodukten ist nunmal nicht so einfach und "da ein wenig mehr Öl und hier ein wenig mehr glatt hobeln" geht nunmal nicht so einfach.

Man erkennt ja schon, in welcher Situation AMD steckt, wenn sie 12 (und die 8 ja wohl auch) nur über 2 DIEs zusammen bekommen.
Da die Wafer rund sind, die DIEs aber eckig, fallen, je größer die DIEs werden, immer mehr den geometrischen Bedingungen zum Opfer, womit die Ausbeute (nutzbare Fläche zu Nutzfläche) bei größeren DIEs geringer wird. Oben drein kommt ja noch die Yield.
AMD kann es sich offensichtlich nicht leisten, 12 Kerne "aus einem Stück" anzubieten, obwohl es technisch gesehen mit der vorhandenen Struktur umsetzbar wäre.
(Anmerkung: AMD bindet die einzelnen Kerne ja per Northbridge an, welche ihrerseits am Speichercontroller hängt - es wäre also eigentlich ein leichtes, einfach nur mehr Kerne an die NB zu pappen. theoretisch.)

Also bitte bitte weniger rumweinen, warum die Dinger so niedrig takten und trotzdem soviel Strom schlucken - 8x 2,2Ghz bei 140W ist günstiger als 4x 3Ghz bei 120W sowohl von der Leistung als auch von der Wärmeleistung pro Kern her.

DvP schrieb:
Warum muss man den Käse eigentlich immer wieder lesen? Bei den meisten Anwendungen ists so, dass die direkt von Single Core auf X-Multicore ausgelegt worden sind.
Ich schreibe es einfach nochmal, weil du meinen Beitrag offensichtlich nicht gelesen hast:
Welches Programm - AUSSER VIDEOSCHNITT! - ist so langsam, dass es mehr als 1 (oder 2) Kerne braucht und gleichzeitig diese auch voll (also nahezu lineare Skalierung) ausnutzt?

Beide Bedingungen treffen auf so gut wie kein einziges Programm, dass man heimisch sinnvoll anwenden kann, zu. Der einzige Clou bei Mehrkernen ist, dass man die einzelnen Threads auf die Kerne verteilen kann - aber wer hat denn soviele Threads, dass dafür nicht 4 Kerne reichen? (1. Kern für den Explorer und alle Windows-bezogenen Threads, Kern 2 und 3 für das aktuelle Spiel und bereits der 4. Kern langweilt sich bzw kann bei Multithread-Anwendungen genutzt werden, was aber selten der Fall sein dürfte. Jeder weitere Kern hätte einfach nichts und wirklich gar nichts zu tun.)

Dies ist die Regel, stand 2009/2010 - jede Ausnahme (außer Videoschnitt) bestätigt diese Regel.

Wer professionell Videoschnitt betreibt, dürfte seinen heimischen PC allerdings auch Server nennen, da hierfür neben Mehrkernen ja auch noch andere Dinge ganz anders ausgeprägt sein dürften (Arbeitsspeicher, schnelle Festplatten, o.ä.).
 
Zuletzt bearbeitet:
Zurück
Oben