News AMD kündigt 20-Kern-Prozessor für 2012 an

CHAOSMAYHEMSOAP schrieb:
Falsch. Kaum eine Software ist auf beliebig viele Kerne/Threads hin optimiert bzw. optimierbar.
Im Test der c't (21/2010 S.144) rechnet z.B. Cinebench 11.5 mit 48 MagnyCours Kernen nicht schneller als mit 32. Außerdem gibt es lt. dem Artikel wohl Software, die Probleme mit "krummen" (= keine glatte Zweierpotenz) Kern-/Threadzahlen hat.

Du hast wohl meinen Beitrag nicht gelesen, oder verstanden. Zudem habe ich nicht geschrieben, dass Software beliebig parallelisierbar ist, sondern, wenn Software MultiCore optimierbar ist, wird diese MultiCore optimiert und nicht auf eine bestimmte Anzahl von Kerne. Du konntest ja nicht einmal mit deinem Beispiel meine Aussage widerlegen, sondern hast diese sogar bestätigt.
Wenn dem so wäre, dürfte es ja keine Vorteile für zB tripple Core Prozessoren geben und wie wir sehen, ist ein X3 720 in der Summe schneller als ein E 8400, obwohl der X3 720 auch noch langsamer taktet als der Dual E 8400.

Die Aussage von Ycon ist einfach falsch. Klar gibt es Software die nur Dual unterstützt und auf einem 3 Core nicht schneller ist. Aber das macht die Aussage nicht richtiger. Bis der 20 Kern Prozessor in den Desktopbereich und in den unteren Preisbereich wandern, schreiben wir das Jahr 2020 oder eher nie. Wie man ja jetzt schon sehen kann gibt es 12 Core CPUs und diese wandern nicht in den Desktop oder unteren Preisbereich, wie es Ycon heraufbeschwört. Auch wird BD nicht mit 8 Module für den Desktop und unteren Preisbereich wandern. Das es jetzt schon über Jahre hinweg Quad Sockel Systeme gibt und bis heute noch kein einziges System davon in den unteren, oder wie Ycon schreibt Mainstream sickert, sollte doch Beweis genug sein.
Das MultiCore absolut wichtig ist, zeigt die Tatsache, dass Jahre lang von sogenannten Super Computer (ultra viele Cores) daran gerechnet wurde eine Induktionsspule zu errechnen die für die neue Energiegewinnung zur Kernfusion (nicht Kernspaltung) benötigt wird.
Avatar benötigte über 35000 Prozessoren zur Berechnung, damit wir den Film schon heute sehen konnten und nicht erst in 50 Jahren.
Die Aussage von Ycon ist einfach in den Bereich Unwissenheit und keine Vorstellungskraft zu schieben und nicht die Realität. Es ist schlicht und ergreifend einfach falsch was Ycon schreibt, das es nur Ausnahmen sind, denn täglich wir enorme Rechenleistung benötigt mit unglaublich vielen CPUs. Man sollte halt nicht von seinem Desktopbereich auf andere Bereiche schließen, wenn man nicht die nötigen Informationen sich einholt.

Mag sein dass GPUs auch mal soweit sein werden, aber GPUs sind eben aktuell auch nicht der Weisheit letzter Schluss.
 
Zuletzt bearbeitet:
Canopus schrieb:
wenn Software MultiCore optimierbar ist, wird diese MultiCore optimiert und nicht auf eine bestimmte Anzahl von Kerne.

Und genau diese Aussage ist falsch.
Bestenfalls ist die Software auf die aktuelle Kernzahl in Desktops (momentan 4 Stück) optimiert. Kommen weitere Kerne od. SMT hinzu, kann die Standardsoftware damit kaum was anfangen.

Und nein, Rendering/Videobearbeitung oder Supercomputer sind nicht der Maßstab, denn auf dem PC der Sekretärin (die Mehrzahl der x86 CPUs steckt nunmal in stinknormalen Office PCs) wird ersteres weder betrieben noch ist das ein Supercomputer. :rolleyes:
 
An sich 'ne tolle Sache. Aber ich fürchte, dass mit voranschreitender Entwicklung ein "Kern-Wahn" entstehen wird wie in den 90ern der MHz-Wahn: Sprich alle halbe Jahre wird die Anzahl der Kerne so erhöht, dass man spätestens nach 1 1/2 Jahren einen neuen PC braucht, um nicht hinterher zu hinken.

Was einige hier wegen Zwischenstufe schreiben:
Ich warte auf jeden Fall auch auf den 16-Kerner, denn ich brauche immer eine CPU, aus deren Kernanzahl ich eine glatte Wurzel ziehen kann (also 1/4/16 usw.). Etwas anderes kommt für mich nicht in die Tüte.
 
CHAOSMAYHEMSOAP schrieb:
Falsch. Kaum eine Software ist auf beliebig viele Kerne/Threads hin optimiert bzw. optimierbar.
Falsch, man solle als Programmier die Anzahl der Core abfragen und die Anzahl der Threads von parallelen Problemen darauf abstimmen, sonst erzeugt man mit zu vielen Thread auch zu viel langsame Contextswitches. Geht man aber einfach hin und sagt, mehr als 4 wird nie ein Mensch in seinem PC haben, also 4 Thread manchen die Arbeit und gut, dann ist das eben Dummheit und die Software wird nicht von mehr Kernen profitieren.
Manchmal hat man natürlich auch keine Wahl, wenn es nur zwei parallelisierbare Aufgaben in der Anwendung gibt, dann reichen natürlich zwei Threads. Nicht jeder Algorithmus ist parallelisierbar!

CHAOSMAYHEMSOAP schrieb:
Im Test der c't (21/2010 S.144) rechnet z.B. Cinebench 11.5 mit 48 MagnyCours Kernen nicht schneller als mit 32. Außerdem gibt es lt. dem Artikel wohl Software, die Probleme mit "krummen" (= keine glatte Zweierpotenz) Kern-/Threadzahlen hat.
Das 48 Cores nicht mehr Performance bringen als 32 muss keine allgemeine Wahrheit sein sondern kann auch an der Software liegen, dem IO System etc.
Es ist ja nicht so, daß die einzelnen Kerne die volle IO Bandbreite des Systems zur Verfügung haben, die müssen sich das ja alles teilen. Bei Mehr CPU Systemen muss dann auch noch ein Teil des RAMs über die anderen CPUs angesprochen werden, was ebenfalls auf die Performance drückt. So viele Kerne sind klar besser für Systeme, auf denen auch verschiedene, unabhängie Programme oder das gleiche Programm auf unabhängigen Daten laufen.
Gerade Cinebench braucht immer eine Weile um von einen weiteres Teilstück zu berechnen, was auf einen großen Syncronisierungsaufwand schliessen läßt und 4 Kerne blockieren sich beim Syncronisieren auf die Daten eben viel öfter und länger.

CHAOSMAYHEMSOAP schrieb:
Und genau diese Aussage ist falsch.
Bestenfalls ist die Software auf die aktuelle Kernzahl in Desktops (momentan 4 Stück) optimiert. Kommen weitere Kerne od. SMT hinzu, kann die Standardsoftware damit kaum was anfangen.
S.o., viele Entwickler sind klar nicht in der Lage vernünftig parallel zu entwickeln.
CHAOSMAYHEMSOAP schrieb:
Und nein, Rendering/Videobearbeitung oder Supercomputer sind nicht der Maßstab, denn auf dem PC der Sekretärin (die Mehrzahl der x86 CPUs steckt nunmal in stinknormalen Office PCs) wird ersteres weder betrieben noch ist das ein Supercomputer.
Der Low-End Markt spaltet sich ja auch immer mehr ab, da zählt ein kleines Format, wenig Stromverbrauch und damit Wärme- und Geräuschentwicklung. Hier kommen Bobcat und vielleicht die nächste Atom Generation immer mehr ins Spiel.

Nightkin schrieb:
An sich 'ne tolle Sache. Aber ich fürchte, dass mit voranschreitender Entwicklung ein "Kern-Wahn" entstehen wird wie in den 90ern der MHz-Wahn: Sprich alle halbe Jahre wird die Anzahl der Kerne so erhöht, dass man spätestens nach 1 1/2 Jahren einen neuen PC braucht, um nicht hinterher zu hinken.
So schnell wird es sicher nicht gehen und einen neuen Rechner braucht man ja nur, wenn es so anspruchsvolle neue Software gibt, dass diese auf dem alten einfach nicht mehr vernünftig läuft. Oft genug fängt der Name der Software mit Windows an :evillol:
CHAOSMAYHEMSOAP schrieb:
Was einige hier wegen Zwischenstufe schreiben:
Ich warte auf jeden Fall auch auf den 16-Kerner, denn ich brauche immer eine CPU, aus deren Kernanzahl ich eine glatte Wurzel ziehen kann (also 1/4/16 usw.). Etwas anderes kommt für mich nicht in die Tüte.
Kauf Dir einen guten Quadcore und warte einige Jahre, denn Bulldozer wird es im nächsten Jahr auf 8 Cores bringen und 16 Kerne gibt es bestenfalls wenn man bei <20nm Strukturen angekommen ist, sofern man den Platz dann nicht mit GPU Kernen füllen wird.
 
Das hab zwar auch ich geschrieben und nicht CHAOSMAYHEMSOAP, aber was du beschreibst, ist genau das, was ich tun werde. Mein X4 940 wird eine ganze Zeit lang gut sein (musste ihn bisher nichtmal übertakten, kommt aber noch) bis es in 2-3 Jahren dann gute 16-Kerner gibt.
 
Zurück
Oben