News AMD: „Excavator“-Kerne mit „Carrizo“ schon im Dezember

Bin mal sehr gespannt, was die Carrizo-APUs als Ersatz der Kaveri-Speerspitze dann gegen März 2015 so leisten werden! Baue evtl. damit dann einen PC für den Bruder zusammen. Wäre sogar meine erste AMD-CPU. ;)
 
Daedal schrieb:
warum der Compiler nur Aufgrund der CPUID Änderung plötzlich moderne Instruktionen (wie SSE und AVX)

Das war 2009, betraf SSE 2 und 3. AVX gab es damals noch nicht. Version 2 hat AMD bisher noch nicht integriert. Ist dir ein aktueller Fall bekannt? Das Thema hatten wir doch schon.

@pipip

Ja, CMT ist wohl nicht das Problem... eher ist es der Fokus auf Multithreading im falschen Marktsegment gewesen.
 
Zuletzt bearbeitet:
@Daedal
Firefox nutzt kein Webkit sondern Gecko und Chrome nutzt mittlerweile Blink. Also schlechtes Beispiel ;)

AAS hat auch "Die Intel optimierten Compiler" geschrieben, er meinte also anscheinend die Allgemeinheit an Compilern und die waren als Bulldozer verfügbar war nicht auf die neue Architektur hin optimiert. Erst mit der Zeit konnte zum Beispiel GCC das Potential der Bulldozer Architektur nutzen. Wobei auch mit den dann später angepassten Compilern die Bulldozer Architektur nur selten auf Augenhöhe zu aktuellen Intel CPUs war*. Insofern gibt es keinen Grund mehr über die Compiler zu meckern.


*Es gibt ganz klar wie immer Ausnahmen!
 
Zuletzt bearbeitet:
Ich hoffe nur, dass es den Kaveri-Ersatz auch gleich ohne iGPU gibt, dann ersetze ich vielleicht schon wieder meinen A10-7850K :)

Hybrid-CF mit allem anderen außer Low-End-Karten ist ja in dieser Generation leider nicht, die iGPU bleibt so (bis auf die DVI-Schnittstelle des Mainboards) ungenutzt.
 
calluna
Fokus auf Multithreading im falschen Marktsegment gewesen.
Man hatte wohl die Hoffnung, dass Bulldozer nicht nur bei Server sondern auch bei Desktop seine Stärken zeigt, das war aber nicht der Fall, wie wir alle wissen.

Wieso man vermuten kann, dass die neuen Cores eventuell auf höhere IPC setzten könnte ?
Da man stark parallelisierte Anwendungen durch HSA eventuell auf eine IGP abwickeln könnte und somit von starken Cores profitieren könnte. Das bedeutet aber nicht, dass man jetzt CMT über Board werfen müsste.

Das Problem ist aber, eine hohe IPC bringt nicht nur Vorteile mit sich, sondern auch Nachteile und eine IPC steht nicht nur für sich alleine, sondern muss auch mit den Takt und der Anzahl der Cores skalieren.
Was bringt mir eine CPU mit höhere IPC als Haswell, wenn dieser Core dann nur mit passender Fertigung einen hohen Takt fährt, sonst aber nur vllt mit 2 Ghz herumgurkt.
AMD wird mit 32nm SoI erhofft haben, hohe Taktrate fahren zu können, ohne den Verbrauch nach oben zu treiben. Der Prozess war aber scheinbar anders als erwartet (soviel ich mich erinnere gab es ja sogar Tabellen von Ist und Soll Werten).
Also ein Prozessor basiert nicht nur auf die Architektur sondern braucht auch einen passenden Prozess. Da kann man nur hoffen, dass Samsung und GF zusammen passendes für AMD anbieten kann, wobei AMD ja bekanntlich jetzt eine Co Operation mit einer Firma eingegangen ist, die AMD bis 10nm helfen soll, deren Design anzupassen.


Was an Carrizo interessant ist, wir können hier höchstwahrscheinlich von einem echten SoC sprechen, der auch auf FM2+ läuft und somit optional auch mit einem onboard Chipsat kommunizieren kann.
Da der Prozessor ein SoC ist, ist somit ein Einsatz in Ultrathinbooks oder Tablets möglich.
 
Zuletzt bearbeitet:
Beema wird ganz sicher nicht von Carrizo abgelöst und schon gar nicht im embedded Bereich 2014.
Wenn es einen Mullins Nachfolger in 20nm gibt, dann ist das der selbe Chip wie der Beema Nachfolger.
Kabini AM1 wird von Beema AM1 nachgefolgt. Skybridge ist etwas anderes und beerbt nicht AM1.
Skybridge wird ein neuer Sockel wo ARM und x86 CPUs einfach gewechselt werden können.
Ergänzung ()

Piktogramm schrieb:
@Daedal
Firefox nutzt kein Webkit sondern Gecko und Chrome nutzt mittlerweile Blink. Also schlechtes Beispiel ;)
Das Argument ändert sich nicht indem ich Safari statt Firefox rein schreibe oder die Gecko Engine. Ein Beispiel muss nicht immer den technischen Fakten entsprechen. Du hast verstanden was ich meine, daher wohl ein gutes Beispiel für das Argument.
 
Daedal
Wobei benötigt Skybridge unbedingt einen neuen Sockel ? Man weiß doch gar nicht, wie lange es das Projekt bereits gibt.

Man brächte hauptsächlich das ARM-Design auf das x86 Design von den Pins her abstimmen. Der Chipsatz ist doch sowieso im Die.
Wir reden hier ja von einem Sockel, der hard-wired ist, also nur aus "Anbindungen" direkt zu RAM, Grafikkarte, Festplatte und co besteht.
 
Zuletzt bearbeitet:
calluna schrieb:
Das war 2009, betraf SSE 2 und 3. AVX gab es damals noch nicht. Version 2 hat AMD bisher noch nicht integriert. Ist dir ein aktueller Fall bekannt? Das Thema hatten wir doch schon.
Das hat sich seit 2009 nicht geändert meinst du wohl. Und die Version 2 von was hat AMD bisher nicht integriert?
http://www.agner.org/optimize/blog/read.php?i=49

2010:
Many functions now have a branch for the forthcoming AVX instruction set, but still only for Intel processors. This will increase the difference in performance between Intel and AMD processors on these functions. Both Intel and AMD are planning to support AVX in 2011.

The CPU dispatcher for the vector math library has a new branch for non-Intel processors with SSE2. Unlike the generic branch, the new non-Intel SSE2 branch is used only on non-Intel processors, and it is inferior in many cases to the branch used by Intel processors with the same instruction set. The non-Intel SSE2 branch is implemented in the 32-bit Windows version and the 32-bit Linux version, but not in the 64-bit versions of the library.
Selbst wenn die Instruktionen wie SSE2 genutzt werden, werden sie schlechter implementiert für Nicht-Intel CPUs.


2012:
It's not getting better. The latest version of Intel's SVML (small vector math library) has some functions that can only be called from processors with AVX because the input parameter is an AVX vector (YMM register). There is no logical reason why these functions should have a CPU dispatcher, yet they have two different code paths for the same instruction set: An optimized version for Intel processors with AVX and an inferior version for other brands of CPU with AVX.
Und daran hat sich bis heute nichts geändert. Da braucht niemand jedes Jahr neu zu vermelden, dass es so ist. Wenn sich da etwas ändert, wird es recht deutlich durch die Online Medien gehen.
 
calluna schrieb:
Das war 2009, betraf SSE 2 und 3. ...
Es geht darum, was die Intel Compiler Collection dem schaltfaulen Paketbauer voreinstellt und da es nie eine News gab, dass Intel die Voreinstellungen geändert hätte, halte ich es nicht für unvernünftig, davon auszugehen, dass Intel die Voreinstellungen nicht geändert hat. Man konnte den Intel Compiler immer so backen lassen, dass er nicht nach "vendor" die Features wählt, sondern direkt nach den Features fragen lässt, aber man musste das eben selbst definieren. Man sollte denken, dass "Entwickler" oder Paketbauer von großkommerziellen prjekten nicht zu doof dazu wären, aber wenn man sich ansieht, dass es Adobe in zehn Jahren immernoch nicht geschafft hat, in seinen Aufrufen auf Groß- und Kleinschreibung zu achten (wodurch bestimmte Adobe-Programme auf HFSX nicht starten), dann kann man auch daran zweifeln, dass die immer die zeit haben, sich zu überlegen, was sie grad eigentlich machen.

Bei den Linux-Tests fiel eben auf, dass das Modulkonzeot von Bulldozer eben nicht brachial unterirdisch ist, wie es in Windows-Tests oft geredet wurde - war nicht schneller als Intel mit besserem Fertigungsprozess, sondern etwas schlechter, kostete bzw. kostet aber auch weniger und ist seinen Preis wert.

P.S.
Und in der Integer-Leistung ist Bulldozer hervorragend, zerrissen wird er immer nur mit reinen FP-Tests, als gäbe es keine anderen Anwendungen - wenn die so gelten würden, wäre aber Intel CoreXY auch grottenschlecht im Vergleich zum Cell-Konzept - wozu denn mehr als einen Integer-Core, wenn man eh nur FP brauche.
 
Zuletzt bearbeitet:
john carmack schrieb:
"Carrizo"

ist das nicht ne spanische Wurst ? :D

Nein das ist Chorrizo.... :p

Also die Leistungssteigerung der CPU würde mich im Vergleich zu Kaveri und den Vischera interessieren. Wenn diese deutlich über dem Vischera Niveau liegen würde wäre toll.

Die großen Mankos die ich bei den APUs sehe ist eben die reine CPU Leistung, dass es keine Hexa und Octa Cores gibt, und in Bezug auf den beiden voran genannten und dem Konkurrenten die Energieeffizienz. Wenn diese Punkte angepackt werden würden wäre die Plattform richtig toll.
 
Zuletzt bearbeitet:
pipip schrieb:
Was bringt mir eine CPU mit höhere IPC als Haswell, wenn dieser Core dann nur mit passender Fertigung einen hohen Takt fährt, sonst aber nur vllt mit 2 Ghz herumgurkt.

Höhere IPC als Hasswell (niedriger Takt ergibt niedrigen Verbrauch) dann nimmt man einen 8-Kerner und schon sähe Bulldozer die Rücklichter.
 
Ach Leute, AMD war mit Bulldozer dem Markt doppelt so weit voraus, wie einst mit der Einführung der XP Athlons, der ersten Dualcores und 64bit Prozzis. Leider lief die Entwicklung der Anwendungen nicht so schnell mit.

Wenn man bedenkt, wie schlecht Software heute im Endkundenbereich noch multithreaded, ist das schon peinlich.

Bulldozer hätte seine mangelhafte FPU Leistung gar nicht umgehauen, wäre die Software genauso modern gedacht (gewesen).

Hätte, hätte...
 
Zuletzt bearbeitet:
Mr.Kaijudo schrieb:
... (niedriger Takt ergibt niedrigen Verbrauch) ...
In order statt out of order ergibt auch niedrigeren Verbrauch - ich glaub nicht, dass höhere IPC automatisch zu besserer Performance per Watt führt. Die Entwicklung POWER6, POWER7, POWER8 zeigt das vielleicht auch - die Performance-per-Watt-Steigerung von POWER7 ggü. POWER6 ist nicht so deutlich schlechter, als die von POWER8 ggü. POWER7.
 
0815*Sir Tom schrieb:
Ach Leute, AMD war mit Bulldozer dem Markt doppelt so weit voraus, wie einst mit der Einführung der XP Athlons, der ersten Dualcores und 64bit Prozzis. Leider lief die Entwicklung der Anwendungen nicht so schnell mit.

Was AMD aber hätte wissen können, denn schließlich haben sie es bei Athon64 ja richtig gemacht. Der hat eben nicht nur mit 64Bit-Software (die man ja noch viele Jahre lang mit der Lupe suchen konnte) seine Stärken gezeigt, sondern war auch eine ausgezeichnete 32Bit-CPU. Er war also auch mit seinerzeit existierender Software wesentlich schneller als sein Vorgänger und auch besser als die Konkurrenz.

Nur wegen dieser Stärke bei herkömmlicher 32Bit-Software, hat sich der Athlon64 so gut verbreitet und damit auch seine 64Bit-Erweiterung am Markt etabliert, so dass Intel sich dem zwangsläufig anschließen musste.

Wie AMD Jahre später den Fehler machen konnte, zu glauben, dass man Bulldozer nur für zukünftige, extra für ihn optimierte Software auslegen muss, ist mir schleierhaft. Sie hätten doch absehen können, dass das in einer Todesspirale endet.

10 Neue CPU ist mit vorhandener Software zu langsam. (Sogar langsamer als sein Vorgänger.)
20 Leute kaufen neue CPU nicht.
30 Entwickler optimieren wegen zu geringer Verbreitung ihren Code nicht für neue CPU.
40 GOTO 10 ;)
 
@Daedal

Übertragungen leben davon, dass sich wirklich etwas übertragen lässt. Dein Spaß passt dazu einfach nicht, da das was du als "Sachverhalt" konstruierst schlicht falsch ist. Die Aussage die du vor diesem hanebüchenem Vergleich machst ist nachvollziehbar genug ;)


@MountWalker

Also generell ist Bulldozer nicht schlecht wie er oft dargestellt wird. Aber wirklich hervorragend waren die Dinger auch unter unixoiden Systemen und der Verwendung passender Compiler nie. Gute Preisleistung ja (solang die Kühlung nicht all zu sehr mit in die Kosten hinein zählt) aber hervorragende Leistungen sind bei der Architektur auch bei Integer im realem Umfeld so unrealistisch wie viele der reinen FP-Benches.


@Herdware
Die Optimierung besteht zu großen Teilen nur daran nicht sinnlos "float" zu nutzen und passende Compiler zu verwenden. Den Aufwand muten alle CPU Hersteller den Entwicklern zu ;)
Ansonsten, der Athlon64 war so gut weil Intels Netburst richtig schlecht war. Wo AMDs Weiterentwicklung gut ist Intel zur gleichen Zeit mit viel Anlauf auf die Fresse geflogen. Das ist ein nicht ganz unwichtiger Grund beim Mythos AMD64 ;)
 
Zuletzt bearbeitet:
Ich glaub Intel verbaut in Ihren CPUs nur Grafikeinheiten, weil AMD das macht.
Ich bin immernoch der Meinung, dass eine CPU keine Grafikeinheit braucht.

AMD sollte sich entscheiden, welchen Markt sie bedienen wollen (Desktop, Mobil, HTPC).
Das übrige Geld lieber in neue Technologien stecken und damit den Markt erobern, bevor es Intel tut.
 
Piktogramm schrieb:
Die Optimierung besteht zu großen Teilen nur daran nicht sinnlos "float" zu nutzen und passende Compiler zu verwenden. Den Aufwand muten alle CPU Hersteller den Entwicklern zu ;)

Am Anfang steht aber erstmal die Software, die es schon gibt, wenn die CPU raus kommt. Egal wie trivial die nötige Optimierung wäre, die vorhandene Software hat sie nicht und damit ist man schon in der Todesspirale gefangen.

Ansonsten, der Athlon64 war so gut weil Intels Netburst richtig schlecht war. Wo AMDs Weiterentwicklung gut ist Intel zur gleichen Zeit mit viel Anlauf auf die Fresse geflogen. Das ist ein nicht ganz unwichtiger Grund beim Mythos AMD64 ;)

Intels Schwäche hat da sicher auch mit reingespielt, aber man darf nicht vergessen, dass der Athlon64 auch AMDs eigene Vorgängergeneration bei der selben alten 32Bit-Software geschlagen hat. (Was an unabhängig von speziellen Optimierungen greifenden Verbesserungen wie z.B. dem integrierten Speichercontroller lag.)

Hätte Bulldozer die Phenom II (speziell Thuban, der seinerzeit eine wirklich gute CPU war und durchaus in Schlagdistanz zu Intels Nehalems) klar geschlagen, dann wäre er wohl sehr viel begeisteter aufgenommen worden. Selbst dann, wenn er nicht ganz an Sandy Bridge heran gekommen wäre. Aber so haben sich alle nur gefragt, warum AMD nicht statt dessen einfach einen "Phenom III X8" gebracht hat.
Also im Prinzip das selbe Desaster, wie es Intel damals mit dem Pentium Pro erlebt hat, der bei damals noch verbreiteter 16Bit-Software von normalen Pentiums geschlagen wurde und dementsprechend floppte.

So wie ich das sehe, kann man grundlegende Neuerungen, die dafür optimierte Software voraussetzen, immer nur als "Sahnehäubchen" oben drauf einführen. Darüber hinaus muss die neue CPU erstmal bei nicht optimierter Software überzeugen.
 
Simanova schrieb:
Ich glaub Intel verbaut in Ihren CPUs nur Grafikeinheiten, weil AMD das macht.
Ich bin immernoch der Meinung, dass eine CPU keine Grafikeinheit braucht.

AMD sollte sich entscheiden, welchen Markt sie bedienen wollen (Desktop, Mobil, HTPC).
Das übrige Geld lieber in neue Technologien stecken und damit den Markt erobern, bevor es Intel tut.

Wird der nächste Evolutionsschritt nicht eh zum einen in Richtung Unified Memory Architecture gehen und in der anderen Richtung (Server etc.) auf reine CPU-Systeme setzen bzw. den reinen Multi-Kern Trend vortsetzen?
Da macht AMD mit den PS4/XBox-Systmen doch schon mal alles richtig.
 
Zuletzt bearbeitet:
Simanova schrieb:
Ich glaub Intel verbaut in Ihren CPUs nur Grafikeinheiten, weil AMD das macht.
Ich bin immernoch der Meinung, dass eine CPU keine Grafikeinheit braucht.

Für die meisten Menschen ist diese IGP vollkommen ausreichend. Also soll wegen einer Minderheit mit speziellen Anforderungen keine IGP verbaut werden? Natürlich wäre es sinnvoll, wenn diese IGP für andere Zwecke genutzt werden kann, wenn eine zusätzliche GPU verbaut ist - was ja unlängst möglich ist, insbesondere bei AMD.

Und zum ersten Satz... bereits 2008 wurden Nehalems mit IGP angekündigt, und zu dieser Zeit befand sich das ganze schon länger in Entwicklung. Deine Aussage passt nicht zur Wirklichkeit.
 
Zurück
Oben