News AMD: Exascale-Vision mit 32 Kernen, GPU und Stacked DRAM

pipip schrieb:
Gut zugegeben, ich bin kein Experte, aber wo ist der Vorteil von Xeon Phi, wenn eine Anwendung nicht parallel abarbeiten lässt gegenüber eine HSA APU ?

Den Vorteil hat er dir genannt. Die GPUs haben Altlasten, die mit ihrer ursprünglichen Aufgabe zu tun haben - wie der Name schon sagt: GraphicsProcessingUnit. Diese Altlasten hat XeonPhi nicht, weil hier die Technologien aus GPUs integriert wurden (deine Rede von FPU trifft es bei weitem nicht), die für einen hohen Durchsatz sorgen, ohne die Nachteile (und unnötigen Bestandteile, die nicht mehr benötigt werden) mitzunehmen.

pipip schrieb:
Die Konzepte sind also sehr ähnlich. Cores für Serial Aufgaben und Parallel Aufgaben. Nur wird bei Xeon Phi für das eine Integer Cores und für das andere die FPUs genützt.

Die Vektoreinheiten sind für Integer und FP. Und was für Cores? Es gibt da leider keine genauen begrifflichen Festlegungen. Jeder nennt es zum Teil, wie er will. Zum Beispiel kann man auch sagen, dass jeder Kern bei XeonPhi 32 Compute Units hat. ;-)

https://software.intel.com/en-us/articles/intel-xeon-phi-coprocessor-vector-microarchitecture
 
Zuletzt bearbeitet:
AMINDIA schrieb:
Aktuell sucht man noch die Gravitationswellen. Trotzdem werden auch diese nicht schneller als Licht sein. Selbst mit Lichtgeschwindigkeit ist dieser vor kurzen bekannte erdänliche Planet 1400 Jahre entfernt. Aktuell könnten wir es in ca 140 Millionen Jahre schaffen wenn das Raumschiff 100000 km/h fliegt.
Das was wir von diesen Planet jetzt wissen ist also wie es vor 1400 Jahren war. Wenn es also dort Leben geben würde und dieses sich zeitgleich mit unserem entwickeln würde, könnten wir dies erst in ca 1300 Jahren erfahren. Radiowellen sind auch nur so schnell wie Licht.

Es wurden schon lange deutlich nähere erdähnliche Exoplaneten gefunden. Bestes Beispiel: Gliese 581 c, geschätztes Temperaturspektrum: –3 bis +40 °C, 193 Billionen km entfernt, entspricht ~20,4 Lichtjahren. Das ist doch deutlich weniger als 1400 Lichtjahre. ;)

Gibt noch einige mehr.. aber das soll hier mal reichen.

Rest: Sorry for OT.
 
Diese Altlasten hat XeonPhi nicht, weil hier die Technologien aus GPUs integriert wurden (deine Rede von FPU trifft es bei weitem nicht), die für einen hohen Durchsatz sorgen, ohne die Nachteile (und unnötigen Bestandteile, die nicht mehr benötigt werden) mitzunehmen.
Das einzige was Xeon-PHI afaik von den GPUs "übernommen" hat ist die Breite der Vektoreinheiten. Viele für moderne GPUs typische Eigenschaften, die bei GPGPU wesentlich sind, fehlen beim PHI:
-SIMT statt SIMD (Bei SIMT ist die Vektorisierung definiert, bei SIMD ist man auf die Cleverness des Compilers angewiesen. Gerade bei CPU-OpenCL vektorisieren die Compiler von Intel und AMD komplett unterschiedlich.)
-Occupancy in Kombination mit dem 64-fachen bzw. 2048-fachen Multithreading
-Spezielle Caches
-Scratchpad
Selbst die Rasterpipeline oder die Texture-Units, die eigentlich aus der Computergraphik stammen, lassen sich oft in GPGPU geschickt verwenden. Oft muss man zum Beispiel bei einer wissenschaftlichen Simulation Daten innerhalb eines regelmäßigen Gitters interpolieren. Gerade dafür eignen sich Texture-Units besonders gut, weil sie für diesen Zweck geschaffen worden sind. Des Weiteren muss man irgendwie die großen Datenmengen, die so bei einer GPGPU-Simulation anfallen, visualisieren - und das am besten noch während die Simulation läuft. Denn abspeichern kann man die vielen Petabyte an Daten sowieso nicht alle. Für die Visualisierung kann die Simulation wiederum die Rasterpipeline verwenden. Da man die Graphik-Features einer GPU auch bei GPGPU oft sinnvoll verwenden kann, würde ich sie nicht allgemein als Ballast bei GPGPU bezeichnen.


Fehlt da nicht was in der Aufzählung? Viele sehen die Grafikeinheit als eine Abarbeitsungseinheit für Daten, d.h. derselbe Code wird gleichzeitig durch alle Shader abgearbeitet. Bei einer Grafikberechnung ist das auch sinnvoll. Allerdings gibt es neben der datenparallelen Abarbeitung auch noch die Taskparallele. Mir scheint, dass das gerne vergessen wird.
Ich denke immer das viele Leute auch vergessen, dass aktuelle GPUs einen Parallelitätsgrad von bis zu 100000 benötigen um effizient zu funktionieren. Da gibt es für den Heimanwender nicht mehr so viele Aufgaben die sich so weit aufteilen lassen.

@ Reise zum Nächsten Stern: Viele Leute vergessen hier auch gerne, dass man das Raumschiff nicht nur beschleunigen sondern auch wieder abbremsen muss. Das heißt beispielhaft, wenn man es bei einer Rakete schafft 1 \% der Startmasse auf Reisegeschwindigkeit zu bringen, benötigt man wiederum 99 \% dieser verbleibenden Masse um das Raumschiff abzubremsen. Also kommt im Endeffekt nur 0.01 \% der Masse am Ziel an. Die restlichen 99.99 \% müssen Treibstoff sein. Das veranschaulicht m.E. recht sehr gut, dass ein größeres Raumschiff zum nächsten Stern zu schicken so aufwändig ist, dass es mit unseren heutigen Mitteln unmöglich ist.
 
Zuletzt bearbeitet:
pipip schrieb:
2016 wird eine neue Core-Architektur mit den Namen ZEN in 14 nm Finfet GF (Samsung lizenziert) auf den Markt kommen. 8 Cores 16 Threads 95 Watt für den Desktop.
Wenn das mal so auch hinkommt und selbst wenn, dann Ende 2016 und zu einem noch unbekannten Preis mit noch unbekannter Performance.

Faust2011 schrieb:
Wenn AMD bis dahin durchhält?
Entweder müssen die operativen Verluste eingedämmt oder mehr Kapital beschafft werden.
Faust2011 schrieb:
wenn nicht AMD oder Samsung, dann schlägt vielleicht Apple zu?
Oder Microsoft, bei dem was die AMD für die Chipsa der XBox zahlen, sollen sie den Laden auch fast kaufen können, stand mal irgendwo geschrieben. Nur hat diese Überlegung einen dicken Haken: Das x86 Lizenzabkommen mit Intel wäre dann hinfällig und ob Intel des mit einer der genannten Firmen dann erneut abschließen würden?
- Samsung ist schon Intel härtester Wettbewerber bei Enterprise SSDs und in der Fertigungstechnik von Chips, außerdem stark auf dem Markt für mobile Endgeräte die heute von ARM dominiert werden, die könnten Intel womöglich gefährlich werden, gerade auch wenn es gelingen würde ARM durch x86er in Bedrängnis zu bringen, was Intel ja bisher recht erfolglos selbst versucht.
- Apple ist ein wichtiger Kunden von Intel, den würden sie verlieren und bei der Kapitalausstattung von Apple könnte ihnen da auch ein Wettbewerber erwachsen, nicht zuletzt auch im Mobilmarkt.

Man stelle sich vor, Apple oder Samsung würden dann AMD x86er auf dem Mobilmarkt gegenüber ARM etablieren was Intel bisher verwährt war, die Schlappe wird von Intel Führungspersonal keiner riskieren wollen. Bei Microsoft besteht diese Gefahr eben auch, nachdem sie Nokias Handysparte gekauft haben, auch wenn es da nicht rund läuft. Außerdem dürfte auf einem großen Teil der Intel CPUs ein Windows laufen, da wäre die Gefahr dann auf dem Wege künftig benachteiligt zu werden auch noch gegeben.

Daher denke ich, dass keiner der drei eine Übernahme von AMD machen dürfte, weil deren Wert ohne die x86er Lizenz zu gering ist, die ganzen APUs fallen dann weg, es bliebe nur die GPU Sparte und ggf. mal kommende ARM CPUs/APUs, aber eine ARM Lizenz haben zumindest Apple und Samsung ja sowieso schon und mit Sicherheit deutlich mehr Erfahrung damit als AMD.
 
Intel selbst war ja auch vor kurzem im Gespräch AMD zu übernehmen.
Ich finde AMD soll mal aufhören über Sachen zu sprechen die in ferner Zukunft geplant sind und sich besser auf die nächsten 12 Monate konzentrieren. Da sieht es nämlich in der CPU Sparte ganz düster aus.
 
Holt schrieb:
Nur hat diese Überlegung einen dicken Haken: Das x86 Lizenzabkommen mit Intel wäre dann hinfällig und ob Intel des mit einer der genannten Firmen dann erneut abschließen würden?
Gleichzeitig würden auch die Abkommen verfallen, die es Intel erlauben AMD Patente zu nutzen. Intel wäre dann nicht mehr in der Lage moderne CPUs zu verkaufen (AMD 64 Bit). Das ein neues Patentabkommen zustande kommt wäre also auch im Interesse der Intel-Aktionäre.


oldmanhunting schrieb:
Ich finde AMD soll mal aufhören über Sachen zu sprechen die in ferner Zukunft geplant sind und sich besser auf die nächsten 12 Monate konzentrieren. Da sieht es nämlich in der CPU Sparte ganz düster aus.
Du hast anscheinend keine Ahnung wie lange die Entwicklung einer neuen CPU-Architekur dauert (bis zu 5 Jahre). Wie soll Amd jemals etwas erreichen wenn die deiner Meinung nach nur von 12 Uhr bis Mittag planen sollen? :confused_alt:
 
@zett0
Vollkommen richtig! Das heißt aber im Rückschluß, dass AMD vor 5 Jahren geschlafen hat und heute den Preis dafür bezahlt.
 
Ob da wirklich geschlafen wurde weiß ich nicht. Aber auch schon vor 5 Jahren war Amd in keiner besonders guten wirtschaftlichen Lage um viel Budget für die Entwicklung bereitzustellen. Aber nur mit viel Budget kann man viele verschiedene Designansätze ausprobieren um dann aus dem Besten ein funktionierendes Produkt zu entwickeln. Wenn man die finanziellen Mittel nicht hat ist der beste Entwicklungsansatz im Vergleich zur Konkurrenz möglicherweise nur zweit- oder drittklassig.

Wenn man noch ein wenig zurückgeht und sich frag warum AMD auch schon vor 5 Jahren nicht konkurrenzfähig war, kommt man zu einem Zeitpunkt, an dem die Weichen für diese Prozessorgeneration gestellt wurden. Zu diesem Zeitpunkt (vor ungefähr 10 Jahren) hatte amd das Problem das sie trotz konkurrenzfähigen Produkten keine nennenswerten Zuwächse im Marktanteil erreichen konnten. Natürlich sind die Marktmanipulationen nicht allein für die Misere verantwortlich, aber mit größerem finanziellen Spielraum hätte man u.U. in der Entwicklung gegensteuern können oder wie intel einfach eine schlechte Generation (Pentium4) aussitzen können.
 
Zurück
Oben