News AMD zeigt DX11-Spiel auf „Fusion“-APU

http://www.au-ja.de/article-intel-idf-peking-2010-1.phtml
Doch während Intel beim Clarkdale noch zwei Chips auf die Platine setzt, stehen bei "Sandy Bridge" alle Zeichen auf Vereinigung: Uncore, CPU-Kerne und Grafik bilden einen Chip, so dass die Rechenkerne und der Grafikkern auf einen gemeinsamen Cache zurückgreifen können. Weitere Details zum Grafikkern der sechsten Generation hat Intel aber noch nicht genannt.

189087


http://www.anandtech.com/show/2901
The CPU connects to the GMA die using QPI, so bandwidth shouldn’t be as big of a problem. Latency is unfortunately hurt as a result. Access times can be longer than older LGA-775 processors thanks to this memory controller design being optimized for FSB architectures. Again, the problem goes away with Sandy Bridge, but today we’re faced with it.
[...]
Here’s where things get disgusting. Memory latency is about 76% higher than on Lynnfield. That’s just abysmal. It’s also reflected in the memory bandwidth scores. While Lynnfield can manage over 15GB/s from its dual-channel memory controller, Clarkdale can’t break 10. Granted this is higher than the Core 2 platforms, but it’s not great.
Der Memory Controller bei Clarkdale sitzt auf dem 45nm GPU Die.
 
Complication schrieb:
AMD zeigte hier die kleinste, für Netbooks gedachte, Dualcore CPU namens Ontario mit der ein DX11 Spiel (Alien vs. Predator) live gespielt wurde.

ALTER!!!

Krautmaster schrieb:
Die Zusammenlegung GPU+CPU zur APU hat doch aber mit Compute Shader und OpenCL wenig zu tun - die habe ich auch wenn ich eine HD5450 einbaue.

Complication schrieb:
Eine heutige CPU ohne mathematischen Co-Prozessor würde gar nicht mehr mithalten können. Diese waren früher auch separate Chips und sind aus der CPU heute nicht mehr wegzudenken, da Programmierer sich darauf verlassen können dass ihre Software ihn immer nutzen kann - er sitzt schließlich auf der x86 CPU.

Genau das ist der Punkt lieber Krautmaster!

Das Ding (APU) ist halt einfach da. Und jetzt überleg nochmal, wieviel Office-PCs mit ner dedizierten Graka ala 5400 ausgestattet sind?

Ehrlich gesagt weiß ich gar nicht recht, wo ich bei deinem Geschreibsel anfangen sollte, dich aufzuklären, haben ja auch schon genug Leute probiert.

Aber vergleiche bitte nicht die integrierte Grafik von INTEL, die (so gut wie) nichts kann mit der APU-Lösung, die bei geeigneter Programmierung so gut wie alles beschleunigen kann.

Da brauch man keine SSE, AES oder sonstwas X86 Erweiterungen mehr. -->All done by APU.


Und warum du automatisch davon ausgehst, das L-L-A-N-O ein Stromsauger wird, bloß weil die Performance auf 5670 Niveau liegen soll (vermutlich höher wenn man nach der Präsentation geht) erschließt sich mir NICHT!

Wenn das Ding wirklich performt wie angekündigt, kaufe ich mir jedenfalls keine extra Graka mehr. 5670 oder höher reicht mir, CPU-Performance hat LLANO sicher auch genug.
 
Viele wollen das Konzept einfach nicht verstehen und halten sich krampfhaft am herkömmlichen (und eigentlich bereits vergangenen) Konzept sowie Funktion einer GPU fest.

Fusion ist kein einzelnes Produkt sondern eher ein Entwicklungsweg mit einem Ziel. Das Ziel ist die komplette Integration von vielen kleinen, parallel verfügbarern Coprozessoren.

Der Grund dafür sollte eigentlich auf der Hand liegen: Viele Berechnungen lassen sich (zumindest in einem gewissen Rahmen) parallelisieren. Anstatt die Anzahl an x86 Kernen dementsprechend zu erhöhen nimmt man einfache und kompakte Recheneinheiten zur Unterstützung.

Je näher diese an der eigentlichen CPU liegen desto besser. Geringere Verzögerungen, bessere Auslastung und nach Möglichkeit gemeinsame Zwischenspeicher (Cache). Gleiches passierte mit der FPU.

Das sich gerade eine moderne GPU (aufgrund der vielen parallelen Recheneinheiten) dafür anbietet ist natürlich von Vorteil. Theoretisch hätte es auch ein komplexer Soundprozessor sein können. Den braucht aber keiner im 0815 Rechner. Deshalb wird als Basis die GPU genommen denn diese wird in praktisch jedem Rechner benötigt.
Das die eigentliche Graphikfunktion dann gleich mit in die CPU integriert wird sollte logisch erscheinen. Gerade auch weil die GPU dann wieder näher am Speichercontroller sitzt. Der ist bereits vor geraumer Zeit in die CPU gewandert.


Intel hat indirekt das gleiche Angekündigt (mit der Einstellung von Larrabee als GPU). Im Gegensatz zur alten Planung wird die "IGP" Leistung in Zukunft drastisch erhöht, genauso wird in diesem Bereich weit mehr investiert als geplant. Auch hier wird der Weg zur kompletten Integration forciert. Intel hat hier allerdings das Problem über keine ausreichenden Produkte zu verfügen. Seit dem i740 wurde der 3D Bereich recht stiefmütterlich behandelt. Allerdings hat Intel eine kaum zu brechende Marktmacht und fast unbegrenzte Resourcen zur Verfügung.

Für Nvidia wird es langfristig aber verdammt hart werden denn CUDA lässt sich im Mainstream nicht gegen Intel und AMD durchdrücken. Wenn jede CPU über DirectCompute und OpenCL angesprochen werden kann bleibt nur noch die professionelle Nische. Und auch diese wird sehr sehr klein werden denn sowohl Intel als auch AMD wollen ihren Marktanteil am lukrativen Server und Workstationmarkt behalten.
 
Zuletzt bearbeitet:
Ich habe mir zwar nicht ales durchgelesen aber @Krautmaster....
Deine Argumentation kann man nahezu 1:1 auf die Anfangszeit der Dual-/Multicore Prozessoren, den x64 Befehlssatz usw. usw. umlegen.
Da schrieen auch die Meisten "wozu brauch man mehr als einen Prozessorkern wenn die (derzeitigen) Programme eh nur mit einem umgehen können" oder "Wozu brauch man 64Bit Prozessoren wenn sie dadurch nicht (deutlich) schneller werden?"
Die jetzige Entwicklung kann man zusätzlich noch mit den Unkenrufen "Wozu brauch man den Befehlssatz *hier Befehlssatz einfügen (z.B. MMX, SSE usw.)* wenn es kein Programm unterstützt?"

Was ist daraus geworden wissen wir wohl alle. Bis die Funktionen der breiten Masse was bringen muss zuerst eine breite Hardwarebasis geschaffen werden bevor die Softwarehersteller dazu übergehen sie für die breite Masse nutzbar zu machen und bis es dann soweit ist vergehen meistens Jahre.

Bestes Beispiel fürs scheitern ist wohl nvidias GPU beschleunigtes PhysX. Seit Jahren auf dem Markt, es bietet erkennbare Vorteile für die Spielatmosphäre und scheitert letztenendes an der nvidia only Auflage. Von einzelnen Titeln mal abgesehen begnügt sich die breite Masse der Spiele mit der reinen CPU Berechnung, die schließlich für alle Kunden nutzbar ist.
 
@wadenbeisser

Es wäre schon viel früher möglich gewesen wenn Intel Havok FX nicht auf Eis gelegt hätte.
Die ersten Vorführen gabs schon 2006.
Vielleicht klappt es ja diesmal mit Bullet.
Die Hardware dafür kam schon im Herbst 2006 mit den ersten Directx 10 Grafikkarten
auf den Markt

Und weil es mir gerade auffällt OpenCL ist nicht nur für GPU Berechnung gedacht.
sondern generell für die Parallelisierung auf heterogenen Systemen.
was ja Fusion letztendlich ist.
 
Hoffentlich gibts noch mal neues zu Bulldozer und Bobcat (Ontario). Wäre sehr interessant.
 
Also ich verstehe noch nicht ganz warum sich gerade OpenCl durchsetzen soll (bin kein Fachmann). Okay, es bringt enorme Vorteile aber so wie ich das sehe ist das ein AMD Projekt:

Intel hat die schwächste GPU und hat keine Interesse Aufgaben and die GPU abgegeben, deshalb ja auch Larabee (richtig?)

AMD hat starke GPUs und Fusion und möchte OpenCL durchsetzen

Nvidia hat auch starke GPUs bevorzugt aber CUDA und hat doch glaub ich schon konkrete Erfolge erzielt künftige Fermis in IBM Server einzetzen.

Warum soll sich jetzt bei dem Marktanteil von AMD OpenCL durchsetzen? Dazu müssten sie den möglichst schnell rausbringen und erfolgreich in den Markt drücken. Okay wenn ihnen das gelingt aber was wenn nicht??
 
OpenCL gehört nicht zu AMD: http://de.wikipedia.org/wiki/OpenCL
Sie ist ursprünglich von Apple entwickelt worden. Apple hält auch die Markenrechte. In Zusammenarbeit mit AMD, IBM, Intel, und Nvidia wurde der initiale Entwurf ausgearbeitet und schließlich von Apple bei der Khronos Group zur Standardisierung eingereicht. [1] Die Spezifikation für OpenCL 1.0 wurde am 8. Dezember 2008 veröffentlicht.
Auch Nvidia unterstützt OpenCL, das eben nicht nur unter Windows funktioniert.

Khronos Group:
Die Khronos Group ist ein im Jahr 2000 gegründetes Industriekonsortium, das sich für die Erstellung und Verwaltung von offenen Standards im Multimedia-Bereich auf einer Vielzahl von Plattformen und Geräten einsetzt. Zu den über 100 Mitgliedern zählen unter anderem AMD, Intel, NVIDIA, SGI, Google sowie Sun Microsystems.
Dass Nvidia CUDA in den Markt drückt widerspricht den Standardisierungszielen, da es auch nicht frei gegeben wird für alle Hardware-Hersteller. Daher hat es auch keine Zukunft. AMD nutzt ausschließlich Technologien die auf jeder Hardware laufen können - daher setzen sie auf OpenCL.
 
Ich sehe bei der CPU+GPU auf einem DIE Variante vor allem ein Problem. Wie wollen die das mit der Speicherbandbreite ordentlich lösen? GPUs brauchen eine riesige Bandbreite um ordentlich funktionieren zu können.
Mein Triple-Channel DDR3 System bekommt gerade mal 16GB/s gebacken. Eine HD5670 hat aber alleine schon 64 GB/s.
Auf dem Die kann man ja offensichtlich nicht auch noch RAM verbauen, da dafür kein Platz ist. Also wird es wohl zwangsläufig auf "Shared Memory" hinauslaufen. Ergo: CPU und GPU müssen sich die mickrige Bandbreite von normalem DDR-SD-Ram teilen. Das kann vor allem in billigen OEM Rechnern oder Net/Notebooks lustig werden, wenn nur ein Modul verbaut wird.
 
Du vermischst theoretische mit praktischen Werten.
Theoretisch schafft man mit 1333er DDR3 Speicher 10,6 GB/s......pro Speicherkanal. Mit 1600er DDR3 Speicher sind wir schon bei 12,8 GB/s. *Wiki-Link*
 
Complication schrieb:
AMD nutzt ausschließlich Technologien die auf jeder Hardware laufen können - daher setzen sie auf OpenCL.
Stream läuft ja bekanntlich auch auf Geforces ...
 
y33H@ schrieb:
Stream läuft ja bekanntlich auch auf Geforces ...

Stream ist ein prä AMD Produkt. Es wird von AMD im gegensatz zu OPENGL kaum gefördert.

Vergleich die Situation doch mal mit Nvidia, dann merkst du es sofort.
 
@Wadenbeiser
Ja das mit den theoretischen und praktischen Werten war mir schon klar. Hatte nur keine Lust extra die Werte von DDR3 auch noch rauszusuchen ;) .
Ändert aber doch nicht wirklich etwas: Selbst in dem unwahrscheinlichen Fall, dass DDR3 1600 der Standard wird, hat man in einem System mit nur einem Modul nur 12,8 GB/s zur Verfügung. (Und das sind praktisch alle preiswerten mobilen Lösungen)
Im Vergleich zu den 64 GB/s von einer HD5670 ist das ein Fliegenfurz. Vor allem wenn damit gleichzeitig auch noch die CPU befeuert werden soll.

Selbst mit Triple Channel DDR3 1600 hätte man für CPU+GPU nur halb so viel Bandbreite wie jetzt eine untere Midrange Karte alleine hat.
 
Vielleicht unterstützt der Prozessor so was wie Sideport, dann sollte das Speicherbandbreiten-Problem umgangen werden können?
 
Ja gut man könnte natürlich VRAM irgendwo auf dem Mainboard bunkern. Theoretisch könnte man dann sogar etwas machen, was auf den heutigen Karten überhaupt nicht möglich ist: Man könnte den VRAM aufrüstbar machen.

Dann kommt aber ein völlig anderes Problem hinzu. Für die Speicheranbindung des VRAMs bräuchte man wieder eine Unmenge an zusätzlichen Pins auf dem Sockel. Und wie die letzten beiden Intel Sockel erst gezeigt haben, bewegt die Pinanzahl sich momentan schon in Richtung jenseits von Gut und Böse:

LGA 1366 -> Memory Controller wandert auf den Die/ Triple Channel wird benutzt -> Fast 600 Pins mehr als LGA775
LGA 1156 -> Memory Controller ebenfalls auf dem Die, aber nur Dual Channel. Weniger Pins für die Stromversorgung als bei LGA1366 dafür die Grafikeinheit mit auf dem Package. -> 380 Pins mehr als LGA 775

Und bei Sandy Bridge kommt für die High End CPUs was man bisher hört nun Sockel R mit 2011 Pins.

Sorry dass das alles Intel Zahlen sind, aber was die zukünftige Sockelpolitik angeht hält AMD sich bisher ja eher bedeckt.
 
dgschrei schrieb:
Selbst mit Triple Channel DDR3 1600 hätte man für CPU+GPU nur halb so viel Bandbreite wie jetzt eine untere Midrange Karte alleine hat.
Und genau das ist es was noch völlig ungeklärt ist und was meiner Meinung nach in dem von AMD zensierten Teil des APU-Dies zu sehen ist - unterhalb des DX11 Grafikbereiches ist bei allen Fotos der APU ein teil des Bildes abgeschnitten.

Allerdings sieht man auch hier eine GT240 die 1GB DDR3 verwendet mit 32 GB/s bei lediglich 1000 MHz Speichertakt. Die selbe Karte mit 512 GDDR5 und 1.700 MHz Takt kommt auf 54,4 GB/s mit einem 128bit Interface: https://www.computerbase.de/2010-01/test-ati-radeon-hd-5670/2/#abschnitt_technische_daten

Ich könnte mir auch eine Sideport Memory Lösung in irgendeiner Art vorstellen.
Ergänzung ()

Du vergisst bei deinem Intel-Vergleich dass der DDR2 Memory-Controller bei den APUs rausfliegt und die PIN genutzt werden können.
 
dgschrei schrieb:
@Wadenbeiser
Ja das mit den theoretischen und praktischen Werten war mir schon klar. Hatte nur keine Lust extra die Werte von DDR3 auch noch rauszusuchen ;) .
Ändert aber doch nicht wirklich etwas: Selbst in dem unwahrscheinlichen Fall, dass DDR3 1600 der Standard wird, hat man in einem System mit nur einem Modul nur 12,8 GB/s zur Verfügung. (Und das sind praktisch alle preiswerten mobilen Lösungen)
Im Vergleich zu den 64 GB/s von einer HD5670 ist das ein Fliegenfurz. Vor allem wenn damit gleichzeitig auch noch die CPU befeuert werden soll.

Selbst mit Triple Channel DDR3 1600 hätte man für CPU+GPU nur halb so viel Bandbreite wie jetzt eine untere Midrange Karte alleine hat.

Eine Radeon HD 5570 nutzt den gleichen Chip wie die 5670, ist aber geringer getaktet und muss auch mit einem 128 Bit DDR3 Speicherinterface auskommen, welches eine Bandbreite von 28800MB/s haben soll... ;)
 
Wenn der Trend dahin gehen soll, ist Intel in Zugzwang und Nvidia geht dem Desktop Markt einfach verloren, somit wird es kurz oder lange daraus laufen das man sich von Nvidia verabschieden kann.

Ob die Leistung des Grafik Chips gut oder schlecht ist sehen wir ja dann.
 
Zurück
Oben