News AMD zeigt DX11-Spiel auf „Fusion“-APU

für den büro alltag sicherlich toll .. aber für gaming/ adobe etc?! will mir noch nicht einleuchten ...

ansonsten ist das verknüpfen vieler funtkionen auf einen chip ne performance steigernde sache .. nur wie gesagt die graka dort derart mit einzubeziehen?!
 
Egnutz schrieb:
@Krautmaster, hast du schon einmal daran gedacht, dass die GPU auch durch ihre Shader unter 0815 Anwendungen, sobald sie darauf ausgelegt sind mitrechnen kann? Und hast du schon einmal daran gedacht, dass nach und nach die neue Software darauf ausgelegt sein wird, sobald DX11 richtig verbreitet ist, nicht als "must have", sondern als Leistungssteigerung? Nein, du siehst die Welt auf einem Auge blind und verdonnerst Sachen für die du selbst keinen Nutzen hast... frei nach dem Motto:
...

jaja 0815 Anwendungen, auf einmal wird alles schneller... hallo wach auf. Wäre dem der Fall dann wäre diese "GPU" in Form eines in Hardware gegossenen Befehlsatzes schon lange auf in der DIE integriert, genauso gibt es Dx 11 bald ein Jahr.

Was ist denn SSE, AES etc ... die Funktionen die dann auf die GPU ausgelagert werden sind doch nichts anderes.
Was soll den schneller gehen? Natürlich gehen einzelne Dinge fixer, gbesonders Dinge die sich parallelisiert ausgelagert werden können. Aber wir sind bei X64/x86, es wird nicht eben mal das ganze OS auf der GPU laufen und 2000 mal schneller sein.

Es wirden die wenigstesn Dinge davon Nutzen ziehen, und meist im für den normalen Anwender in geringem Maße... oder kommen wir aus Jucks und Tolleranz 10 Jahre nach Pentium III mal auf die Idee gpuähnliche Strukturen in die CPU zu integrieren. Das alles wäre schon viel eher geschehen, nur hat man es nicht gebraucht.

Heute sucht man doch mehr den jeh nach Mittel und Wegen die Effizienz pro Takt zu steigern, da nimmt mana uch die 2 % Overallperformance die die GPU im DIE vielleicht nutzt da diese 2% den Unterschied zur Konkurrenz ausmachen können.
Wunder würde ich nicht erwarten, nicht solange man x86 und Windows in der heutigen Form benutzt.

Die Vorteile wird man immer da finden, wo parallelisiert wird. Nun sehen wir, dass selbst 6 Kern Prozessoren noch schwer bis garnicht ausgelastet werden, wieso sollte nun jedes Programm über DX11 mit 400 Shadern was anfangen können?

Du kannst mit deiner APU sicher schneller Passwörter knacken, Verschlüsseln, Bildbearbeitung machen und schneller gamen. Dein Browser wird irgendwelche Browser Benchmarks schneller rechnen können, alles schön und gut... man wird sehen wieviel davon sich in praktischen Nutzen umsetzen lässt.

"GPU beschleunigtes Word" - sicher, wenns darum geht Bild zu platzieren oder Grafiken zu erstellen... Tätigkeiten die aber heute schon in Echtzeit funktionieren. Wenig Raum um mehr Performance rauszuholen. APU ist aus wissenschafftlicher und Server Sicht sicher interessanter.

Edit:

Außerdem gings mir doch garnicht darum etwas zu verdonnern. Die integrierte Lösung ist für sparsame und einfache, kleine PC Lösungen sehr interessant. Aber DX11 aus der CPU wird mit liano keine Wunder vollbringen, viel wichtiger ist die generelle Leistungssteigerung durch neue Architektur, APU wird nur nen geringen Teil dazu beitragen.
 
Zuletzt bearbeitet:
Ich hoffe, das APU auch auf sehr leistungsfähigen CPUs Platz finden wird.

Bulldozer kann ja für die Leute bleiben, die den GPU gegen nen paar mehr Mhz eintauschen ;)
 
den Vorteil sehe ich auch darin, gute SingelChip Lösungen für den KleinstPC Sektor zu finden. Klein ist im Trend, siehe ITX. Da macht sich GPU / CPU in einem richtig Toll und spart Geld bei der Mainboard Produktion.
 
Man sollte mal einfach warten bis es was zum Testen gibt oder zumindest richtige Zahlen.
Ich kann mir vorstellen das Llano genau meinen Bereich abdeckt. Ich spiele mal CIV oder jetzt die SC2 Beta und brauch auch nicht alle Details.
Könnte für Otto-Normal ein tolles Produkt sein ob man es auch so vermarkten kann, da bin ich mir nicht so sicher. Im Mobilbereich erwarte ich einiges davon beim Desktop wird man sehen, da vermute ich auch oft die Krautmaster Meinung (nicht abwertend gemeint).
 
@Krautmaster
Schade dass wir scheinbar aneinander vorbei reden - die Beispiele für GPU Beschleunigung die du bringst haben nichts mit den tatsächlichen Vorteilen von GPU Hardware Beschleunigung zu tun. Schau doch mal hier vorbei:
http://www.basschouten.com/blog1.php/2009/11/22/direct2d-hardware-rendering-a-browser
Why GPU acceleration?
First of all why is GPU acceleration important? Well, in modern day computers, it's pretty common to have a relatively powerful GPU. Since the GPU can specialize in very specific operations (namely vertex transformations and pixel operations), it is much faster than the CPU for those specific operations. Where the fastest desktop CPUs clock in the hundreds of GFLOPS(billion floating point operations per second), the fastest GPUs clock in the TFLOPS(trillion floating point operations per second). Currently the GPU is mainly used in video games, and its usage in desktop rendering is limited. Direct2D signifies an important step towards a future where more and more desktop software will use the GPU where available to provide better quality and better performance rendering.
Und schau dir mal an Welche Featurea Direct2D hat:
http://msdn.microsoft.com/en-us/library/dd370987(v=VS.85).aspx

Direct2D ermöglicht erst überhaupt eine bessere Bildqualität die bei weitem Augenschonender ist:
ic310956-png.189039
 

Anhänge

  • IC310956.png
    IC310956.png
    157,6 KB · Aufrufe: 997
@Krautmaster
Falls AMD da wirklich zu viel Shader eingebaut hat, dann werden sie es zumindestens bei der 2. Fusion-Generation, diesmal mit Bulldozer, dann besser machen.

Man muss halt noch abwarten, wie sich das ganze Entwickelt.

Apple könnte für AMD & Fusion sehr hilfreich sein, denn einerseits gilt die Firma als Innovativ in der Masse und andererseits pusht AMD OpenCL. Und mit der Apple-Macht, kann das für OpenCL ziemlich gute Auswirkung für die Durchsetzung haben.

Zum Stromverbrauch.
Auch mich schrecken die 400 Shader ab, aber mit Power-Gating & Co könnte es trotzdem weniger als die onbord-GPUs verbrauchen.
Denn durch die Integration des GPU im CPU-Die, entfällt ja auch der Stromverbrauch des A-Link-Express zwischen CPU & Northbridge.

Grundsätzlich sind deine Anmerkungen berechtigt, aber ganz so sorgen würde ich mir nicht machen. Denn gerade AMD hat in den letzten Quartalen gute ausbilanzierte Produkte (vorallem mit HD5000 & 40nm-Probleme) herausgebracht.

Und der Sprung vom IGP-40 Shader auf 400-Shader wird immerhin von 55nm-Bulk auf 32nm-SOI-UltraLowK-HighK-Powergating geschafft.

Edit:
Madison (40nm-Bulk) mit 400 Shader hat im Mobilen Markt einen Verbrauch von 15 (450 Mhz) und 19 Watt (650 Mhz)
Und mit Power-Gating kann man den iGPU im Idle wahrscheinlich abschalten.

@ Topic

Also, wenn der Fusion bzw. bessergesagt die Southbridge dann noch (genügend) USB 3.0 bringt, (Sata 3.0 gibts ja schon im SB850), dann wird Fusion ja verdammt interessant.
 
Zuletzt bearbeitet:
Ich bin, rein Rechnerisch, noch sehr skeptisch was die Leistung des GPU-Parts anbelangt und zwar aus zwei Gründen:

1.) Die Llano APU umfasst ca. 1 Milliarde Transistoren
2.) Der CPU-Part basiert auf dem K10.5-Kern

Für mich, als Laien, wären zwei Kombinationen von CPU/GPU vorstellbar:

a.) Vollwertiger Phenom II (Deneb - 758 Millionen Transistoren) + HD 5450 (RV810/Cedar - 292 Millionen Transistoren)

oder

b.) Athlon II X4 (Propus - 300 Millionen Transistoren) + HD 5670 (RV830/Redwood - 627 Millionen Transistoren)

:confused_alt:
 
@aylano
Die CPU und die Northbrige sind bei AMD mit HyperTransport verbunden. Der Alink Express verbindet die Southbridge mit der Northbridge ;)
 
@Complication

ähm ich frag mich noch was das mit der GPU in der CPU DIE zu tun haben soll. Mir ist klar, dass die GPU für die Anzeige zuständig ist.

Das optimierte Rendering im Browser ist gut, eben weil sie sich "speziell" auf die GPU auslagern kann. Aber das hat wenig mit der "APU" zu tun, imho einfach DX11, die Zusammenlegung CPU/GPU hat damit nichts zu tun. Dazu brauch ich keine APU. Es bringt die Zeit mit sich, dass immer mehr in Richtung Darstellung und Effekten geschraubt wird. Die Dinge können recht gut via GPU beschleunigt werden. Mir geht es um die Operationen einer CPU, deren Aufgabengebiet das eigentliche Programm dahinter zu berechnen. Darstellung ist was ganz anderes. Das Programm dahinter wird aber nicht schneller.

Hier gehts ja nicht darum was DX11 kann... sondern welchen Vorteil CPU+GPU auf einer DIE als APU bringen... Hier arbeitet nicht schlagartig die GPU bei jeder CPU Berechnung mit und bricht neue Rekorde. Der Unterschied zu CPU + separate GPU ist vermutlich verschwindend gering.

Vorteil liegt eher darun, dass der Verbrauch effizienter gesenkt werden kann, die Verdrahtung einfacher ist.

Das was dieser Kerl sagt ist vollkommen klar, GPU kann wenig das dafür gut. Wär ne komische GPU die keine 2D Darstellung beherrscht, bzw das langsamer rendert als ne CPU. Dazu ist sie ja da.

it is much faster than the CPU for those specific operations.

genau darum gehts. Spezielle Aufgaben sind 100x schneller. Zurrecht sonst würde die CPU ja dein Bild berechnen was recht schwachsinnig wäre. "specific operations" heißt aber auch, dass nur sehr vereinzelnt, normale Anwendungen davon profitieren. Dein Windows bootet deswegen nicht schneller, dein IE ist nicht schneller einsatzbereit. Wenn überhaupt ist deine animierte Garfik auf einer Webseite schneller geladen - oder verbrät weniger CPU Leistung (welche heute aber meist vollkommen ausreicht).

Was genau kommt jetzt durch DX11 und APU für uns neues dazu? Vereinzelte "specific operations" die dann schnell ablaufen, richtig. Die Bildschirmdarstellung ist aber seit längerer Zeit GPU beschleunigt (2D / 3D), an den jeweiligen bisher von der CPU berechneten Programmabläufen tut sich aber sehr wenig.

Dasselbe wie Cuda und Steam eben einheutlich über Dx11 angebunden. Diese Einheitlichkeit ist der große Vorteil von DX11, leider sieht man davon wenig. Warum, weils sehr spezielle Anwendungen sind wie Encodierung von Videos.

Welche Wunder erwartest du von APU? Die Darstellung einer Anwendung ist der kleine Teil, die eigentlich Berechnung macht nach wie vor die CPU.

Ich kann mir nicht vorstellen, dass nun viele Befehle, die bisher von der CPU erledigt wurde, die GPU übernehmen wird. Ich bin da nicht tief genug drin und kann schwer abschätzten in welchem Rahmen Berechnungen über GPU im normalen Betrieb Vorteile bringen können (also keine 3D Darstellung)... wäre der Vorteil extrem dann wäre die CPU schon lange eine "APU", die GPU die Hauptrecheneinheit und die CPU als Zusatzkarte/Chip verbaut ;)

Was hielt den die ganzen Chipentwickler davon ab, diese "Spezialberechnungen" die nun die GPU so toll kann, mit als Befehlssatz in die CPU zu integrieren? Fehlendes DX11 oder mangelnder Nutzen?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Was ist denn SSE, AES etc ... die Funktionen die dann auf die GPU ausgelagert werden sind doch nichts anderes.
Was soll den schneller gehen? Natürlich gehen einzelne Dinge fixer, gbesonders Dinge die sich parallelisiert ausgelagert werden können. Aber wir sind bei X64/x86, es wird nicht eben mal das ganze OS auf der GPU laufen und 2000 mal schneller sein.

Junger Herr, sie mögen zwar nen schnelleren Rechner haben als ich mit meinem Pentium E, dennoch.

SSE, AES und wie es nicht alles heißt sind x86 Befehlssatzeserweiterungen. Die Compute Shader des GPU Parts sind simpel ausgedrückt dutzende simpele Recheneinheiten, welche in einigen Aufgabengebieten deutlich schneller sein kann als x86.

Ich werde nicht weiter mit dir Argumentieren, verschonen sie mich mit ihrem Halbwissen. :o
 
Krautmaster schrieb:
Die Entwicklung in Sachen Stromsparfunktionen sind auf jedenfall weit aus sinnvoller als GPU Leistung einer HD5670 in einer CPU. Da habe ich lieber Ein System mit 20 W idle bei HD5870 Leistung in einer diskreten Grafikkarte.

Ich verstehe nicht, was du damit ausdrücken willst, ich denke du redest Wirr und das schon über die 3 ganzen Seiten Thread.
 
ist mir vollkommen klar. Und was genau kann dadurch eine APU besser als CPU + GPU in getrennter Form?

Angenommen die Fusion GPU ist auf HD5450 Niveau, die CPU auf X4 945 Niveau... dann wird die Fuision APU nicht wirklich schneller sein als die Kombination X4 945 + HD5450, dafür ist ersteres sparsamer + platzsparender + günstiger in der Fertigung.

Aber den Vorteil, dass die CPU dann diverse Berechnungen direkt auf Recheneinheiten der GPU auslagern kann, halte ich für klein.
Diese Auslagerung käme einem Befehlserweiterungssatz gleich.


@Schaffe89

APU beschriebt doch nicht einfach eine Zusammenlegung CPU + GPU, sondern auch die gemeinsame Verwendung der Recheneinheiten. Oft könnte man meinen viele versprechen sich eine Revolution in Sachen Performance durch diese Zusammenlegung. Die wird ausbleiben. Darum gehts mir, sorry wenn ich das falsch/unverständlich ausgedrückt habe.

Edit:

Die Zusammenlegung an sich, findet zur Reduzierung der Fertigungskosten statt. Außerdem bindet man den Käufer an die eigene Technik.
 
Zuletzt bearbeitet:
Das was dieser Kerl sagt ist vollkommen klar, GPU kann wenig das dafür gut. Wär ne komische GPU die keine 2D Darstellung beherrscht, bzw das langsamer rendert als ne CPU. Dazu ist sie ja da.
OK - und welcher Browser wird heute mittels Direct2D schon beschleunigt? Und es ist deiner Meinung nach kein Fortschritt wenn man dann keine dedizierte GPU mehr benötigt?
Offensichtlich ist es derzeit nicht möglich DX11 auf einer CPU zu verwenden, oder wie viele kennst du die diese Befehlssätze integriert haben? Irgendwie fehlen der CPU bisher die Shader um DX11 in dieser massiven Parallelität zu berechnen. Da ist es nicht mit ein paar Instruktionen getan.

2D !=Direct2D
Ich hab es doch verlinkt und will hier nicht schon wieder zu weit abschweifen im Thread - die Anwendungsgebiete und Vorteile habe ja nicht ich erfunden, die Links zu den Infos sind ja hier im Thread - man muss sie nur lesen wollen.
 
ähm. ich glaube ihr versteht da was falsch.

Es ist nur begrüßenswert wenn die Fusion Lösung gut funktioniert. Den Vorteil Berechnungen über Compute Shader und OpenCL auf die GPU auszulagern ist natürliuch toll, falls die IGP von Intel nicht mit dieser t´Technik umgehen kann bedeutet das einen Nachteil der sich ja zeigen wird, und wegen mir kann Intel damit auch gern auf die Nase fallen.

Die Zusammenlegung GPU+CPU zur APU hat doch aber mit Compute Shader und OpenCL wenig zu tun - die habe ich auch wenn ich eine HD5450 einbaue. Es geht mir um den Vorteil den sich viele aus den geteilten Recheneinheiten versprechen...

Die eigentliche CPU Effizienz steigt dadurch doch nur minimal. Das gilt für Intel genau wie für AMD. Mit den Software Schnittstellen zu Compute Shader und OpenCL natürlich mehr... das ist die eigentliche Revolution, nicht APU.

Compute Shader und OpenCL sind alles noch Software Lösungen - bringen natürlich mehr Transparenz als Speziallösungen wie Steam oder Cuda. Ziel muss ja sein, dass man unabhängig von der Software Code beschleunigen kann, ähnlich einer Befehlsatzerweiterung der CPU die Compute Shader und OpenCL direkt auf diese Shader, falls vorhanden, egal ob diskret oder in CPU integriert, nutzt und Vorteile daraus zieht. Und dann lautet die deviese "Compute Shader und OpenCL für alle". Ich finds gut, dass AMD das mehr pushed als Intel.

Mir geht es garnicht um Intel / AMD. Nur um den Begriff APU von dem sich viele vielleicht zuviel versprechen.
 
Zuletzt bearbeitet:
Ich denke Krautmaster unterschätzt hier die Zusammenarbeit zwischen der directx11 API mit AMD oder Nvidia unddie ganzen Möglichkeiten die Complication ja bereits schön aufgezählt, bzw verlinkt hat.
Wenn AMD eine APU mit solider Grafik bewirbt, für das ein oder andere Spielchen spart das Platz und da alles auf einem Die vereint ist, wahscheinlich auch ne Menge Strom, wie du es doch gefordert hast.

Mir kommt es vor, als ob du den Fortschritt "Fusion" nicht ernst nimmst und keinerlei Vorteile in einer APU siehst, da alut deiner Aussage die GPU nicht zum berechnen einspringt, sondern ja eigentlich directx11 und in Wirklichkeit die CPU das was hinter dem Bild steckt berechnet und man deswegen lieber auf ne Intel IGP setzen soll, weil man sonst lieber ne HD5870m verwendet, die Im Idle auch schön sparsam ist?
Da komm ich nicht mehr mit.^^^
Worum gehts denn hier eigentlich noch?:)

Krautmaster schrieb:
falls die IGP von Intel nicht mit dieser technik umgehen kann bedeutet das einen Nachteil der sich ja zeigen wird.

Ich denke nicht, dass Intel es gebacken bekommt offiziell directx11 in nächste Zeit bewerben zu können was soviel heißt, dass Intel nicht mit dieser Technik umgeen können wird, was einen deutlich großen Teil der Sinnhaftigkeit dieser APU ausmachen wird.
Denn die hat dann sogut wie jeder drinnen, der ein AMD Notebook oder vll sparsames System kauft und daran lässt sich dann auch n Standard ordentlich verwicklichen und ausbauen.
Die eigentliche Zusammenlegung hat ernorm viel was damit zu tun, denn somit wird überhaupt der Markt für Compute Shader/directx11 geschaffen, weil das dann die Itel Systeme mit ATI/Nvidia Grafikkarte drinn haben und die AMD APU Systeme.

das ist die eigentliche Revolution, nicht APU.

Die APU macht doch die Revolution absolut gesehen überhaupt erst möglich, zumal beides eine Revolution ist.
Dazu kommt noch der riesige Vorteil ab und an ein Spiel zu spielen, was vielen gefallen wird.
Warum sollte denn mit der APU die CPU Effizients steigen, weil die APU Graka Aufgaben der CPU übernimmt und somit die APU gesamt weniger Strom verbraucht als Prozessor+ IGP? Darauf willst du also hinaus? Aber wen interessiert das überhaupt, solange man den Verbrauch im Idle weit unten lässt und unter Last nur die 32nm CPU arbeitet, wenn nicht gezockt wird. Für 0815 User wird immernoch ein Intel System + IGP gekauft. Mir kommt so vor, als ob so ein System aus deiner Sicht sinvoller wäre als ne APU von AMD. Jeder hat seine Ansprüche, aber mir wird nicht klar, was deine sind und warum du die APU so schlechst machst und schaffst das mit ner schäbigen Intel IGP zu vergleichen^^
Die effizients wird wohl unter Last beim Gamen stark gesteigert wegen des fehlenden Speichercontrollers der Graka in der APU und das ist wohl ein Fortschritt.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Mir kommt es vor, als ob du den Fortschritt "Fusion" nicht ernst nimmst und keinerlei Vorteile in einer APU siehst, da alut deiner Aussage die GPU nicht zum berechnen einspringt, sondern ja eigentlich directx11 und in Wirklichkeit die CPU das was hinter dem Bild steckt berechnet und man deswegen lieber auf ne Intel IGP setzen soll, weil man sonst lieber ne HD5870m verwendet, die Im Idle auch schön sparsam ist?
Da komm ich nicht mehr mit.^^^
Worum gehts denn hier eigentlich noch?:)

nein Quatch, mit HD5870 oder irgend ner Intel Grafik hat das doch nichts zu tun. Dein erster Satz triffts ganz gut.

Was bringt mir APU?

Die Vorteile wären nur dann vorhanden, wenn die CPU Berechnungen direkt auf die GPU auslagern kann, was in der disktreten Lösung nicht funktionieren würde. Und diese "direkte" Auslagerung halte ich für schön, aber die müssen sich ertsmal beweisen.

Das GPU Beschleunigung an sich keine Vorteile bringt ist Quatsch, natürlich tut sie das. Aber GPU Beschleunigung +ber direkte Codeauslagerung mittels Software auf die GPU und das automatisierte Auslagern in Hardware bei der APU sind doch zwei paar Stiefel, oder etwas nicht?
 
Zuletzt bearbeitet:
Mich würde es brennender Interessieren ob die Plattform beim programmieren Vorteile hat
 
Zurück
Oben