News AMD „hUMA“ verbessert Kommunikation zwischen CPU und GPU

Wie sich etwas über die Zeit doch wandeln kann... Früher bekam man die Empfehlung ja kein System kaufen bei dem sich Grafik und CPU den Speicher teilen müssen. In Zukunft wird man dann wohl nur noch solche Systeme empfehlen.
 
<orangensaft schrieb:
Der gemeinsame Speicher deutet drauf hin, aber sicher ist es noch nicht dass die PS4 hUMA nutzt?

Bei der PS4 Präsentation sprach man ganz klar von 8 GB unified memory. Und bei den AMD HSA Folien taucht der Begriff unified memory im Zusammenhang mit "simplified data sharing" für 2013 auf. Bei AMD kommt hUMA mit Kaveri, die PS4 wird es aber sicherlich auch nutzen. PS4-Chefentwickler Mark Cerny hat ja schon erwähnt, dass eine überarbeitete GCN Architektur in der PS4 genutzt wird und nicht die aus Southern Islands bekannte. Somit spricht eigentlich alles dafür, dass wir hUMA auch bei der PS4 sehen werden.
 
Der Punkt, dass es für diskrete Grafikkarten funktionieren soll überrascht mich ebenfalls. Mir war nicht klar, dass es möglich ist die "Arbeitsweise" des PCI-Express Interfaces "umzudrehen". Denn solange die CPU mit dem Transfer belastet wird (auch wenn DMA das meiste ja für Lau macht) ist das Konzept ja integral verletzt.

@UMA: Das begrüße ich sehr. Gerade der Transfer des Kernels und des Kontextes auf die GPU (im Falle von OpenCL) war immer ein sehr zeitraubender Vorgang. (Teurer Memory-Access eben) Meine Hoffnung aus diesem Konzept ist, dass auch kleine Problemgrößen durch die GPU bearbeitet werden können. Bisher musste man immer abwägen, ob
Code:
O(copyToHost) + O(copyFromHost) + O(Computation@GPU) < O(Computation@CPU) /* Ja, schlechter Pseudocode */
waren. Wenn die Grafikkarte nun kohärent auf den gesamten Speicher der CPU zugreifen darf werden gerade solche Anwendungen zum Geschenk. Ferner ist die Übergabe des Kontextes durch einen Pointer eine hochgradige Erleichterung. (Im Rahmen der APU macht es gerade Sinn, weil die Daten dann definitiv im Maim Memory sind - wie das bei dGPUs aussieht, bleibt dann wohl abzuwarten.)

Darauf freue ich mich. Wenn ich mich richtig erinnere ist der erste TRON Film ein prominentes Beispiel für UMA (ich meine es war die SGI o2). Hier konnte das Video (also die Shell auf den Tisch) einfach als Referenz auf den Speicherbereich der Videokarte an den Grafikchip übergeben werden, sodass dieses Video unmittelbar als Textur verwendet werden konnte. Denn Video + RAM haben sich ja nicht so gut verstanden. :)

Viele Grüße (in freudiger Erwartung)
 
Nach dem was ich gelesen habe, ist das SoC der PS4 grundsätzlich HSA-fähig (im Gegensatz zu allen bisher erhältlichen APUs von AMD), aber es unterstützt nicht den kompletten Funktionsumfang.
Ob hUMA zu den unterstützten Funktionen gehört, weiß ich nicht. Es wäre schon wichtig, denn es ist definitiv eine wesentliche Kernfunktion von HSA.
 
nebulein schrieb:
...

AMD wird seine APU auf jedenfall mehr in Richtung PS4 Hardware entwickeln, wodurch man auf dem Desktopgaming Sektor mit Sicherheit 2014 schon eine APU haben wird, die bei den neuen Games davon profitieren wird. Die Problematik darin sehe ich nur wenn ein Spiel wie z.b. Battlefield 3 daher kommt, welches keines dieser Techniken nutzt, dann muss die APU das über die rohe Leistung stemmen und dafür reichts eben noch nicht.

AMD ist wohl darauf angewiesen, dass diese Rechnung aufgeht. Leider hat aber AMD auch in letzter Zeit eine Geschichte der "Ankündigungen" auf die eher mäßige Taten folgen. Rein theoretisch müsste AMD in den nächsten Jahren im Desktop Spiele PC zur klar besseren Wahl aufsteigen, als eine Intel - Nvidia Kombination.

AMD hat schließlich alle Trümpfe in der Hand und auch ein Battlefield wird daran nichts ändern. Schließlich werden die Titel (egal was den PC-Spielern über Tesselation-DX11-Superfeatures erzählt wird) für Konsolen optimiert und die sind dann alle von AMD.

Das Problem ist, dass AMD endlich mal Dinge im hier und jetzt in großer Stückzahl auf den Markt bringen muss, die dann in Benchmarks auch wirklich die entsprechenden Vorteile zeigen und das mindestens im ordentlichen zweistelligen Prozentbereich (bei konkurrenzfähiger Leistungsaufnahme etc.)

Ansonsten wird das nichts und man wird das Defizit das man in Bezug auf die Marke gegenüber Intel und Nvidia hat nicht ausmerzen können. Wenn zwei Hersteller ähnlich gut sind, dann bleibt der Kunde nämlich in der Regel bei dem was er schon kennt, das seine Marke ist usw. Gleich gut zu sein reicht für AMD also nicht um Marktanteile dazu zugewinnen.
 
Zuletzt bearbeitet:
Erinnert mich ein wenig an Paula, Denise, Agnus und einen 68000 vor mehr als 25 Jahren.....
 
Darüber hinaus hat AMD bekannt gegeben, dass genauso diskrete Radeon-Grafikkarten profitieren können. AMD arbeitet derzeit mit einigen Software-Entwicklern an den ersten, angepassten Programmen. Weitere Details gab es dazu aber noch nicht.

Schade :( Würde mich interessieren mit welchen Programmen AMD da grosse performance Sprünge sieht.



Herdware schrieb:
.......
Es ist sicher nicht unkompliziert, wenn die CPU über den vergleichsweise lahmen PCIe-Bus gar im Cache der GPU auf der dedizierten Grafikkarte herumschreibt und umgekehrt, ohne dass eine oder beide Seiten darüber stolpern. Mal sehn, wie viel Performancevorteil gegenüber dem altegewohnten Herumkopieren der Daten dann noch überbleibt.
.........
Naja, wenn sie es nur für den Performance gewinn tun. Ist es nicht allein schon wegen der Kompatibilität ein Vorteil wenn die Programme nur noch in hUMA Programmiert werden müssen ? Egal ob APU oder externe GPU verwendet wird. Dann dürfte +/- 10% Performance wohl nicht so wichtig sein.
 
Das wird bei AMD diesmal sicher kein Papiertiger werden.

Denn die PS4 und damit auch die nächste Xbox werden das zum Jahresende bieten. Da beide auf die nächsten Jaguar APU setzen, werden wohl alle ähnliche Fertigkeiten besitzen. (Laut Gerüchten hat die Xbox nur einen etwas kleineren Grafikteil)

zur PS4:
Die GPU kann Cerny zufolge außerdem über einen zusätzlichen Bus ohne Umwege über deren L1- oder L2-Cache direkt in den Systemspeicher schreiben oder Werte auslesen, was das Synchronisieren der Daten zwischen CPU und GPU vereinfachen soll.
http://www.heise.de/newsticker/meld...ngen-fuer-Spitzen-Spieleleistung-1851776.html


Die PS4, die Xbox720 und die nächste Jaguar-APU sind einfach darauf optimiert das CPU und GPU gut zusammen arbeiten können.

Die Portierung von Konsole hin zum PC mit einer dedizierten Grafikkarte könnte dann allerdings problematisch werden. Da müssen die Entwickler dann erst noch einmal Hand anlegen.
Ergänzung ()

Haldi schrieb:
Naja, wenn sie es nur für den Performance gewinn tun. Ist es nicht allein schon wegen der Kompatibilität ein Vorteil wenn die Programme nur noch in hUMA Programmiert werden müssen ? Egal ob APU oder externe GPU verwendet wird. Dann dürfte +/- 10% Performance wohl nicht so wichtig sein.
Es geht hier leider nicht nur um ein paar Prozentpunkte. Der Weg über den PCIe ist hier deutlich langsamer. Wenn die CPU auf einige relevanten Berechnungen der Grafikkarte viel länger warten muss, dann können die FPS schon massiv einbrechen.
 
Ich möchte euch jetzt nicht aus den Wolken reißen, aber dass die Latenz von PCIe ein paar fps kosten könnte, wird AMD nicht so stören. Erstens dreht sich bei denen sicherlich nicht allzuviel um Gamer und Zweitens wird der "zukünftige" Gamer-PC APU und dedizierte GPU haben, wo dann auch die dedizierte Karte weiterhin großenteils nur für die Grafikausgabe zuständig ist.
 
Winder schrieb:
Die Portierung von Konsole hin zum PC mit einer dedizierten Grafikkarte könnte dann allerdings problematisch werden. Da müssen die Entwickler dann erst noch einmal Hand anlegen.

Es geht hier leider nicht nur um ein paar Prozentpunkte. Der Weg über den PCIe ist hier deutlich langsamer. Wenn die CPU auf einige relevanten Berechnungen der Grafikkarte viel länger warten muss, dann können die FPS schon massiv einbrechen.

Das bezieht sich nicht nur auf Spiele also auch nicht nur auf FPS. Sämtliche Programme, die parallelisierbare Berechnungen ausführen, können auf die GPU ausgelagert werden und damit optimiert werden, wenn es aber unter technischen Begrenzungen (PCI-E) leidet, ist es eher kontraproduktiv. Also mal schauen was AMD da zaubert mit dedizierten Grafikkarten und ob es wirklich Sinn machen wird.

OT: Wurde auch Zeit, dass sich endlich mal was tut. Der Weg den andere Hersteller verfolgen, lediglich Fertigungsprozesse zu optimieren und alles etwas effizienter zu gestalten, wird vermutlich irgendwann an seine Grenzen kommen, zumindest nicht mehr die Performancesprünge bieten, die sich viele erhoffen. Da ist eine Generalüberholung einiger Konzepte schon was anderes, wenn Latenzzeiten tatsächlich um bis zu 50% reduziert werden können. Das Gute an AMD ist, dass es offen für jeden ist, wie auch schon mit TressFX und nicht an einen Hersteller gebunden im Gegensatz zu z.B. CUDA und PhysX.
Generell ist das Feature aber schon etwas länger bekannt und auch dass es mit Kaveri richtig losgehen soll, was HSA angeht. Wer interessiert ist hier der Link zum gesamtheitlichen HSA-Konzept.
http://developer.amd.com/-web.washe...mVzcy9tZWRpYS8yMDEyLzEwL2hzYTEwLnBkZg==&foo=2
 
5@n!töt3r schrieb:
Ich möchte euch jetzt nicht aus den Wolken reißen, aber dass die Latenz von PCIe ein paar fps kosten könnte, wird AMD nicht so stören.
Wenn man die GPU massiv als Co-Prozessor einsetzt, dann geht es nicht mehr nur um ein paar Prozentpunkte.


Erstens dreht sich bei denen sicherlich nicht allzuviel um Gamer
Naja, dank Playstation und Xbox werden sie genau in dem Bereich Absatzzahlen im zweistelligen Millionenbereich haben. Und die Konsolen-Entwickler werden auch die ersten sein, die daraufhin anfangen zu optimieren.


und Zweitens wird der "zukünftige" Gamer-PC APU und dedizierte GPU haben, wo dann auch die dedizierte Karte weiterhin großenteils nur für die Grafikausgabe zuständig ist.
Das sehe ich ähnlich. Die fehlende Möglichkeit eine dGPU als Co-Prozessor einsetzen zu können, kann man in Zukunft nicht nur mit immer mehr CPU Power erschlagen. Und da in Zukunft eh jeder Prozessor über eine iGPU verfügen wird, biete sich das logischerweise an.
 
Es tut mir leid, aber irgendetwas passt afaik an den News nicht 100 %tig.

Denn wer bis jetzt auf einer APU (das gilt auch für eine diskrete Grafikkarte) die GPU nutzen möchte, hatte immer mit dem Problem zu kämpfen, dass diese nur auf den so genannten (adressierten) „Page Locked Memory“ zugreifen konnte und nicht auf die Daten, die vorher von der CPU bearbeitet wurden (page faults)

Dieser Satz sollte m.E. heissen:

Denn wer bis jetzt auf einer APU (das gilt auch für eine diskrete Grafikkarte) die GPU nutzen möchte, hatte immer mit dem Problem zu kämpfen, dass diese nur auf den so genannten (adressierten) „Page Locked Memory“ zugreifen konnte und nicht auf den Pageable Memory. Durch den Zugriff auf den Pageable Memory kann die GPU nun auch Pagefaults auslösen, wenn sich die Seite nicht um RAM sondern auf der HDD befindet.

Der letzte Nebensatz ("die vorher von der CPU bearbeitet wurden") ist falsch. Die CPU hat auch Zugriff auf den Page Locked Memory. Dieser ist nur eine kostbare Ressource (laut NVIDIA), weshalb man davon nicht viel allokieren kann.

Neu ist bei hUMA, dass die GPU von nun an auch auf einen virtuellen Speicher zugreifen kann, der bis dahin noch nicht im physischen Speicher hinterlegt ist – das war bis jetzt der CPU vorbehalten. CPU und GPU können auf den kompletten „Virtual Memory Space“ zugreifen und diesen reservieren.
Dies ist weitestgehend das wie der vorherige Satz, nur an einer komplett anderen Stelle in der News.

sondern gilt auch für den in CPU und GPU integrierten Cache, wobei beide Hardwarekomponenten auf den jeweilig anderen Cache zugreifen können. Die Kohärenz (und die anderen hUMA-Features) ist dabei in Hardware gegossen und basiert nicht auf einer Softwarelösung.
Sie können wahrscheinlich jeweils nicht auf den Cache des anderen zugreifen, sondern es gibt lediglich eine Cache-Kohärenz, ähnlich wie bei modernen Mehrkernprozessoren mit ihren privaten L1- und L2-Caches.


AMD stellt darüber hinaus klar, dass bei „hUMA-Hardware“ die GPU mit so genannten „Pointern“ umgehen kann, die auf gewisse Speicherbereiche zeigen. Das hat den Vorteil, dass die CPU keine Daten mehr zu der GPU und zurück kopieren muss, wenn letztere eine Rechenaufgabe zu bewältigen hat. Stattdessen erhält die GPU einfach einen Pointer von der CPU, den diese dann bearbeitet und die CPU kann die Ergebnisse daraufhin direkt auslesen – ohne einen Kopiervorgang. Auf welchen Speicherbereich der Pointer zeigt, ist bei hUMA nicht von Bedeutung, da die GPU eben auf den kompletten Speicheradressraum zugreifen kann.

Der direkte Zugriff ohne zu kopieren ist bereits seit langer Zeit mit DMA und Mapped Memory möglich, und seitdem die GPU auch auf den Pageable Memory zugreifen kann ist er immer möglich. Der Vorteil an diesen Pointern ist ein anderer, nämlich dass die GPU die selben virtuellen Pointer wie die CPU verwenden kann. So kann die GPU, wenn sie an einen solchen Pointer P gelangt, diejenigen Pointer, welche sich im vom P referenzierten Objekt befinden, weiter verfolgen. Würde die GPU keine Pointer "unterstützen" oder hätten ihre Pointer nicht den selben virtuellen Addressraum wie die CPU so könnte sie eben das nicht.
 
kr4yzed schrieb:
Das bezieht sich nicht nur auf Spiele also auch nicht nur auf FPS. Sämtliche Programme, die parallelisierbare Berechnungen ausführen, können auf die GPU ausgelagert werden und damit optimiert werden, wenn es aber unter technischen Begrenzungen (PCI-E) leidet, ist es eher kontraproduktiv. Also mal schauen was AMD da zaubert mit dedizierten Grafikkarten und ob es wirklich Sinn machen wird.
Hier sollte man kurz darüber nachdenken wie es jetzt ist. Derzeit müssen Daten die sowohl von diskreter GPU als auch CPU bearbeitet werden müssen auch über den PCIe komplett hin und her kopiert werden um dann immer in den jeweiligen dedizierten Speicher abgelegt werden.

Wird der hUMA auf eine diskrete GPU ausgeweitet entsteht der Vorteil wie hier beschrieben von Nai:

Nai schrieb:
Der Vorteil an diesen Pointern ist ein anderer, nämlich dass die GPU die selben virtuellen Pointer wie die CPU verwenden kann. So kann die GPU, wenn sie an einen solchen Pointer P gelangt, diejenigen Pointer, welche sich im vom P referenzierten Objekt befinden, weiter verfolgen. Würde die GPU keine Pointer "unterstützen" oder hätten ihre Pointer nicht den selben virtuellen Addressraum wie die CPU so könnte sie eben das nicht.
Dadurch wird deutlich weniger Daten über den PCIe verschoben und die Bandbreite steht für anderes zur Verfügung. Vor allem mobile Geräte mit weniger PCIe Lanes gewinnen hier. Der virtuelle Adressraum umfasst dann eben auch den diskreten GDDR5 RAM. Mann kann sich ja selber aussuchen was schnelleren Zugriff ergibt: Ausgelagerter Speicher auf der HDD oder im GDDR5 RAM der GPU? Das kann man ungefähr mit einer im DDR3 RAM abgelegten RAMdisk vergleichen von der Geschwindigkeit her. Das sind Faktoren gegenüber HDD.

Nai schrieb:
Sie können wahrscheinlich jeweils nicht auf den Cache des anderen zugreifen, sondern es gibt lediglich eine Cache-Kohärenz, ähnlich wie bei modernen Mehrkernprozessoren mit ihren privaten L1- und L2-Caches.
Auch hier sind Änderungen am kommen, zumindest für den L2 Cache.

Bei Steamroller noch per Modul:
http://www.extremetech.com/computin...-a-refined-piledriver-with-a-dynamic-l2-cache
AMD_Steamroller_CPU_Design-640x354.jpg

Bei Jaguar schon für alle Kerne:
http://www.heise.de/ct/meldung/Auf-der-Pirsch-AMDs-Jaguar-1847438.html
Überarbeitet hat AMD auch den L2-Cache: Statt wie bisher 512 KByte pro Kern gibt es jetzt 2 MByte Shared Cache.
jaguar_1.jpg-7aed77fe31dccb46.jpeg
 
Sehr gute Sache, bringt mit Sicherheit aber auch krasse neue Sicherheitslücken, so wie alle neuen Technologien.
 
GuaRdiaN schrieb:
Ferner ist die Übergabe des Kontextes durch einen Pointer eine hochgradige Erleichterung. (Im Rahmen der APU macht es gerade Sinn, weil die Daten dann definitiv im Maim Memory sind - wie das bei dGPUs aussieht, bleibt dann wohl abzuwarten.)

Es wäre interessant wäre zu wissen, wie Speicherbereiche vor dem Zugriff der GPU gesichert werden. Selbst wenn die GPU erst auf einen Speicherbereich zugreifen kann, wenn sie diesen von der CPU zugewiesen bekommt, muß ja nicht bedeuten, das es trotzdem nicht möglich ist auf den Kernelbereich zuzugreifen solange nicht noch ein Hardwaresupervisor existiert, der das verhindert. Ich kann nur hoffen, dass sie sich da nicht eine weitere Sicherheitslücke eingebaut haben, die z.B. durch ein überlaufendes Shaderprogramm auf den Kernelbereich schreibt.
 
Coole Sache!
Bei Photoshop zB merkt man selbst bei Standardaufgaben, ob eine vernünftige GPU oder ein Intel iGP arbeitet.
Dort sagen die Entwickler auch, dass man immer schauen muss, ob trotz der bisher nötigen Kopiervorgänge die Unterstützung durch die GPU immernoch schneller ist. Das bezieht sich dann meines Wissens auf die GPU-beschleunigten Filter.
 
_Huma_ schrieb:
Ich glaube AMD muss an mich was abdrücken - die haben meinen Namen geklaut :D

wirklich sehr geil :lol:

@ Topic

Hört sich doch gut an, man darf gespannt sein. Scheint als baut AMDs Begriff "HSA" also vorerst auf gemeinsame Speichernutzung. Ein Anfang. mal sehn wo der Weg hinführt.

@Urban51

echt? Ich stell kaum Unterschied zwischen meinem 990X mit HD6950@70 und meinem Ultrabook mit i5 und HD4000 fest - vorm Ram abgesehen. Was muss man in PS machen um mal "richtig" auf GPU zu arbeiten?
 
<orangensaft schrieb:
Der gemeinsame Speicher deutet drauf hin, aber sicher ist es noch nicht dass die PS4 hUMA nutzt?

Doch, die PS4 nutzt einen (h)UMA RAM. Das kleine 'h' vor dem UMA ist ja eigentlich nur ein Marketinggag seitens AMD.

Generell muss hier unterschieden werden zwischen Unified Memory Architecture (oder auch shared memory) und Uniform Memory Access (das worum es hier im Artikel geht), da beides blöderweise häufig mit UMA abgekürzt wird. Die PS4 besitzt beides. Die XBox360 zum Beispiel besitzt zwar eine Unified Memory Architecture, also einen einzigen Pool für CPU und GPU, aber sie besitzt keinen Uniform Memory Access wie die PS4.

Ein Unified/Shared Memory ist also nicht zwangsweise ein UMA RAM, jeder UMA RAM ist hingegen ein Unified/Shared Memory.

Laut Sony war der UMA RAM einer der Hauptwünsche der Entwickler für die Nex Gen, da es viele Dinge für die Entwickler unendlich viel einfacher macht und obendrein auch noch richtig viel Performance freisetzt.
 
Also das mit den hUMA hatte ich schon auf fudzilla gelesen, aber da waren nicht alle Details vorhanden.

das war bis jetzt der CPU vorbehalten. CPU und GPU können auf den kompletten „Virtual Memory Space“ zugreifen und diesen reservieren.

Ui wenn ich das höre, erinnere ich ich doch an eine Sache die AMD mal angekündigt hat.
Radeon SSDs ? Mit SSDs und schnellen Zugriffszeiten, würde die GPU ja auch profitieren :O

Die „gemeinsame Sicht“ ist dabei nicht nur auf den Speicher beschränkt, sondern gilt auch für den in CPU und GPU integrierten Cache, wobei beide Hardwarekomponenten auf den jeweilig anderen Cache zugreifen können
Tja, da bin ich ja gespannt, ob es nicht doch einmal APUs mit L3 Cache geben könnte.

Lange Rede, kurzer Sinn: hUMA soll es dem Programmierer leichter machen, die GPU miteinzubeziehen. Es wird keine spezielle API wie Direct Compute oder OpenCL benötigt, stattdessen können auf gewöhnliche Hochsprachen wie C++ oder ähnliche zurückgegriffen werden. Und der Nutzer soll dadurch profitieren, dass die Performance im Allgemeinen steigt und es eben vermehrt GPU-beschleunigte Software geben soll.

Hoffentlich, ist es jetzt einiger Maße deutlich, wie sehr AMD dahinter ist, den Programmierer es so einfach wie möglich zu machen.

Die Kaverie-APU inklusive Steamroller- und GCN-Architektur ist dabei das erste AMD-Produkt, dass hUMA unterstützt
Frage, sollte eigentlich ein Kabini nicht auch die Voraussetzungen liefern, ebenso hUMA zu unterstützen ?
Oder wurde da schon offzielles verneint.

@CB
Die Technologie wird sich dabei nicht nur auf AMD-Produkte beschränken, auch die anderen HSA-Mitgliedern können hUMA verwenden.
Dann lohnt sich auch diese Story zu erzählen:
http://www.fudzilla.com/home/item/31217-amd-announces-2013-developer-summit
Judging by the APU13 agenda, we'll see some updates from the HSA Foundation members that have been working on a standards-based heterogeneous compute (HC) ecosystem as well as the first AMD Ventures Innovation Summit that will shed some light on software and application development companies that utilize and expand uses for AMD solutions.

Founders :
AMD, ARM, Imagination, MediaTek, Qualcomm, Samsung, Texas Instrument.

Um es nur mal zu erwähnen, Samsung ist Marktführer bei Handys und Tablets, Qualcom ist ebenos kein kleiner Fisch bei mobilen Devices, und MediaTek ist n großer Chinese.

Promoters
LG

Supporteres
Arteris, codeplay, FabricEngine, Multicore MV Ware

Contributors
apical, CEVA, DMP, Sonics, Sony, ST Ericsson, Swarm64, symbio, tensillica Vivante.

Und noch einige Universitäten.
http://hsafoundation.com/

Jetzt fehlt noch Apple, und NV darf sich mit seinem "erfolgreichen" Tegra hinzugesellen. Ich kann mir sehr gut Vorstellen, sobald, sich HSA mal im mobilen Markt durchsetzt, wird Intel dazustoßen, auch wenn man es offiziell unter einen anderen Namen nennen wird ^^

das_mav schrieb:
Danke für den Beitrag - wollte schon fragen ob dieses Feature in der Ps4 verwendet wird.
http://www.xbitlabs.com/news/multim...ecture_Details_It_Is_All_About_the_Speed.html
Hier kannst du einiges nachlesen, was die PS4 sogar "mehr" als Kaveri beherrschen soll.

HaZu schrieb:
Wenn ich mir die news so durch lese Frage ich mich irgendwie warum da vorher noch keiner drauf gekommen ist ;)
Also das mit den früher draufkommen kann ich nicht nachvollziehen. Es hat nun mal eher "solange" gedauert. Begonnen hat doch die Forschung mit Ankauf von ATI. Vorhin wollte man NV.
Man soll sich mal bewusst machen, wie lange man an GCN gearbeitet hat. Da gab es bereits schon Einflüsse, dass GCN für APUs integrierbar sein sollen und die Features mitnehmen die hUMA erlauben.

<orangensaft
The graphics processor can write directly to system memory, bypassing its own L1 and L2 caches, which greatly simplifies data sync between graphics processor and central processor. Mr. Cerny claims that a special bus with around 20GB/s bandwidth is used for such direct reads and writes.

To support the case where developer wants to use the GPU L2 cache simultaneously for both graphics processing and asynchronous compute, Sony has added a “volatile” bit in the tags of the cache lines. Developers can then selectively mark all accesses by compute as “volatile”, and when it is time for compute to read from system memory, it can invalidate, selectively, the lines it uses in the L2. When it comes time to write back the results, it can write back selectively the lines that it uses. This innovation allows compute to use the GPU L2 cache and perform the required operations without significantly impacting the graphics operations going on at the same time. In general, the technique radically reduces the overhead of running compute and graphics together on the GPU.

The original AMD GCN architecture allows one source of graphics commands, and two sources of compute commands. For PS4, Sony worked with AMD to increase the limit to 64 sources of compute commands. If a game developer has some asynchronous compute you want to perform, he should put commands in one of these 64 queues, and then there are multiple levels of arbitration in the hardware to determine what runs, how it runs, and when it runs, alongside the graphics that's in the system. Sony believes that not only games, but also various middleware will use GPU computing, which is why requests from different software clients need to be properly blended and then properly prioritized.

Battlefield 3 daher kommt, welches keines dieser Techniken nutzt, dann muss die APU das über die rohe Leistung stemmen und dafür reichts eben noch nicht.
Wenn es auf Rohleistung ankommt, klingt es bis jetzt eher dannach, dass Kaveri ein 3 Moduler mit 6 threads, einer 7750 IGP und mit einem Speicherkontroller daherkommt der auch GDDR5 unterstützt.

Das Problem ist, dass AMD endlich mal Dinge im hier und jetzt in großer Stückzahl auf den Markt bringen muss, die dann in Benchmarks auch wirklich die entsprechenden Vorteile zeigen und das mindestens im ordentlichen zweistelligen Prozentbereich
Sry, aber ich bin skeptisch, dass "Benchmarks" tatsächlich etwas ändert. Da bringen andere Faktoren, wie eben Werbung mehr.
Bsp Samsung, der dann diese Technik wirbt und indirekt so AMD Werbung macht.
 
Zuletzt bearbeitet:
nanoworks schrieb:
Doch, die PS4 nutzt einen (h)UMA RAM. Das kleine 'h' vor dem UMA ist ja eigentlich nur ein Marketinggag seitens AMD.

Generell muss hier unterschieden werden zwischen Unified Memory Architecture (oder auch shared memory) und Uniform Memory Access (das worum es hier im Artikel geht), da beides blöderweise häufig mit UMA abgekürzt wird. Die PS4 besitzt beides. Die XBox360 zum Beispiel besitzt zwar eine Unified Memory Architecture, also einen einzigen Pool für CPU und GPU, aber sie besitzt keinen Uniform Memory Access wie die PS4.

Ein Unified/Shared Memory ist also nicht zwangsweise ein UMA RAM, jeder UMA RAM ist hingegen ein Unified/Shared Memory.

Nimm einfach ein "h" vor das UMA und die Unterscheidung ist einfach ;)
Wird wohl doch mehr als nur ein Marketing-Gag sein...lol
Ergänzung ()

Krautmaster schrieb:
echt? Ich stell kaum Unterschied zwischen meinem 990X mit HD6950@70 und meinem Ultrabook mit i5 und HD4000 fest - vorm Ram abgesehen. Was muss man in PS machen um mal "richtig" auf GPU zu arbeiten?
lol...könnte man das als Fehlkauf interpretieren wenn eine Ultarbook CPU die selbe Leistung bringt wie das grosse System?
Laut Benchmarks dürfte dies ja nicht so sein,oder? ;)
 
Zurück
Oben