News Next-Gen-APIs: AMD will neben der CPU auch die GPU besser auslasten

Die Ankündigung klingt gut, allerdings sollten auf die großen Worte dann auch Taten folgen ;)

Problematisch für die finanzielle Situation von AMD ist das mMn aber auch: Wer hat denn Lust, sich eine neue GPU zu kaufen, wenn er dank eines Treiberupdates kostenlos bei seiner "alten" GPU schon 20-30 % (geschätzt, falls das wirklich so viel bringt) mehr Leistung bekommt?
Gerade im Hinblick auf die neuen R9 300, die demnächst irgendwann auf den Markt kommen werden, könnte eine solche Leistungssteigerung der "alten" Generationen, die sich schon in den PCs der Kunden befindet, die Nachfrage drücken.
 
Da bin ich ja mal gespannt. Sollte das wirklich ein AMD exklusiver Vorteil sein, befürchte ich, werden wir davon wieder mal nichts sehen.

Wie viele DX10.1 Spiele gabs? (bei Assassins Creed wurde es wieder rausgepatcht)
Wie viele Mantle Spiele gabs?
Wie viele DX12.1 Spiele wirds geben (ich vermute jetzt einfach mal, dass es ein DX12.1 feature ist, so wie die meisten DX12 Hardware Features, tut aber eh nichts zur Sache)
 
Zuletzt bearbeitet von einem Moderator:
Ich sage es die ganze Zeit: An der Programmierung hapert es.
Wird Zeit, dass man sich da hinsetzt und etwas tut!
 
Es ist schön zu sehen das irgendjemand neue Konzepte zur Leistungs- und Effizienzsteigerung erarbeitet.
Aber ist das hier nicht das gleiche was Intel seit Jahren im CPU-Bereich als Hyper Threading verkauft?
 
Also ich muss AMD zugestehen, dass sie auf jeden Fall (endlich) an ihrem Marketing gearbeitet haben! Aber das ist auch schon alles, momentan ist es halt noch heiße Luft, da müssen erstmal reale Tests her.

Und ich verstehe gar nicht, warum da jetzt auf Nvidia oder Intel rumgehackt werden sollte. Warum soll Intel denn so etwas bringen? Um von 67% GPU-Marktanteil auf 68% zu kommen? Denn kaum einer mit einer Intel iGPU hat auch den Bedarf zu mehr Leistung. Ich denke nicht, dass die Investition sich rentieren würde.
Und Nvidia? Es gibt doch noch keinerlei Informationen, in wie weit Nvidia das auch unterstützen wird in kommenden Grafikkarten, oder vielleicht schon bei den jetzigen. Vielleicht bringt es ja auch kaum einen Vorteil, und deswegen halten die sich da zurück...

Zumal ich es seltsam finde, dass seit der HD7000er Serie alle Karten so massiv beschleunigt werden sollen. Dann kauft ja kein AMD-Kunde mehr eine neue Karte, oder zumindest seltener.

@Korialstrasz:
Im Grunde gibt es immer wieder solche Innovationen, man erinnert sich nur selten daran, weil die Mehrzahl halt scheitert. Aber die Präsentationen vorher lesen sich jedes mal wie eine Offenbarung :p
 
Zuletzt bearbeitet:
@Krautmaster

sorry, hab micht vertan. PS4 und Volcanic Islands haben jeweils 8 ACE die jeweils 8 compute queues ausführen können. hatte im kopf, dass die ps4 64 ACEs hat. schiebwn wir das mal auf "zu früh am morgen" ^^

link muss ich nachreichen oder googel es, schreib grad vom smartphone und hab kein plan, wie ich links hier setze :freak:
 
Marc Bühl schrieb:
Wer hat denn Lust, sich eine neue GPU zu kaufen, wenn er dank eines Treiberupdates kostenlos bei seiner "alten" GPU schon 20-30 %

Naja, es gibt ja auch 4k - da hat man dann endlich die Leistung, welche in CB immer verlangt wird!!!
 
Shririnovski schrieb:
Find ich Klasse, AMD is eben eine sehr innovative Firma.

Aber gleich hier einen Bash in Richtung der Anderen raus zu hauen sehe ich nicht als gerechtfertigt. Vielleicht gegen Intel, die scheinen sich ja nun schon eine Weile im CPU Bereich auszuruhen, dank mangelnder Konkurrenz. Aber im GPU Geschäft? Klar AMD hat Mantle gebracht und damit DX12 forciert, aber NVidia forciert mit GSync, dass sich in dem Bereich etwas tut, was man an AMDs Reaktion in Form von FreeSync sieht. Ist aber immer auch ein Frage der Vermarktung.

Und das eigentliche Thema, bessere Auslastung der Hardware API-seitig, gute Sache, da kann man nur hoffen dass das schnellst möglich auch umgesetzt und praxisrelevant wird.


Toll du zitierst hier einen Proparitären Standard der nur von wenigen (teueren) TFT's unterstützt wird und vergleichst das mit dem offenen Standard Freesync >> sorry das Argument passt nicht und defakto ruht sich Nvidia auf ihren Lorbeeren aus. Das sieht man doch eindrucksvoll an der Titan X bzw. an der Maxwell Architektur die im Bereich DP garnix zubieten hat, wie man sieht kaufen es die Leute trotzdem mangels "neuer" Grakas von AMD.

Intel Grakas sind hauptsächlich fürs Arbeiten gedacht eher weniger fürs spielen, die Treiber von Intel sind ab und an nicht das gelbe vom ei kann aber sagen für Office, Videos etc ist die Integrierte Intel Graka vollkommen ausreichend.
 
Zuletzt bearbeitet:
Alienate.Me schrieb:
Bin gespannt wie die PS4 davon profitiert, die besitzt ja die 8fache menge an ACEs im vergleich zu derzeitigen GCN-GPUs und XBone.

PS4 und XBox One müssten eigentlich auch jetzt schon und von Anfang an davon profitieren, da die beiden Konsolen ja schon immer eine hardwarenahe (und sicher auch auf Multithreading optimierte) API haben. Diese Konsolen-APIs (vornehmlich wahrscheinlich die der XBox One, da auch windowsbasiert) waren ziemlich sicher auch das Vorbild für Mantle und jetzt DX12 auf dem PC.

Bei den Konsolen würde ich also keine größeren Performance-Sprünge erwarten. Wenn es die gäbe, dann hieße dass, dass Sony, Microsoft und AMD bei der Entwicklung der Konsolen ihren Job nicht richtig gemacht haben.
 
Wie viele DX12.1 Spiele wirds geben (ich vermute jetzt einfach mal, dass es ein DX12.1 feature ist, so wie die meisten DX12 Hardware Features, tut aber eh nichts zur Sache)

Steht doch im Text, es ist ein Feature der API (Mantle, Vulcan, DX12), die die bessere Parallelisierung ermöglicht. Die AMD Karten der GCN könnten das schon lange nutzen, wenn es die Software hergeben würde. Aber das wird jetzt erst mit DX12 möglich. Wird daher kein 12.1 oder sonst was Feature werden, alle GCN Karten werden das unterstützen können.

Find ich sehr cool. Interessant vor allem, das AMD bereits vor Jahren sowas im Chip Design berücksichtigt hat, wohl wissend, das es noch nicht voll genutzt werden kann. Die Jungs denken schon weiter bei Ihren Entwicklungen, scheint nicht nur der schnelle Euro im Fokus zu stehen.

Wenn die das jetzt hoffentlich auch bis zum Start von Windoof 10 alles auf die Straße bringen, werd ich dieses Jahr wohl noch ne neue Karte aus dem roten Lager in die Kiste tackern müssen. Bin gespannt auf die neue 3XX Reihe, macht mal hin jetzt.
 
Benji18 schrieb:
Toll du zitierst hier einen Proparitären Standard der nur von wenigen (teueren) TFT's unterstützt wird und vergleichst das mit dem offenen Standard Freesync >> sorry das Argument passt nicht und defakto ruht sich Nvidia auf ihren Lorbeeren aus. Das sieht man doch eindrucksvoll an der Titan X bzw. an der Maxwell Architektur die im Bereich DP garnix zubieten hat, wie man sieht kaufen es die Leute trotzdem mangels "neuer" Grakas von AMD.
Shirinovski wollte die zwei Techniken nicht vergleichen, es ging dabei um die Einführung von etwas Neuem, also Innovation. Und da war Nvidia mit Gsync halt vorne, Intel mit HyperThreading, AMD mit TressFX etc.
Proprietär oder OpenSource spielt dabei erstmal keine Rolle...

Und welchen Gamer interessiert es denn bitte, wie viel eine Grafikkarte im Bereich DP zu bieten hat? Was soll denn immer dieses DP Argument? Nur ein absolutes Minimum an Gamern nutzt Software, die das kann, warum also sollte man dann da Geld hinein stecken?
 
Necareor schrieb:
Shirinovski wollte die zwei Techniken nicht vergleichen, es ging dabei um die Einführung von etwas Neuem, also Innovation. Und da war Nvidia mit Gsync halt vorne, Intel mit HyperThreading, AMD mit TressFX etc.
Proprietär oder OpenSource spielt dabei erstmal keine Rolle...

Und welchen Gamer interessiert es denn bitte, wie viel eine Grafikkarte im Bereich DP zu bieten hat? Was soll denn immer dieses DP Argument? Nur ein absolutes Minimum an Gamern nutzt Software, die das kann, warum also sollte man dann da Geld hinein stecken?

naja es gab damals aber bereits den freesync Standard also keine inovation, meines wissens nach wird für CUDA und teilweise für Physx DP benötigt daher das ganze etwas witzlos ...

und man muss auch sagen das opensource Features weit sinnvoller sind als immer dieses closed, was daraus wird sieht man doch auch an Gsync ...
 
Im Gegensatz zu Mantle sehe ich bei so einer Idee keinen großen Wurf. Woher soll den der Treiber der Grafikkarte weisen was parallelisierbar ist und was nicht. Wenn der Treiber zwingend einen Prozess auseinander zieht der zusammen gehört bricht die Leistung drastisch ein. Die Entscheidung was wie parallel zu berechnen ist muss vom spiel/Programm kommen und nicht vom gpu Treiber. Hier halte ich AMD s weg für den falschen Weg.
 
Benji18 schrieb:
naja es gab damals aber bereits den freesync Standard also keine inovation, meines wissens nach wird für CUDA und teilweise für Physx DP benötigt daher das ganze etwas witzlos ...

und man muss auch sagen das opensource Features weit sinnvoller sind als immer dieses closed, was daraus wird sieht man doch auch an Gsync ...

Aha, den FreeSync-Standard gab es also schon Ende 2012/Anfang 2013, als G-Sync angekündigt wurde? Damit hat es ja FreeSync schon vor AdaptiveSync gegeben, das seit Mai 2014 Teil der Version 1.2a des DisplayPort-Standards ist.

Ich glaube nicht...

Und OpenSource ist definitiv nicht immer weit sinnvoller als Closed, Vor- und Nachteile gibt es auf beiden Seiten. Zumal auch nicht jede Firma immer alles preisgeben möchte, man will ja schließlich auch etwas verdienen.
 
Es ist echt lustig was für "Überraschungen" in meiner HD7950 stecken. Hoffen wir mal, dass das auch in der Praxis unter den neuen APIs paar Prozentchen bringt.
Ich war jedefalls noch nie so zufrieden mit einer Grafikkarte :-)
 
@Benji18

Freesync ist kein Standard und auch nichts offenes. Das ist propritäre, geheime AMD-Technik, die auch mit niemand anderem geteilt wird. (Was auch nicht sinnvoll wäre, da FreeSync auf AMDs GCN-Architektur und Treiber zugeschnitten ist.)
Das free in FreeSync steht nicht für freie Technik, sondern für freie, also dynamische statt fest eingestellter Refresh-Raten.

Was du meinst ist Adaptive-Sync, das inzwischen tatsächlich ein Teil des DP-Standards ist, den VESA-Mitglieder lizenzfrei nutzen können. Aber Adative-Sync allein (ohne FreeSync) bringt einem noch nichts mit G-Sync vergleichbares.
Außerdem war G-Sync definitiv zuerst am Markt. Lange bevor Adaptive-Sync überhaupt in den DP-Standard aufgenommen wurde, so dass es gar keine Möglichkeit gegeben hätte, dass Nvidia das für G-Sync nutzt.

Und man kann auch schlecht sagen, dass Nvidia sich ausruht, weil Maxwell weniger DP-Einheiten hat. Nvidia hat die ja gegenüber Kepler aktiv rausgeschmissen. ;)
Die haben erhebliche Arbeit da rein gesteckt, als sie die Entscheidung getroffen haben, dass es sinnvoll ist, DP-Leistung (die meist sowieso nicht genutzt wird) für mehr allgemeine Grafikleistung zu opfern. Da es bei Maxwell keine kleinere Fertigungstechnologie gegeben hat, musste man solche Kompromisse machen.

Aber das alles ist doch ziemlich off topic.

Dass AMD derzeit bei diesen API-Optimierungen vorne weg geht, liegt vor allem daran, dass die GPUs in den aktuellen Spielkonsolen von AMD sind. Und für die mussten schon vor längerer Zeit hardwarenahe und für Multithreading optimierte 3D-APIs entwickelt werden. Dieses erarbeitete Know How überträgt AMD jetzt auf die PC-Welt.

Wer weiß, wie es laufen würde, wenn sich Nvidia damals den Konsolendeal gesichert hätte. Vielleicht hätten sie es nicht so aktiv vorangetrieben, diese API-Optimierungen auch auf den PC zu bringen, weil sie dort derzeit sowieso schon eine solide Markt-Position haben und nicht so getrieben sind wie AMD. Aber wir können da wirklich nur spekulieren.
 
Zuletzt bearbeitet:
Im Gegensatz zu Mantle sehe ich bei so einer Idee keinen großen Wurf. Woher soll den der Treiber der Grafikkarte weisen was parallelisierbar ist und was nicht. Wenn der Treiber zwingend einen Prozess auseinander zieht der zusammen gehört bricht die Leistung drastisch ein.

Na ja, danach klingt das auch nicht im Text.
Ich zitiere mal:

AMDs GPUs auf Basis der Graphics-Core-Next-Architektur (GCN) sollen den Anforderungen der neuen APIs durch Einbeziehung der Asynchronous Compute Engines (ACE) Herr werden. Jede einzelne ACE kann dabei acht unabhängige Kommandoströme erstellen, die unabhängig voneinander in der Berechnungspipeline eingespeist werden, wann immer Ressourcen frei sind. AMD bedient sich dem Beispiel einer Straße, bei der der auffahrende Verkehr die vorhandenen Lücken auffüllt und so die Auslastung der Autobahn maximiert.

Die ACEs können unabhängige Kommandoströme flexible in die Berechnung reinschubsen, wann immer dafür Rechenzeit zur Verfügung steht und müssen daher nicht warten bis die erste Kolonne durch ist, um am Beispiel der Autobahn zu bleiben: Die ACEs zerlegen den großen, langsamen LKW in mehrere kleine flexible Einheiten, Sobald ne Lücke in der Spur ist darf die dann losfahren und muss nicht warten bis die Große Lücke für den ganzen LKW frei ist.
 
Seltsam wie man auf einmal die Leute zu Windows 10 drängen will,
DX12 hier, kostenlos dort, Aber über TPM 2.0 und co. wird seltsamerweise nur all zu ungern was geschrieben:lol:
 
Klingt alles ganz nett... aber interessant ist vor allem, was dabei rum kommt.
Wäre schön, wenn AMD mal wieder an nVidia vorbei ziehen könnte.
 
Kostenlos ist es eh nur wegen der NSA und (illegalem?) Datenhandel.
Wozu sonst sollte eine wirtschaftlich orientierte Firma bei 90%+ Verbreitung das OS verschenken...

Und was AMD angeht, die wissen nicht wie man seine Leistungen schützt.
Mit DX13 wird AMDs Arbeit dann von MS übernommen.

Wobei man sich fragen muss was MS all die Jahre getrieben hat wo man doch so schnell DX12 basteln konnte...wahrscheinlich nichts.
 
Zurück
Oben