News Next-Gen-APIs: AMD will neben der CPU auch die GPU besser auslasten

Interessant wird das, weil es durch DX12 unterstützt wird.

Allerdings wissen wir von früheren DX Versionen auch, das DX12 seine Zeit brauchen wird.
So könnte man jetzt argumentieren, dass es erst in 1-2 Jahren wichtig wird.
Da bei mir die Garfikkarten aber innerhalb der Familie umziehen, sollte man es schon heute beim Kauf berücksichtigen.

Fiji wird für mich mit jedem Tag spannender.
Freue mich darauf wie seit langem nicht mehr.
 
iSight2TheBlind schrieb:
Wobei die Xbox 1 damals ja auch nichts anderes als ein kleiner Computer mit Pentium 3 und Geforce 3 war^^ Und ich glaube das OS basierte teilweise auf Windows 2000. Aber das war natürlich auch noch eine andere Zeit und es gab gar keine Notwendigkeit irgendetwas von der Konsole zurück auf den PC zu bringen.

Stimmt.
Das waren Zeiten, da war die neue GPU mal eben doppelt so schnell wie die Vorgerängerversion und es gab alle 6-12 Monate eine neue Generation. Da ist es natürlich längst nicht so verlockend, z.B. 10-20% Mehrleistung durch eine Grundüberholung der 3D-API rauszuholen.
Die relativ langsame Leistungssteigerung bei der GPU-Hardware in den letzten Jahren hat sicher dazu beigetragen, dass man sich überhaupt mit den APIs beschäftigt.
 
yui schrieb:
AMD will auch Konkurrenz zu Intel sein.
Bisher nur heiße Luft.
AMD war Konkurrenz für Intel und ist es in manchen Bereichen noch immer.
Aber dann wendete Intel für ein Jahrzehnt illegale Methoden an um AMD aus dem Markt zu drängen. Das dann Defizite entstehen, sowohl finanziell und daraus resultierend auch technologisch ist also kaum verwunderlich. Ursache und Wirkung.
 
amd ist der einzige betrieb bei dem sich was bewegt.

nvidia und intel, klauen nur tecchnologie / wissen und sperren es für alle anderen

achja und die software hersteller spielen da auch noch mit
 
PiPaPa schrieb:
AMD war Konkurrenz für Intel und ist es in manchen Bereichen noch immer.
Aber dann wendete Intel für ein Jahrzehnt illegale Methoden an um AMD aus dem Markt zu drängen. Das dann Defizite entstehen, sowohl finanziell und daraus resultierend auch technologisch ist also kaum verwunderlich. Ursache und Wirkung.

Und eklatante Fehlentscheidungen AMDs ebenfalls... es ist immer einfach einem die Schuld zuzuschieben.
 
Igoo schrieb:
Und eklatante Fehlentscheidungen AMDs ebenfalls... es ist immer einfach einem die Schuld zuzuschieben.

niemand schiebt die schuld zu.

in diesen konzern sitzen menschen die nur ihr produkt allen menschen aufzwingen wollen, weil sie keine konkurenz dulden wollen.

bei intel z.b. sollen die doch mal damit aufhören, die menschen werden selbst entscheiden was sie wollen.

was denkt ihr warum die cpu von amd bei windof und anderen programmen langsam ist.
weil mit absicht die leistungsperre in der software inclusive ist...
 
Mit dem Unterschied, dass ein Schuldiger gefunden wurde, bei dem anderen Spekuliert man auf Schuld, weil die Wirtschaftlichen Auswirkungen nach über einem Jahrzehnt nicht in dem Maße begreiflich ist, da es Dimensionen annimmt, wo man sich näher mit beschäftigen muss. Daher ist das Spekulieren einfacher ;-)
Dazu sagen braucht man im Grunde nichts. Entweder man malt Gesichter an oder zeigt die Mittelkralle.
 
AMD labert viel wenn der tag lange ist, die Sachen müssen sich auch mal durchsetzten und breite Verwendung finden.
Wie so oft hört sich das für mich wieder nach heiße Luft an.
 
Tut es ja. Es genügt die DX12 API....
Bei DX12 müssen sich die Entwickler auf die dortigen Vorgaben halten und demnach auch, was mit den ACEs gemacht wird, was bei den Konsolen ja schon gemacht wird, auch dort ist GCN ( alle GCN haben die ACE ) und die Erfahrung die mit den Konsolen bereits gemacht wurde, fließt dann auch in DX12 mit ein...
 
Zuletzt bearbeitet:
skillz schrieb:
Bitte wartet erstmal ab bis DX12 rauskommt, ob das wirklich so kommt wie die sagen. Die sagen und versprechen immer viel, aber dann hapert es meistens gewaltig an deren Umsetzung...
Wieso warten? Mantle und DX12 sind auf Augenhöhe und Spiele mit Mantle zeigen das es (zum Teil deutlich) was bringt. Wenn jetzt noch die GPU Auslast im Limit effizienter wird, kann ich meinen Rechner noch länger nutzen ohne aufzurüsten. Vorrausgestzt die neuen Spiele nutzen eine der neuen APIs und ich schaff mir keinen UHD/4k Monitor an ^^
 
Zuletzt bearbeitet von einem Moderator:
Igoo schrieb:
Und eklatante Fehlentscheidungen AMDs ebenfalls... es ist immer einfach einem die Schuld zuzuschieben.
Die da wären? ATi zu kaufen? Ja, für den Preis vielleicht, aber das ist jetzt ein rettendes Standbein.
Die Fertigung zu verkaufen? Die Immobilien zu veräußern?
War eine absolute Notwendigkeit um sich gesund zu schrumpfen.

Marketing? Bedingt, wenn man nur ein sehr knappes Budget hat.

Fakt ist das 10 Jahre Marktmanipulation seitens Intel mit den größten Schaden verursacht hat und dadurch auch Fehlentscheidungen seitens AMD folgenschwerer waren.

Oder wie schwer soll man so etwas gewichten, das ein Konkurrent 10 Jahre in der IT Welt (und so schnell lebig wie die IT Welt ist, sind 10 Jahre eine Katastrophe) den anderen aus den gewinnträchtigsten Märkten raushält?

Dazu hat Intel ein gigantisches Forschungsbudget, 3 Entwicklerteams allein nur für den CPU Bereich. AMD hat nicht mal ein Bruchteil dessen, aber oft genug haben sie kreative Lösungen und Ansätze.

Und auch wenn du es vielleicht nicht hören willst. Intel hat vorallendingen uns Konsumenten damit geschadet.
 
Herdware schrieb:
PS4 und XBox One müssten eigentlich auch jetzt schon und von Anfang an davon profitieren, da die beiden Konsolen ja schon immer eine hardwarenahe (und sicher auch auf Multithreading optimierte) API haben.

Klar sie haben eine Hardware nahe API, aber dennoch heißt es nicht, dass das potential von asyncronem computing voll genutzt wird. andere Baustellen bei der Optimierung vlt. erst mal vorrang haben. die PS4 ist auch HSA-fähig, aber ich bin mir sicher, dass noch kein game davon einen nutzen gezogen hat.

außerdem habe ich mich darauf bezogen, dass die PS4 eben 8 dieser ACEs besitzt und die Xbone nur 2 und die schon wesentlich stärkere GPU der PS4 in zukunft noch besser ausgelastet werden kann. beide Konsolen bieten noch viel optimierungspotential und unbekannte mittel und wege die Leistung zu steigern.
 
Einfach abwarten, schlimm finde ich aber das sich deswegen hier wieder schon welche aufregen, hindert ja keinen daran das nVidia nachzieht? Optimierusngsbedarf hatte AMD, wie wir hier erst kürzlich gesehen, sowieso.

Wird langsam Zeit das ich AMD Aktien ins Portfolio packe, denke AMD ist auf einem guten Weg :)
 
Alienate.Me schrieb:
noch viel optimierungspotential und unbekannte mittel und wege die Leistung zu steigern.


Japp. Was mit DX12 - im Zusammenhang mit den Konsolen - auf dem PC das selbe bedeutet. Die Erfahrung mit der GCN auf den Konsolen, wird sich auf den Desktop übertragen wo ebenfalls GCN drin steckt ( AMD-GPU vorausgesetzt ) Hinzu kommt auch, die Engine die entsprechendes bereits beherrscht. Die Auswirkungen durch GCN bei den Konsolen und Desktop bei AMD-GPUs kommt mit erscheinen von DX12 erst so langsam in Fahrt.

Und 2017 kommen bereits die ersten HP-APUs ... heavy 2016-2017 wird echt spannend.
 
Zuletzt bearbeitet:
Scheint sich ja einiges zu tun bezüglich Treiber. Ich schätze da warte ich noch einmal ab mit einem Grafikkartenkauf und bleibe bei meiner GTX 660. Zu mindest bis die neuen ATI Grafikkarten und die ersten DX12 Spiele erschienen sind und dann wäge ich mal ab, ob und zu was ich greife.
 
Ja musst du, es ist aber die Vorgabe von DX12. Drum herum kommst du nicht. Wird bei den Konsolen ja auch gemacht, da steckt auch GCN drin.

Bei DX11 hast du diese Vorgabe nicht. Da ist der Entwickler durch DX11 schon arg eingegrenzt, was er tun kann, selbst wenn er es wollte, DX11 ist für asynchronous shading völlig ungeeignet.

Deswegen wird sich die Erfahrung der Entwickler bei den Konsolen, auch auf den AMD-GPUs niederschlagen. Ist ja GCN.
 
Zuletzt bearbeitet:
AMD muss zusehen, dass die neuen Karten bald lieferbar sind. Da werden die neuen Optimierungen wohl erst später kommen, als kostenloses, nachträgliches Upgrade sozusagen.
 
Herdware schrieb:
PS4 und XBox One müssten eigentlich auch jetzt schon und von Anfang an davon profitieren, da die beiden Konsolen ja schon immer eine hardwarenahe (und sicher auch auf Multithreading optimierte) API haben. Diese Konsolen-APIs (vornehmlich wahrscheinlich die der XBox One, da auch windowsbasiert) waren ziemlich sicher auch das Vorbild für Mantle und jetzt DX12 auf dem PC.

Bei den Konsolen würde ich also keine größeren Performance-Sprünge erwarten. Wenn es die gäbe, dann hieße dass, dass Sony, Microsoft und AMD bei der Entwicklung der Konsolen ihren Job nicht richtig gemacht haben.

Die PS4 hat 8 ACEs und die ONE nur 2.
ACEs werden noch so gut wie garnicht genutzt, wie man wieder seit der GDC weiß, und man kann locker nochmal 18% mehrleistung rausholen aus der PS4 tendenz nach oben,wie die TTC presentation auf der GDC gezeigt hat.
Die entwickler haben jedem der mit der PS4 arbeiten geraten die ACEs endlich richtig zu nutzen.
 
Zurück
Oben