News Next-Gen-APIs: AMD will neben der CPU auch die GPU besser auslasten

Das meinte ich doch ;) Danke für die Korrektur.
 
Die Leute die seit Jahren behaupten, GCN sei im Gegenteil zu Kepler/Maxwell eine zukunftsorientierte Architektur, scheinen also tatsächlich Recht zu haben. Da wird die Entscheidung von Sony, Microsoft und nun auch Nintendo auf GCN zu setzen, noch nachvollziehbarer.
Während Nvidia mit jeder neuen GPU Generation ene neue Architektur einführt, finden bei AMD seit Tahiti nur Detailoptimierungen statt.

Ich bin kein Informatiker und habe wie die meisten hier praktisch keine Ahnung von GPU Architekturen, aber was man im Internet so liest ist echt interessant. Angeblich werden Nvidias aktuelle und ältere GPUs 2016, wenn es erste echte DX12 optimierte Engines gibt, stark einbrechen, weil ihre Architekturen extrem auf ältere Engines optimiert sind. Das hat für Nvidia unter anderem den Vorteil, dass ihre GPUs schneller altern und die Kundschaft zum Kauf einer neuen animiert wird.
AMD könne sich keine ständigen Architekturwechsel leisten und so habe man sich angeblich 2010 zum Ziel gesetzt, eine zukunftsfähige, möglichst vielseitige Architektur zu entwerfen...

So ganz unplausibel klingt es für mich nicht, wenn ich sehe, dass eine 780Ti - früher immer vor einer 290X - mittleriweile eher langsamer als schneller ist (außer in Gameworks natürlich ;)) Und DX12 ist ja noch nicht einmal da.
 
Und wenn man dann noch betrachtet, dass die DX12 API von Fermi unterstützt wird und Maxwell nur eine weitere Iteration der Grundarchitektur ist - macht das nVidia ja noch zukunftstauglicher als AMD. :lol:

Weniger Propaganda und mehr Wissen.
 
Das hier ist wieder so ein Thema über das man am besten redet wenn DX 12 wirklich "offiziell" da ist und man auch die benötigen Treiber sowie Games dafür hat.

Erst dann wird man sehen welche Karte besser / schneller / Stärker ist. Vorher leider nicht. Aus Marketingtechnischer Sicht sicherlich ein guter Schachzug von AMD, es gibt wohl wirklich eine Marketingabteilung dort. Bei mir geht aktuell nichtmal DSR auf Windows 10 Build 10041, ich muss alles in Full HD spielen. Und andere dinge wie Afterburner und co funktionieren ebenfalls nicht richtig.

Ich warte lieber bis das alles fest auf dem markt ist und auch die passenden Treiber da sind, dann kann man den Kampf erneut starten.
 
zeedy schrieb:
Die Leute die seit Jahren behaupten, GCN sei im Gegenteil zu Kepler/Maxwell eine zukunftsorientierte Architektur, scheinen also tatsächlich Recht zu haben. Da wird die Entscheidung von Sony, Microsoft und nun auch Nintendo auf GCN zu setzen, noch nachvollziehbarer.

Ist es nicht andersrum, dass Sony die Architektur von AMD beeinflusst hat? Link. Egal wer hier wen beeinflusst hat: es hat Zukunft!


zeedy schrieb:
Ich bin kein Informatiker und habe wie die meisten hier praktisch keine Ahnung von GPU Architekturen, aber was man im Internet so liest ist echt interessant. Angeblich werden Nvidias aktuelle und ältere GPUs 2016, wenn es erste echte DX12 optimierte Engines gibt, stark einbrechen

Link dazu?

zeedy schrieb:
außer in Gameworks natürlich ;)

Das ist ein Gerücht. Viele GW-Effekte performen auf AMD-Hardware quasi gleichschnell. Da war vor kurzem in der PCGH ein Bericht darüber drin.
 
Faust2011 schrieb:
Das ist ein Gerücht. Viele GW-Effekte performen auf AMD-Hardware quasi gleichschnell. Da war vor kurzem in der PCGH ein Bericht darüber drin.
Ich weiß nicht von welchen GW Titeln (außer Evolve) du sprichst.

http://www.forbes.com/sites/jasonev...d-potentially-the-entire-pc-gaming-ecosystem/
http://www.forbes.com/sites/jasonev...ut-gameworks-amd-optimization-and-watch-dogs/
http://www.extremetech.com/gaming/1...elopers-weigh-in-on-the-gameworks-controversy
http://gamingbolt.com/amd-nvidia-ga...ty-of-the-developers-gamers-who-run-amd-cards

mfg,
Max
 
McMOK schrieb:
Kann man irgendwo AMD für den INNOVATIONSPREIS-IT vorschlagen? Die haben das mehr als verdient.
Warum kommen solche Ideen nicht auch von Nvida/Microsoft?

Aber so war es doch schon immer seit AMD das 64 Bit in den Endconsumer Markt gebracht hat. AMD entwickelt mit ihren riesen Schuldenberg etwas Neues, andere ziehen nach, machen es besser und kassieren ;)
 
Irgendwie seltsam das dieses Rot/Grün beefen wieder abgeht.
Ich freu mich das es möglich ist wieder was neues von AMD in einen offnen allgemeinen Standard einfliessen kann.
Wobei mir bei Nvidia im Moment nix einfällt was Sie frei gegeben haben für die Allgemeinheit.

Im Grunde fehlen 3 - 4 weitere Grafikkartenhersteller , die 3 am PC-Markt sind leider zu wenig.

Das Nividia zu einen Featureausstausch wie damals Intel und AMD sich bewegen wird ist sehr unwahrscheinlich.

mfg
 
Zuletzt bearbeitet:
Benji18 schrieb:
naja es gab damals aber bereits den freesync Standard also keine inovation, meines wissens nach wird für CUDA und teilweise für Physx DP benötigt daher das ganze etwas witzlos ...

und man muss auch sagen das opensource Features weit sinnvoller sind als immer dieses closed, was daraus wird sieht man doch auch an Gsync ...

Äh nein, gab es nicht. Bitte keinen Stuss erzählen. Die Scaler von damals konnten das nicht und der VESA Standard wurde erst danach aktualisiert. Hauptsache mal gesülzt -.-
 
Im Grunde fehlen 3 - 4 weitere Grafikkartenhersteller , die 3 am PC-Markt sind leider zu wenig.
Schwierig.
Man erwartet mit einem Gegenpreis von 4 Stangen Zigaretten aktuelle Spiele auf Ultra zocken zu können.
Entwicklung, Materialien, Partner, Aktionen, Treiber, Management, Mitarbeiter, Fabriken, Innovation etc. alles im Preis mit inbegriffen.

mfg,
Max
 
max_1234 schrieb:
Schwierig.
Man erwartet mit einem Gegenpreis von 4 Stangen Zigaretten aktuelle Spiele auf Ultra zocken zu können.
Entwicklung, Materialien, Partner, Aktionen, Treiber, Management, Mitarbeiter, Fabriken, Innovation etc. alles im Preis mit inbegriffen.

mfg,
Max

Ich hoffe diese Leute jammern nicht, wenn das Ihr Job nach Asien/Osteuropa wandert. Da ja die Kunden alles nur billig wollen.

mfg
 
Ich finde es gut und ich werde meine AMD 7970 auch wieder mit einer AMD ersetzen um meinem 4K TFT zu Befeuern
 
max_1234 schrieb:
Ich weiß nicht von welchen GW Titeln (außer Evolve) du sprichst.

Die ersten 3 Links sind aus dem ersten Halbjahr 2014. AMD konnte mit Treiber-Updates einiges nachlegen.

Aus dem PCGH-Artikel (Ausgabe 02/2015) führt beispielsweise HBAO+ in AC:Unity auf einer GTX970 zum gleichen Performanceeinbruch wie bei einer 290X.
 
Sontin schrieb:
Weniger Propaganda und mehr Wissen.

Ahja. Lustig, dass das ausgerechnet von dem Nvidia Fanboy schlechthin kommt, der AMD bei jeder Gelegenheit in den Dreck zieht, während alles von Nvidia in den Himmel gelobt wird, für den die 512MB @32bit bei der 970 ein Feature ist und bei dem man sich fragt, ob seine Nvidia Propaganda nur Fanboytum ist oder ob er dafür bezahlt wird. Ne, eine Diskussion mit dir hat keinen Sinn.

Faust2011 schrieb:
Ist es nicht andersrum, dass Sony die Architektur von AMD beeinflusst hat? Link.
Sony hat die Architektur von AMD, einem GPU Experten, beeinflußt? Äh ne wohl kaum... Und dein Artikel ist vom Oktober 2013, da war GCN schon über 1,5 Jahre auf dem Markt. Sony hat aber sehr wohl den Semicustom Chip der PS4 beeinflusst.

Was für einen Link? Ich hatte nur eine Diskussion auf Anandtech verfolgt. Hätte jetzt keine Lust die Beiträge zu suchen..



Das ist ein Gerücht. Viele GW-Effekte performen auf AMD-Hardware quasi gleichschnell. Da war vor kurzem in der PCGH ein Bericht darüber drin.
Ein Gerücht? :lol: Ist die ungewöhnlich schlechte Leistung von AMD GPUs in quasi jedem Gameworks Spiel also ein Gerücht? Ein Fake? Ein Zufall? Lächerlich...
 
McMOK schrieb:
Warum kommen solche Ideen nicht auch von Nvida/Microsoft?

Weil diese Unternehmen es nicht nötig haben. Die Kunden kaufen deren Produkte ja trotzdem Millionenfach, während AMD zu knabbern hat und von Tag zu Tag überleben muss.

Bestes Beispiel ist doch die Farce um die GTX970. Die hat sich dennoch blendend verkauft und verkauft sich weiterhin sehr gut, während bei AMD auf dem etwas höheren Stromverbrauch rumgehackt wird, als wäre das das Ende der Welt.
 
Zu den Gameworks-Geschichten: ist das Problem nicht eher, dass AMD meistens immer ein Performance-Problem hat, wenn ein neues Spiel erscheint? Der letzte Fall, der das ganz gut gezeigt hat, war doch AC:Unity (ja, dessen Hersteller ein Gameworks-Referenzkunde ist). Zu Beginn hat beispielsweise auch Crossfire absolut nix gebracht. Zwischenzeitlich hatte AMD durch Treiber ordentlich aufgeholt bzw. tlw. war die 290X vor einer GTX980 zu finden (FullHD-Auflösung). Allerdings muss man auch sagen, dass UbiSoft durch die diversen Updates einiges bzgl. Performance behoben hat (wobei ich bezweifle, dass sie explizit auf AMD-Grafikkarten hin optimiert hatten).
 
Nur zur Information: Vulcan, der designierte Nachfolger von OpenGL, basiert auf den Konzepten von AMDs Mantle, welches zugunsten von Vulcan aufgegeben wurde.
 
Sontin schrieb:
Und wenn man dann noch betrachtet, dass die DX12 API von Fermi unterstützt wird und Maxwell nur eine weitere Iteration der Grundarchitektur ist - macht das nVidia ja noch zukunftstauglicher als AMD. :lol:

Weniger Propaganda und mehr Wissen.

Dass so ein Satz von dir kommt :evillol:

Dass DX12 API "unterstützt" wird, bedeutet nichts anderes, als dass die Grundfunktionen unterstützt werden, nämlich dass der CPU Overhead etwas reduziert wird. Wenn man dann noch so eine Form out of order Funktion für Grafikkarten hat, ist das wieder eine andere Sache.
AMD kann hier im Vergleich zu NV durchaus auf ein Know How zurückgreifen, dass eventuell von den CPUs stammt.
Out of Order dürfte sicherlich auch für die HSA APUs wichtig sein.
NV kann DX12 bis Fermi emulieren lassen. Ob dann aber die gleichen Performance "Boost" sehen wird, müsste man wohl abwarten. Mit VLIW4 und 5 ist es mit Sicherheit nicht möglich.

Btw, eventuell etwas offtopic aber passt zu News. Ist aber auch noch reine Spekulation von Fudzilla.
http://www.fudzilla.com/news/notebooks/37399-new-amd-zen-x86-apu-can-has-16-cores

he new APU platform has everything AMD fans could wish for - four channel DDR4 support, PCIe3, up to 16 Zen cores and Greenland GPU, paired with High Bandwidth Memory (HBM). The ability to add up to 16 Zen CPU cores suggests that AMD plans to use this chip for the compute market too, as the marriage of 16 Zen processors and HBM powered Greenland graphics can probably score some amazing compute performance numbers. Yes, we think such an architecture is a perfect match for the Heterogeneous System Architecture (HSA).

Wobei wahrscheinlich eher von 8 Cores und 16 Threads auszugehen ist. Aber die HPC-APU wurde schon von anderen Seiten erwähnt. Eine News von Computerbase fehlt hierzu noch.
http://wccftech.com/amd-gpu-apu-roadmaps-2015-2020-emerge/

006l.jpg


Faust2011 schrieb:
Zu den Gameworks-Geschichten: ist das Problem nicht eher, dass AMD meistens immer ein Performance-Problem hat, wenn ein neues Spiel erscheint?

Ja, weil AMD bei Gameworks Spiele im Endeffekt eine "Black-Box" betrachten darf, wenn es um Treiber geht. Das macht ja NV absichtlich. Im Gegensatz dazu, erlaubt AMD NV bei AMD Gaming Evolved die Einsicht und trotzdem ist NV hier mit dem Treiber nicht schneller.
Ubisoft ist nur geschickt dann die PhysX Geschichten schön zu promoten. Aber ich bin eh gespannt, wie lange PhysX noch halten wird. Die Physik basierenden Engine kommen und NV hat als Gegenmaßnahme bereits PhysX für CPU Optimierungen freigegeben.

Das ist ein Gerücht. Viele GW-Effekte performen auf AMD-Hardware quasi gleichschnell. Da war vor kurzem in der PCGH ein Bericht darüber drin.
Das stimmt, siehe Unity. Aber wie erwähnt. AMD braucht dann für Treiber eben länger, weil man das Spiel eben mit kaum Einsicht optimieren muss oder weil man erst wesentlich später Zugriff zu Optimierungen kommt.
Für NV ist das ein Vorteil, weil dann deren Karten bei den ersten Benchmarks schneller laufen und somit längere Balken bei NV suggerieren. Um nichts anders geht es dabei, denn selten werden dann Games nach Monaten wieder getestet.
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Zu den Gameworks-Geschichten: ist das Problem nicht eher, dass AMD meistens immer ein Performance-Problem hat, wenn ein neues Spiel erscheint? Der letzte Fall, der das ganz gut gezeigt hat, war doch AC:Unity (ja, dessen Hersteller ein Gameworks-Referenzkunde ist). Zu Beginn hat beispielsweise auch Crossfire absolut nix gebracht. Zwischenzeitlich hatte AMD durch Treiber ordentlich aufgeholt bzw. tlw. war die 290X vor einer GTX980 zu finden (FullHD-Auflösung). Allerdings muss man auch sagen, dass UbiSoft durch die diversen Updates einiges bzgl. Performance behoben hat (wobei ich bezweifle, dass sie explizit auf AMD-Grafikkarten hin optimiert hatten).

Bei Gameworks geht es Nvidia darum, AMD in den Bechmarks, die es meist zum Release eines Spiels geht, schlecht aussehen zu lassen. AMD darf den Treiber erst ab dem Release optimieren, deshalb laufen Gameworks Spiele später immer besser auf AMD. Die Artikel von PCGH oder CB bzgl Gameworks, die solche Spiele Monate nach der Veröffentlichung untersuchen, sind einfach für den Arsch.
Wie gesagt, wäre es nicht so krass offensichtlich und würde es nur 2-3 Spiele betreffen, würde ich ich es auch nicht glauben.
 
Zurück
Oben