Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Winterday schrieb:
nVidia hat einen anderen technischen Ansatz gewählt, um Async-Shader zu realisieren, aber die Funktion ist grundsätzlich verfügbar und nutzbar. Insofern ist es wohl falsch, nVidia vorzuwerfen, sie hätten das Feature nicht implementiert. Auch handelt es sich dabei nicht um eine Software-Emulation des Features.
http://www.pcgames.de/Ashes-of-the-...uld-an-mieser-DirectX-12-Performance-1170481/

Achja?
Problem sollen die Treiber sein, wie ein Oxide-Entwickler nun verriet: "Wir haben gerade mit Nvidia über Async Computing geredet, in der Tat wird es vom Treiber noch nicht voll unterstützt, aber es sah so aus. Wir arbeiten eng mit ihnen zusammen, um Async Computing vollständig zu implementieren."
Seitdem spielt nvidia "toter Mann". Nutzbar sieht anders aus.
 
@Tyler654
Shader greifen wegen Anti-Aliasing ja nur auf die höher aufgelösten Texturen zu, wenn die Texturen nahe an der Kamera sind. Ansonsten werden Mip-Maps, also verkleinerte Versionen der Texturen verwendet, bei welchen sich die höhere Auflösung "herauskürzt" (siehe zum Beispiel hier: http://wiki.polycount.com/w/images/thumb/0/01/Mip_colors_chadwick.jpg/400px-Mip_colors_chadwick.jpg). Und eben der Fall, dass eine Textur so nahe an der Kamera ist, dass der Shader auf die Textur selbst zugreift, ist eine ziemlich große Ausnahme verglichen mit dem mehr an Speicherplatz den eine Textur kostet.
 
Wie es aussieht ist der Benchmark auf 4 cores/threads optimiert. Ein i7 ist unwesentlich schneller (+3%) gegenüber einem i3. Somit bleibt die Frage nach Multi-Core Unterstützung von DX12 6c/12t, 4c/8t oder 4c/8modulen unbeantwortet?
 
@ foofoobar
Kompression spart keinen Speicherplatz? Da ist wohl die Formulierung etwas durcheinander gekommen.
Bei der verlustfreien Kompression handelt es sich um ein Feature, was (im Gegensatz zur verlustbehafteten Kompression) hauptsächlich für Framebuffertexturen vorgesehen ist - siehe die diversen NVIDIA und AMD Präsentationen. Ein Framebuffer erfordert, dass sich die Datenstruktur der komprimierten Textur nicht nur für Random-Reads sondern auch für Random-Writes gut eignen muss. Random Writes haben aber die unangenehme Eigenschaft, dass sie das Kompressionsverhältnis für einen Block ändern können, ergo die Datenstruktur der Textur - sofern sie nicht entsprechende "Lücken" besitzt, wodurch sie wiederum keinen Speicherplatz einspart - wachsen und schrumpfen können muss. Wachsende und Schrumpfende Datenstrukturen sind jedoch im Allgemeinen weniger performant, gerade wenn man noch parallel auf sie zugreifen möchte.

*Theoretisch* wäre es möglich, eine effiziente Datenstruktur für eine verlustfreie Kompression zu implementieren, aus welcher nur gelesen werden kann und die nicht nur Speicherbandbreite sondern auch Speicherplatz spart. Aber meines aktuellen Wissensstands ist eine solche Kompression nirgendwo vorhanden, weil eben in diesem Fall meist die verlustbehafteten Kompressionen verwendet werden. Deswegen schreiben sämtliche mir bekannten Herstellerpräsentationen auch nur, dass sich durch die Kompression Speicherbandbreite (beim Framebuffer) sparen lässt
 
Zuletzt bearbeitet:
@rg88: "Software-Emulation" unterstellt, dass die Hardware das Feature nicht bietet, sondern stattdessen alles in Software erledigt werden muss. Soweit das diverse Artikel (ich habe in meinem vorherigen Beitrag einige Links hinzugefügt) erläutern, muss nVidia die Steuerung über den Treiber vornehmen, aber trotzdem können dann die Befehle von der Hardware parallel verarbeitet werden. Solange nVidia keinen passenden Treiber veröffentlicht, kann man nur Vermutungen anstellen, wie gut das am Ende funktioniert. Aber grundsätzlich funktioniert das Feature damit auch auf nVidia Hardware, und das war ja angezweifelt worden.

@Conceptions: Solange das Spiel nicht veröffentlicht ist, braucht nVidia auch keinen Treiber dafür anzubieten. Dass man sich aktuell mit Kommentaren zurückhält ist verständlich, wenn man sich beispielsweise diesen Thread ansieht. nVidia ist vorsichtiger geworden; man will sicher vermeiden, dass Diskussionen wie bei der GTX 970 geführt werden.


Ich nehme nicht an, dass nVidia plötzlich einen Wundertreiber aus dem Hut zaubert; warum so lange warten, wenn man AMD überflügeln kann? Aber trotzdem ist zu erwarten, dass ein passender Treiber das Problem entschärft. Jedenfalls braucht niemand seine GTX 980 Ti wegen zu kurzer Balken in einem Benchmark zu verschrotten. Mit DX12 kann man ja eine Fury X dazustecken und tief durchatmen, damit die Welt wieder schön ist ;)
 
Als Skyrim-Spieler mit Mods und ENB könnte ich aber auch garnicht zu AMD wechseln aktuell.
Allein bei der ENB und diversen Dingen schauts bei AMD echt gruselig aus.

Da gibts nur EINS! 2. PC für andere Games mit DX12 und eine GPU von 2016 / 2017. :evillol::king:
 
Winterday schrieb:
@rg88: "Software-Emulation" unterstellt, dass die Hardware das Feature nicht bietet, sondern stattdessen alles in Software erledigt werden muss. Soweit das diverse Artikel (ich habe in meinem vorherigen Beitrag einige Links hinzugefügt) erläutern, muss nVidia die Steuerung über den Treiber vornehmen, aber trotzdem können dann die Befehle von der Hardware parallel verarbeitet werden. Solange nVidia keinen passenden Treiber veröffentlicht, kann man nur Vermutungen anstellen, wie gut das am Ende funktioniert. Aber grundsätzlich funktioniert das Feature damit auch auf nVidia Hardware, und das war ja angezweifelt worden.

Und genau so ist es auch. Die Hardware kann gewisse Sachen nicht, also muss die Software die Befehle abfangen und so umbiegen, dass die hardware das verarbeiten kann. Dass dies natürlich nur mit einem gewaltigen Leistungseinbruch möglich ist sollte doch klar sein. Denn es ist nunmal eine Software-Emulation.
Nvidia hatte jetzt fast ein halbes Jahr Zeit da nachzuliefern. Haben sie aber nicht, weil sie es nicht können. Was nicht da ist, kann auch nicht hergezaubert werden.
Aber manche Leute kaufen die Karten dann trotzdem weil sie so naiv sind und davon ausgehen, dass das schon "irgendwie" gemacht wird.
 
Soweit das diverse Artikel (ich habe in meinem vorherigen Beitrag einige Links hinzugefügt) erläutern, muss nVidia die Steuerung über den Treiber vornehmen, aber trotzdem können dann die Befehle von der Hardware parallel verarbeitet werden.

Lies dir Nais Beiträge dazu durch und du wirst deinen Irrtum vermutlich erkennen.
 
kayD schrieb:
@tek9
Und ich sag dir garantiert: Der Kunde findet es bei weitem besser dass die Karten länger performen als AMD, die müssen dafür bluten - wenn man das nicht sieht, dann ist man eindeutig begriffstutzig oder hatte zu oft Bodenkontakt mit dem Kopf.

warum ? wenn sie es nicht gut fänden, könnten es ja machen wie nvidia und die Vorgänger Generation einfach mittels Treiberingriff immer schlechter performen lassen - oder wäre das nicht so die feine englische Art - bei Nvidia ist es ja scheinbar toll - wenn so werden die Leute gezwungen werden gleich mal wieder was neues zu kaufen.

Und solange die Mehrheit trotz dieser Methoden immer brav weiter Nvidia kaufen, werden sie aus Unternehmenssicht den Teufel tun und das ändern - die Frage ist wer dann irgendwann am Ende wirklich als der Dumme übrig bleibt : Amd, Nvidia ? oder doch am Ende gar die Kunden ....
 
Tyler654 schrieb:
Man sieht schön, wie die GTX 960 bei speicherintensiven Spielen einbricht, was nun wirklich keine Überraschung sein sollte. Da u.a hochauflösende Texturen die BQ deutlich verbessern, aber gleichzeitig den Speicher ordentlich belasten kann man sich denken, was in Zukunft passiert: Es wird nur schlimmer.
Du raffst es nicht, oder?
Diese Benchmarks sagen rein gar nichts darüber aus, ob die Speicherbandbreite der Flaschenhals ist oder nicht.

Davon mal abgesehen habe ich das schon in ein paar Spielen ausprobiert.
In GTA V ist es z.B. völlig egal, ob ich die Textur-Qualität auf High oder Very High stelle. In der Performance gibt es keinen nennenswerten Unterschied.

Tyler654 schrieb:
Genau dieser Durschnittsranking-Quatsch verfälscht den Eindruck enorm. Es gibt schon zich Spiele, bei denen das winzige SI einbricht und es wird immer mehr. Da hilft dann auch die verhältnismäßig gute Speicherausstattung von 4GB nicht mehr.
Wie gesagt, Benchmarks, die das zeigen, bleibst du weiterhin schuldig.
Und wie gesagt, die Karte ist trotzdem schneller als die R9 380. :rolleyes:
Ob sich das in Zukunft ändern wird, sei es durch die Speicherbandbreite oder (eher wahrscheinlich) durch DX12, wird sich zeigen.

Tyler654 schrieb:
Nur bringt das keinen Leistungsgewinn, ohne massiv an Takt und Spannung zu schrauben. Das wiederum ruiniert die Effizienz der GTX 960 mit absoluter Sicherheit.
Red nicht über Dinge, von denen du keine Ahnung hast.
Die meisten GTX 960 Karten kann man problemlos mit Stock-Spannungen bis auf 1500MHz takten.
(Den VRAM kann man übrigens problemlos um 400-500MHz übertakten.)

Die Framerate skaliert mit der prozentualen Übertaktung übrigens so ziemlich 1zu1.
 
Kaffeejunky schrieb:
Als Skyrim-Spieler mit Mods und ENB könnte ich aber auch garnicht zu AMD wechseln aktuell.
Allein bei der ENB und diversen Dingen schauts bei AMD echt gruselig aus.

Wenn du immer noch die ewig alten 0.1xx Versionen nutzt stimmt das vielleicht, nur ist es mittlerweile eher so, dass die nVidias ziemliche Probleme mit ENBs bekommen. Zumeist muss man extra für Skyrim auf alte Treiber wechseln, die die Performance deutlich verbessern als neue und außerdem gibt es ziemliche Probleme damit die Konfigurationen zum laufen zu bringen. Das endet schlussendlich darin, dass man anstatt dem Wrapper die kompliziertere Injector-Version nutzen muss, ein Graus sobald man aufwändigere ENB-Presets verwendet.

Performance-technisch hab ich zwar keine Benchmarks mit gleich teuren Karten beider Hersteller, aber ein Nachteil der AMDs ist mir nicht bekannt. Zumeist hilft denen eher sogar ihr grösserer VRam, mit dem man die Streaming-Engine als eine Skyrim-typische Plage etwas weniger belasten muss. Da ist mir eher noch das Mikro-Ruckel-Problem der 970 mit Texturmods bekannt (von dem ich wiederum nicht weiß, ob es momentan schon gefixt ist - wahrscheinlich funktioniert es mittlerweile, indem man das VRam-Management nicht durch ENB sondern über den Treiber regelt und in der enblocal mit 3,5GB-VRam rechnet).
 
Winterday schrieb:
@Conceptions: Solange das Spiel nicht veröffentlicht ist, braucht nVidia auch keinen Treiber dafür anzubieten.
Aha, es ist ein Early Access Spiel, sprich man es kaufen und bereits nutzen.
Aber selbst wenn dies nicht so wäre, würde ich als Hersteller dringend mal reagieren anhand der bekanntgewordenen Benchmarks um entsprechende negative Schlagzeilen abzuändern.
Dass man sich aktuell mit Kommentaren zurückhält ist verständlich, wenn man sich beispielsweise diesen Thread ansieht. nVidia ist vorsichtiger geworden; man will sicher vermeiden, dass Diskussionen wie bei der GTX 970 geführt werden.
Sprich bevor nvidia wieder mal einer weiteren Lüge überführt wird.

kayD schrieb:
@tek9

Nur am Ende nicht wundern wenn Söhne wie du und deinesgleichen die Marke selbst zu Grabe tragen mit ihren tollkühnen und edelmütigen Ansichten - ich warte nur aufs nächste tiefrote AMD Quartal und die Schuldzuweisungen an die nVidia-Käufer und nVidia selbst, muahaha!
Aha, also bevor man AMD Karten also länger als 2 Jahre nutzt, gar nicht kaufen, sondern gleich zu nvidia. Da weiß man immerhin gleich nach 2 Jahren bzw bei der 970 nach 6-12 Monaten das man eine neue Karte braucht.

Sauber wie du dich als Konsumvieh vor den Karren spannen lässt und dich wie Bauer Volle darüber freust dein Geld ausgeben zu dürfen.
 
UltraWurst schrieb:
Red nicht über Dinge, von denen du keine Ahnung hast.
Die meisten GTX 960 Karten kann man problemlos mit Stock-Spannungen bis auf 1500MHz takten.
(Den VRAM kann man übrigens problemlos um 400-500MHz übertakten.)

Die Framerate skaliert mit der prozentualen Übertaktung übrigens so ziemlich 1zu1.

Wie wärs mit einem weniger ausfallendem Tonfall? Willst doch sicher keine Karte von der Moderation oder? Wieso greifst du dann grundlos mit solchen Worten andere User an?

Wenn du dir den Test von THG angesehen hättest, dann wüsstest du, dass viele Partnerdesigns schon dank Offset am Sweestpot (~1450mhz) arbeiten. D.h. eine Erhöhung ist zwar möglich, erzielt aber kaum mehr einen Geschwindigkeitsvorteil.

Wie man in den letzten paar erschienen Benchmarks sehen kann, ist übrigens die 380 meist substanziell vor der 960.

Mit der THG-Aussage, dass eine auf 1700mhz übertaktete 960 immer noch nicht an eine reguläre 280X herankommt im Hinterkopf bildet sich übrigens ein anderes Bild. Die Übertaktung des GM206 über den Takt der Partnerkarten bietet nur noch ein schlechtes Takt/Leistungsverhältnis. Die Aussage, dass man mit OC der 960 noch deutliche Leistungssteigerungen bekommen kann stimmt so wohl eher nicht. Andersrum erkennt man in Tests der 380er, dass reguläre Modelle ziemlich simpel auf Niveau einer 280X gehievt werden können, somit wohl doch deutlich mehr Leistung als die 960 besitzen (und trotz der geringeren Taktsteigerung mehr OC-Potential).
 
BookerDeWitt schrieb:
Wenn du immer noch die ewig alten 0.1xx Versionen nutzt stimmt das vielleicht, nur ist es mittlerweile eher so, dass die nVidias ziemliche Probleme mit ENBs bekommen. Zumeist muss man extra für Skyrim auf alte Treiber wechseln, die die Performance deutlich verbessern als neue und außerdem gibt es ziemliche Probleme damit die Konfigurationen zum laufen zu bringen. Das endet schlussendlich darin, dass man anstatt dem Wrapper die kompliziertere Injector-Version nutzen muss, ein Graus sobald man aufwändigere ENB-Presets verwendet.

Performance-technisch hab ich zwar keine Benchmarks mit gleich teuren Karten beider Hersteller, aber ein Nachteil der AMDs ist mir nicht bekannt. Zumeist hilft denen eher sogar ihr grösserer VRam, mit dem man die Streaming-Engine als eine Skyrim-typische Plage etwas weniger belasten muss. Da ist mir eher noch das Mikro-Ruckel-Problem der 970 mit Texturmods bekannt (von dem ich wiederum nicht weiß, ob es momentan schon gefixt ist - wahrscheinlich funktioniert es mittlerweile, indem man das VRam-Management nicht durch ENB sondern über den Treiber regelt und in der enblocal mit 3,5GB-VRam rechnet).

Ich nutz die neuste ENB und die neusten Treiber mit der 980.
102 Mods, das meiste Texturen 2K/4K und ne gescheite ENB -> immer 60fps.
Immer mit dem Wrapper.
Ich bastel und spiele seit Release 11.11.11 und nie Performance-Probleme oder so mit nV.
Man muss nur wisen, was man tut.
Ich kenne auch niemanden, der mit einer GTX 980 oder so Probleme hat - in welcher Hinsicht auch immer.
Funktioniert ootb komplett kinderleicht.

Bei AMD ists aktuell so, dass man mit dem Crimson Treiber und ENBs totale Probleme hat. Memory-Managemant funktioniert nicht sauber.
Selbst bei manueller Einstellung hat man oft genug nen vollen VRam etc. - alles nicht so pralle.
 
@UltraWurst

Fehler 1: Von sich selbr auf alle schließen und sich angegriffen fühlen.
Fehler 2: "Imaginäre Gruppen die außerhalb nicht existieren". Wo wird mehr abgesetzt hier oder außerhalb der Computerbase Forengemeinschaft? Ganz sachlich, wieviele AMD Rechner gibt es im MediaMarkt und wieviele Nvidia Rechner? Welche veraltet schneller? Wer wird dann wieder im MediaMarkt stehen und wieder Nvidia kaufen weil sie zufrieden waren und jetzt eine neue brauchen?:king:
Psychologie eben, wer eine NVidia hatte und 0 ahnung hat kauft einfach wieder Nvidia, weil alle Informationen die man hat aus folgendem bestehen:
Ich hatte Nvidia, war zufrieden. Also wieder Nvidia.
Das selbe Spiel für AMD, BMW, Intel etc.
Man interpretiert die Information, egal wie wenig das ist, immer maximal.
Daher wählen manche Menschen ja auch Angela Merkel, "weil Sie so sympathisch ist". die einzige Information die zur Wahl hier dann relevant ist: "Sie ist sympathsich", Wirkung dieses "sympathisch" ist 100%. Wenn man 200 verschiedene Fakten hat um seine Entscheidung zu fällen, handelt man nach diesen 200 Fakten. Wie erklärt man sich das sonst das ein älterer Mensch jahrzehntelang das selbe wählt? (Nachweislich bei einer großen Zahl alter Menschen so)
Aus Gewohnheit.

Was meinst du mit höheren Marktanteil? 30%? Bei der Nvidia direkt mal 45% Bruttomarge hat?

Ja wenn du meine Beiträge gelesen hättest, natürlich bringt es nichts innovativ zu sein wenn die Konkurrenz dann auch HBM nutzen darf. Genau das sagte ich. Es ist wirtschaftlich Blödsinn, außer man kann den Effekt voll mitnehmen. Das kann AMD aber nicht. Ich hoffe das Sie es vieleicht dieses Jahr ab 3. Quartal können. Vieleicht dann 2017 mit APUs auch. Nennt man Investition.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Die meisten Menschen kaufen eben nicht immer AMD oder immer NVidia, sondern immer das, was sie momentan für die beste Option halten.
Ich würde sogar behaupten, die Leute kaufen das, was im Fertig-PC bzw. Notebook verbaut ist.

​Würde mich wirklich interessieren wie groß jeweils der Anteil von direktem Kauf und durch OEM ist.
 
Draco Nobilis schrieb:
@UltraWurst
Vieleicht dann 2017 mit APUs auch. Nennt man Investition.

Ich sehe die größte Chance bei AMD noch bei ZEN-APUs, dafür muss sich aber Zen gut platzieren. Wie ich schon mal sagte, AMD muss Intel nicht unbedingt bei der IPC schlagen, sie müssen nur eine gute Plattform vorstellen, die seine Vorteile hat.

Wieso kann eine ZEN-APU eine Chance für AMD sein ? Weil Zen nicht nur die FX sondern auch die Cats ersetzten soll und AMD allgemein eine kompatiblen Sockel verwenden möchte, denn man dann für alle Plattformen (Server vllt ausgeschlossen) nützten kann.
Sprich eine solche AMD Zen APU wäre für günstige Notebooks bis zu Performance Notebooks und OEM PCs. Je nach Modell eben mit Shader und Cores deaktiviert und die Topmodelle mit HBM.
Wenn OEM dann AMD nicht verbaut, selbst wenn die Hardware gut ist, gibt es keine Möglichkeit mehr, wie AMD es den OEM noch mehr recht machen kann. Immerhin hat man dann alles schon in einem Chip auf dem selben Sockel.

Polaris könnte neben Grafikkarten eben genau auch wegen der APU auf "Effizienz" optimiert worden sein um eben das breite Spektrum abdecken zu können, denn nach oben kann man oft immer, indem man Takt und TDP erhöht.

Wenn AMD Marktanteile gewinnen möchte, müssen sie die OEM im Sturm erobern. Die machen dann auch indirekt Werbung für die Produkte und das färbt dann auch das Image von AMD ab.

Wenn man es genau nimmt, müsste AMD ihre Chips neu vermarkten und neue Namen geben, das hat bei Treibern und anderen Sachen in letzter Zeit positiven anklang gehabt. Aber das ist nur meine Meinung und mein Eindruck, denn ich so die letzten Monate so mitbekommen habe.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Red nicht über Dinge, von denen du keine Ahnung hast.
Die meisten GTX 960 Karten kann man problemlos mit Stock-Spannungen bis auf 1500MHz takten.
(Den VRAM kann man übrigens problemlos um 400-500MHz übertakten.)

Die Framerate skaliert mit der prozentualen Übertaktung übrigens so ziemlich 1zu1.
Das passt mit dieser Grafik irgendwie überhaupt nicht zusammen.
03-Performance-vs.-Power-Consumption.png

Das trifft im Übrigen auch auf die GTX 970 und letztendlich auf die gesamte Maxwell Architektur. Die Leistung skaliert mit dem Takt ziemlich gut bis ca. 1400 Mhz. Die Steigung von 1400mhz bis 1600mhz (ca. +14%) resultiert in ca. +7% Leistungssteigerung und +30% Leistungsaufnahme.

1zu1 würde ich das nicht nennen.

PS: Übrigens, die 960 OC bei CB wird auch immer mit 1400mhz, also noch im "Sweet-Spot", getestet. Vielleicht wird auch irgendwann mal eine 380 OC mit ca. 1020mhz aufgenommen (immerhin +5% Performance und dabei nicht mal wirklich OCd)


UltraWurst schrieb:
Wie man es dreht und wendet:
Die meisten GTX 960 Karten kann man um 1500MHz betreiben, ohne die Spannung zu erhöhen.
Sie sind dann schneller als die R9 380 und verbrauchen weniger Strom.

Was ist daran eigentlich so schwer zu verstehen?
Das ist aber schon sehr einseitig gedacht. Man kann auch die Spannung einer R9 380 ziemlich senken und die Karte dabei sogar noch übertakten. Die Verhältnisse lassen sich also von beiden Seiten "manipulieren". Jetzt ganz unabhängig davon, welche Karte schneller/stromhungriger ist.
 
Zuletzt bearbeitet:
Zurück
Oben