News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

@Pisaro

die 680 ist nun die 770 die 7970 ist nun die 280x. Schau doch mal jetzt wer schneller ist? Kaufst du gerne jedes Jahr eine neue Karte? Lösche schon mal alle Posts die mit Stromverbrauch zu tun haben. Wenn du jedes jahr eine neue Karte kaufst bist du der größere Umweltsünder!!!

Die meisten Menschen kaufen übrigens die Vorgänger Version. Gar nicht auszumalen ist was mit der GTX 950 - 970 sein wird. Das trifft Nvidia hart wenn die vorwürfe stimmen!
 
Zuletzt bearbeitet:
ampre schrieb:
Zurzeit macht sich AMD dran mit einer 290x die gtx980 zu überholen. die 780ti und 680 können schon lange nicht mehr mit amd 280x und 290x mithalten

Traurig, aber wahr.

Ich denke, ich kann mit meinen beiden R9 290 noch eine Weile durchhalten, zumindest länger als (bisher) gedacht :D
 
Naja, Nvidia bietet das Feature an, der Treiber verarbeitet dieses. Damit ist die Karte DX12 fähig, punkt aus ende.

Eine AMD HD5450 ist auch DX11 fähig, obwohl die Performance mieß ist. Ich denke dieses Problem kann man ohneweiteres mit einem Treiberpatch angehen.

Halten wir uns doch nicht mit irgendwelchen technischen Details auf, sondern schauen wir, wie es in der Praxis läuft. Welche GPUs in Zukunft bessere FPS bieten. Egal mit wie viel Speicher, Anbindung, Shader, etc. Wichtig ist nur die Leistung. Bei den aktuellsten Tests schneidet Nvidia doch ordentlich ab, es gibt bis dato kein einziges Game mit Problemen. Der Rest ist nur spekulationen
 
Kein voll angebundener Speicher, früher Holzsamples als Vorführobjekt, fehlende DirectX Unterstützung und jetzt vorgetäuschte Features.

Ich weiß, warum in meinem Desktop nur noch AMD Karten werkeln dürfen, leider kommt man im Notebooksektor nicht darum herum.
 
Nai schrieb:
Mein Ziel wäre es gewesen, nicht einfach die Informationen wie es von vielen hier so gerne gemacht wird blind zu übernehmen, sondern ersteinmal genau nachvollziehen was Oxide abgefragt hat, bzw...

Ich versteh schon was du meinst. Doch muss man hier auch sehen das die direkt mit Nvidia darüber gesprochen haben und die Aussage war "With communication back and forth with NVIDIA trying to fix things Xoide learned that "Maxwell" architecture really doesn't really support async shaders at a tier 1 level"

Das sagt man nicht einfach so. Trotzdem wäre es schön zu wissen wie genau der Technische Vorgang abgelaufen ist. Gibt ja mittlerweile schon mehrere Artikel dazu, wie gesagt mal schauen wie es weiter geht.
http://www.guru3d.com/news-story/nv...12-benchmark-to-disable-certain-settings.html
 
k0ntr schrieb:
Was soll dieses getralala? Man ist nicht gezwungen auf dx12 umzusteigen.

"Zukunftssicher" heißt aber, dass ich die Karte in Zukunft benutzen will. Übertreiben wir mal und wollen 2020 auf Windows 10 Updaten und spielen. Welche DX versionen bleiben mir dann? Wenn der Treiber es meldet, sollte ein Feature auch funktionieren. Aber bei Maxwell scheint mir Nvidia wohl mehrere Problemchen mit "der Kommunikation mit der PR Abteilung" zu haben. Hatte bisher nur Nvidia, aber so extreme Probleme hatte ich in 15 Jahren PC Gaming nicht mit dem Verein
 
@ampere: Die Umwelt ist MIR aus Hardwaresicht eigentlich egal. Wenn ich jedes Jahr eine GPU für 700 kaufen muss/kann, habe ich damit auch kein Problem :). Ich kaufe das was ich JETZT brauche. Ich brauche eine GTX 980 Ti weil mir AMD in DX11 zu langsam war. Wenn ich nächstes Jahr eine AMD wegen DX 12 brauche kaufe ich mir eine AMD. Die Preise sind mir wayne.
 
Flare schrieb:
Meine Frage:
Ist async-Computing ein MUSS um die DX12 Feature-Levels zu erfüllen oder nur eins der Zusatzfeatures (also ein KANN) ??
Das würde mich auch zu gern wissen. Bisher nichts gefunden.
 
k0ntr schrieb:
Was soll dieses getralala? Man ist nicht gezwungen auf dx12 umzusteigen.

Sobald die Entwickler Optimierungen bezüglich DX11 fallen lassen, dann ja. Und da wir ja wissen, wie gerne und gut die Entwickler ihre Spiele für den PC optimieren und liebend gerne jeden Halm ergreifen, der die Entwicklung einfacher macht (vor allem bezüglich der Performance) könnte das recht fix gehen.
 
We were able to get a detailed statement from NVIDIA’s Brian Burke, Senior PR Manager. Here’s what he had to say on the matter:
This title is in an early Alpha stage according to the creator. It’s hard to say what is going on with alpha software.
We’ve worked closely with Microsoft for years on DirectX 12 and have powered every major DirectX 12 public demo they have shown. We have the upmost confidence in DX12, our DX12 drivers and our architecture’s ability to perform in DX12.

Ich sag nur Sommerloch ........Es würde mich aber freuen wenn AMD mal wieder nach vorn kommt.War zuletzt bei DX 9 so.Das waren noch Zeiten mit meiner Radeon 9800 Pro.Da hatte ich viel Spass mit :) Da hat Nvidia kein Land gesehen.
 
Man ist nicht gezwungen... is doch überhaupt das Thema. Die Frage ist, kann Maxwell async shaders auf Tier level 1 oder nicht. Alle wollen immer mehr Saft um bessere Auflösungen und schönere Grafik fahren zu können, wer da sagt man ist nicht gezwungen usw dem kann man auch nicht mehr helfen.
Wir reden hier von zweistelligen Prozent Bereichen im Performance Zuwachs.

Viele holen sich Win 10 für die Spiele Kiste um genau davon zu profitieren...
 
Zuletzt bearbeitet:
@ampere: Gebe zu, mit den 10% stehe ich gerade auf dem Schlauch.

Ich kaufe aber immer das, was ich JETZT für richtig empfinde bzw. von der Leistung her brauche. Von der Historie her war das so: Riva TNT2, Geforce 2 MX, Geforce FX 5200, AMD X1650 Pro, AMD X1950 XT, Geforce 9600 GSO, AMD HD 4850, AMD HD 4890, AMD HD 7850, AMD R9 290, GTX 980 Ti.

Und so wird das auch weitergehen, je nachdem was für mich JETZT am besten ist.
 
Hab hier ne Liste mit den Feature Level Bestandteilen gefunden
https://msdn.microsoft.com/en-us/library/windows/desktop/ff476876(v=vs.85).aspx


Falls es unter DirectCompute / Compute Shader fällt dann ist Async Compute nicht optional.
Es scheint dann schon ein wichtigerer Bestandteil zu sein den es zu unterstützen gilt.

hardwareguru schrieb:
We were able to get a detailed statement from NVIDIA’s Brian Burke, Senior PR Manager. Here’s what he had to say on the matter:
This title is in an early Alpha stage according to the creator. It’s hard to say what is going on with alpha software.
We’ve worked closely with Microsoft for years on DirectX 12 and have powered every major DirectX 12 public demo they have shown. We have the upmost confidence in DX12, our DX12 drivers and our architecture’s ability to perform in DX12.

Ich sag nur Sommerloch ........Es würde mich aber freuen wenn AMD mal wieder nach vorn kommt.War zuletzt bei DX 9 so.Das waren noch Zeiten mit meiner Radeon 9800 Pro.Da hatte ich viel Spass mit :) Da hat Nvidia kein Land gesehen.


Der Text von Nvidia ist leider nur absolut Inhaltslos.
Sie können mit MS soviel sie wollen zusammenarbeiten, wenn ihre Architektur ein Feature dermaßen schlecht umsetzt hilft auch die volle Unterstützung nichts.
Die Aussage des Oxide Entwicklers war ja nicht das Nvidia etwas nicht hat sondern das deren Umsetzung dieses Feature vollkommen verkrüppelt.
 
Zuletzt bearbeitet:
Nai schrieb:
Mein Ziel wäre es gewesen, nicht einfach die Informationen wie es von vielen hier so gerne gemacht wird blind zu übernehmen, sondern ersteinmal genau nachvollziehen was Oxide abgefragt hat, bzw. wie genau das abgefragte definiert ist.

genau so wird ein schuh draus.
das "wie" und "warum" hat uns hier her gebracht, nicht das "wird schon passen".
wer nichts weiss muss alles glauben


btw. eh ich das erste dx12 game zocke sind schon neue GKs raus :o
 
Gut, jene die sich damals eine Hawaii gekauft haben, dürften scheinbar eine gute Investition gemacht haben.
Günstiger als die 780Ti, nicht teurer als die 970 ect. Da wurde ständig vom Verbrauch geredet und was ist passiert. Die Performance der R9 290X ist Jahr für Jahr eigentlich gestiegen und jetzt mit ACE dürfte die Effizienz noch mal steigen.
Ob das jetzt für AMD gut ist, dass einige ihre Karten länger behalten ?

Keine Ahnung.

Was aber für AMD gut ist, ist die Tatsache, dass Artic Island offensichtlich eigentlich nur mehr einen Shrinke machen müsste und noch ein paar DX12 FL integrieren müsste.
ACE, HBM, Interposer (inklusive Lieferanten und Supply-Chain) hat man bereits jetzt.
Auch wird sich zeigen müssen ob Pascal gegenüber Maxwell die sogenannte "Gaming-Effizienz" mit deren ersten Variante von Mixed-Precision überhaupt steigen kann. Man bedenke, AMD möchte mit Artic Island die erste große Überarbeitung von GCN einführen. Zusätzlich die News, AMD und NV haben den selben Prozess bei TSMC und angeblichen Gerüchte aus China, NV wird vor 2017 kein HBM Karte auf den Markt bringen. Da wird stark von GDDR5 Karten für die Mittelklasse spekuliert.

Wer weiß, eventuell tragt der Konsolen-Deal und Mantle bald doch Früchte. Denn NV hatte eigentlich bisher immer von DX11 profitiert, speziell weil man gerne Effekte durch Gameworks integrieren wollte und jegliche andere Techniken, von denen die Konkurrenz auch profitieren können, eher gemieden hat.


Jethro
Das interessantere ist eher, dass wenn sie ACE auf NV Karten aktiviert haben, die Performance sogar schlechter geworden ist.
Man muss einfach bedenken, dass AMD hier eventuell Know How von CPU Sektor nützt und das Context Switching bei AMD einfach ein wichtiger Punkt ist, der auch für deren APUs wichtig ist. Stichwort "HSA".
 
Zuletzt bearbeitet:
Pisaro;17824857[.. schrieb:
Von der Historie her war das so: Riva TNT2, Geforce 2 MX, Geforce FX 5200, AMD X1650 Pro, AMD X1950 XT, Geforce 9600 GSO, AMD HD 4850, AMD HD 4890, AMD HD 7850, AMD R9 290, GTX 980 Ti.[..]
Nicht schlecht! Du kennst alle deine GKs noch ausm Kopf. Ich kann mich grad mal so an die letzte erinnern ^^
 
Bis heute ging ich von aus dass Nvidia mit Async Shadern bzw deren Nutzung nichts zu tun hat :) ... Und irgendwie ist das Wayne weil am Ende eh das zählt was am Schirm an Spielgefühl ankommt. Ich geh schwer davon aus, ging ich immer, dass DX12 AMD eher helfen wird ihre Rohleistung auf die Straße zu bringen als Nvidia. Wie viel das nachher ausmacht wird sich zeigen, maybe 2%, vielleicht 10. Auf diesen Quacksalber dieser Techdemo Spieleschmeide aka Oxide geb ich wenig. Da schenk ich sogar Nai 100 mal mehr Vertrauen ^^

In meinen Augen coden die eher Techdemos mit API Fokus als wirkliche Game Engines. Wenn man schlecht coded kann man immer Abgründe auf tun wenn man das will, gerade wenn man über spezifische APIs geht.
 
Zuletzt bearbeitet:
Jethro schrieb:
Hab hier ne Liste mit den Feature Level Bestandteilen gefunden
https://msdn.microsoft.com/en-us/library/windows/desktop/ff476876(v=vs.85).aspx


Falls es unter DirectCompute / Compute Shader fällt dann ist Async Compute nicht optional.
Es scheint dann schon ein wichtigerer Bestandteil zu sein den es zu unterstützen gilt.




Der Text von Nvidia ist leider nur absolut Inhaltslos.
Sie können mit MS soviel sie wollen zusammenarbeiten, wenn ihre Architektur ein Feature dermaßen schlecht umsetzt hilft auch die volle Unterstützung nichts.
Die Aussage des Oxide Entwicklers war ja nicht das Nvidia etwas nicht hat sondern das deren Umsetzung dieses Feature vollkommen verkrüppelt.

Sicher ist das alles Marketing bla bla...sehe Ich aber hier auf beiden Seiten.Ja die Engine läuft bei AMD besser was nicht verwundert da Sie für Mantle entwickelt wurde und ja Nvidias Treiber verliert hier auf ganzer Linie.In Kürze wird es einen Titel geben bei dem es genau andersrum aussieht sponsored by Nvidia.Mich interessiert da eher wie eine Unreal 4 Engine auf DX 12 skaliert.Die wird wenigstens auch benutzt.

Sollte AMD hier auch soweit vorn liegen herzlichen Glückwunsch.Das Unternehmen braucht diesen Push um am Markt bestehen zu können.Also rein finanziell.
 
Die sich jetzt eine Maxwell gekauft haben doch erstmal Ruhe.
Bis sich DX 12 durchgesetzt hat dauert es ja noch mindestens ein Jahr .
Aber schon Interessant das NVIDIA doch mehr wegelassen hat als DP Einheiten,
mal sehen was da noch kommt.
Wenn ich 290X Besitzer wäre würde ich die Karte nicht verkaufen, vielleicht feiert die
nächstes Jahr eine grandiose Wiederauferstehung.
 
Zurück
Oben