News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

mich wundert bereits seit Jahren, wie Nvidia immer noch Geld macht. Der reinste Saftladen. Die sollten echt mit Intel verschmelzen, nehmen sich nicht viel.
 
Leute bleibt mal alle auf dem Teppich, es ist nicht so als könnte Maxwell und Kepler jetzt irgendwas nicht darstellen oder sowas .... es ist eine reine Performance Geschichte, mehr nicht.
Warum sollten die Programmieren diesen Teil auch nicht nutzen? Es ist in der API, ich kann mich damit zwar nicht aus aber ich denke nicht, dass man hexen muss um es in die Engine einzufügen.

Mfg David
 
Mich hat eh sofort die PS4 GPU sehr überrascht. Unter DX11 leiden die AMD aber schon sehr. Eine 7950 GPU in der PS4 zaubert megageile Grafik in einem kleinem gehäuse.
 
nicK-- schrieb:
Leute bleibt mal alle auf dem Teppich, es ist nicht so als könnte Maxwell und Kepler jetzt irgendwas nicht darstellen oder sowas .... es ist eine reine Performance Geschichte, mehr nicht.
Mfg David
Wenn eine 290X die 980 Ti in die Tasche steckt, dann ist das nicht Besonderes. Got it.
 
nicK-- schrieb:
Leute bleibt mal alle auf dem Teppich, es ist nicht so als könnte Maxwell und Kepler jetzt irgendwas nicht darstellen oder sowas .... es ist eine reine Performance Geschichte, mehr nicht.
Warum sollten die Programmieren diesen Teil auch nicht nutzen? Es ist in der API, ich kann mich damit zwar nicht aus aber ich denke nicht, dass man hexen muss um es in die Engine einzufügen.

Mfg David

Genau ist nur ne Performance Geschichte, nicht das Performance bei ner GraKa wichtig wäre... :rolleyes:
 
hardwareguru schrieb:
20 jahre Erfahrung am Markt.Ich brauch keinen Strohhalm :)

Dann hinkst du mir reichlich hinterher.^^

@ nicK--

Solange Nvidia-Karten ein Bild darstellen können, ist es ja auch nicht so schlimm. Mit der im Vergleich zur Konkurrenz suboptimalen Performance muss und kann man letztlich leben (BQ-Regler ein, zwei Stufen runterstellen).
 
Zuletzt bearbeitet:
Nvidia kauft man doch schon lange nicht mehr wegen der Performance sonder nurn um dazu gehören und zu zeigen das man Kohle hat!
 
@ampere: Warum kauft man NVidia nicht wegen der Performance? NVidia hatte die letzten Jahre nunmal die schnellsten HighEnd-Chips. Will ich die schnellste Performance haben dann kaufe ich NVidia. Will ich meist aus PL-Sicht das beste, dann AMD.
 
MichaG schrieb:
Doch auch hier sind anfängliche Treiberprobleme allgegenwärtig. Die Kinderschuhe von DirectX 12 passen nicht immer auf Anhieb, so viel steht fest.

Ein paar Ziernähte hier, ein paar Ösen da und neue Schnürsenkel obendrauf werden einfach nicht helfen, wenn da schlicht kein Fuß vorhanden ist! :freaky:
 
@Pisaro

Wo hat nvidia die schnellsten chip? Zurzeit macht sich AMD dran mit einer 290x die gtx980 zu überholen. die 780ti und 680 können schon lange nicht mehr mit amd 280x und 290x mithalten. Wo ist da die Nvidia Performance. Bei Nvidia kauft man immer 2 mal um mithalten zu können.
 
Na die werden schon feststellen können, ob die Karte async supportet oder nicht. Ich mein das ist ja ihr Job
Mein Ziel wäre es gewesen, nicht einfach die Informationen wie es von vielen hier so gerne gemacht wird blind zu übernehmen, sondern ersteinmal genau nachvollziehen was Oxide abgefragt hat, bzw. wie genau das abgefragte definiert ist.
 
Na ja es kommt vom einen Dev direkt von Oxid. Wenn die sowas posten dann sollten sie sich im klaren sein das es stimmen muss. Nicht alleine die Regresszahlung an Nvidia wenn die das gelten machen wegen Falschaussage.
 
nicK-- schrieb:
Leute bleibt mal alle auf dem Teppich, es ist nicht so als könnte Maxwell und Kepler jetzt irgendwas nicht darstellen oder sowas .... es ist eine reine Performance Geschichte, mehr nicht.

Die Nvidia Karten haben keine nativen ACEs in ihrer Architektur, das ist schon katastrophal da man ursprünglich davon ausgegangen ist, dass Maxwell diese Einheiten besitzt und Nvidia sogar DX 12.1 unterstützen soll . Demnach sind alle davon ausgegangen, dass die Nvidia Karten im Feature Set den AMD Karten überlegen sind, jetzt scheint es sogar dass eine R9 290 für 300€ einer GTX 980 Ti für 600 € überlegen nur weil die ACEs in der Architektur fehlen und über eine Software Lösung ergänzt werden müssen ? ^^

Das ist schon ziemlich schwach.
 
@ampere: Lesen kannst du schon? "NVidia hatte die letzten Jahre nunmal die schnellsten HighEnd-Chips"

GTX 580 war der Gegner der HD 6950 und ist schneller. GTX 680 war der Gegner der 7950GHZ und ist schneller. GTX 780 Ti war der Gegner der 290x und war auch schneller. GTX 980 Ti ist der Gegner der Fury X und ist stand jetzt auch schneller.

Sollten mehr DX 12 Spiele kommen und die Probleme hier bestätigen, dreht sich das Blatt. Passiert, ist halt so. Mal war AMD schneller, mal NVidia. So ist das Hardwareleben. Früher war AMD definitiv besser, dann NVidia. Wenn jetzt wieder AMD besser wird habe ich kein Problem damit, kommt halt eine AMD-GPU.
 
Zuletzt bearbeitet:
ampre schrieb:
@Pisaro

Wo hat nvidia die schnellsten chip? Zurzeit macht sich AMD dran mit einer 290x die gtx980 zu überholen. die 780ti und 680 können schon lange nicht mehr mit amd 280x und 290x mithalten. Wo ist da die Nvidia Performance. Bei Nvidia kauft man immer 2 mal um mithalten zu können.


Irgendwas hast du nicht richtig verstanden :)

https://www.computerbase.de/2015-08...karten-von-r7-360-bis-r9-390x-im-vergleich/2/


ampre schrieb:
Na ja es kommt vom einen Dev direkt von Oxid. Wenn die sowas posten dann sollten sie sich im klaren sein das es stimmen muss. Nicht alleine die Regresszahlung an Nvidia wenn die das gelten machen wegen Falschaussage.

Die können sagen was Sie wollen da sie pro AMD sind.Rate mal wo da Geld geflossen ist.Mantel Vorzeigetitel.Wohl gemerkt war Mantel sonst ein Witz und Ich hatte in BF4 nur Ärger damit.
 
Meine Meinung:
Das nVidia die AMD-Werbebotschaft Async-Computing nicht schmeckt ist evtl. noch logisch,
ABER warum zum Henker machen die SO EINEN BOCK in den Treiber,
wo doch jeder Programmierer sich spätestens ab DX12 auf die Reports des Treibers 100% verlassen können muss ???

Wenn die Programmierer es genau wissen können sie ja auch vor Beginn an für nVidia optimieren.
Also das Vorgaugeln von Features wird auffallen !!!

Meine Frage:
Ist async-Computing ein MUSS um die DX12 Feature-Levels zu erfüllen oder nur eins der Zusatzfeatures (also ein KANN) ??

Ich habe bei Microsoft nix dazu gefunden außer das Binding an sich, aber Async-Compute wird nicht erwähnt.
 
Nai schrieb:
Mein Ziel wäre es gewesen, nicht einfach die Informationen wie es von vielen hier so gerne gemacht wird blind zu übernehmen, sondern ersteinmal genau nachvollziehen was Oxide abgefragt hat, bzw. wie genau das abgefragte definiert ist.

Das ist was, was ich von Nvidia erwarten würde: Ein klares Statement, was Oxide falsch gemacht haben könnte und wie man es aus Nvidias Sicht verbessert.

Bis jetzt ist außer Gemecker von Nvidia nichts gekommen.

Die Antwort, warum, steht vermutlich in Post #34 von aivazi.
 
Zuletzt bearbeitet:
Cherrycoce schrieb:
"konnten zunächst" erweckt für mich den Eindruck als hätte Nvidia bereits wieder aufgeholt. Sehr unglückliche Wortwahl imo.


Hier kommen auch immer wieder welche mit dem Argument, dass bis dx12 games draußen ist nvidia eine gute dx12 Architektur vorzuweisen hat (pascal). Was ist denn mit den MILLIONEN von Kunden die ihre Grafikkarten 2012/2013/2014/2015 und Anfang 2016 gekauft haben/werden? Nicht jeder kauft sich eine GPU jedes Jahr wie in Foren wie hier immer suggeriert wird. Der Großteil nutzt sie wahrscheinlich für mehr als 4 Jahre und denen wollt ihr ernsthaft erzählen "dann kauf doch pascal, die kann dx12". Was ist denn das bitte für ein dämlich Argument??

Man liest doch in jeder zweiten Kaufberatung etwas von "zukunftssicher bitte" und jetzt soll das laut einigen plötzlich egal sein?

Was soll dieses getralala? Man ist nicht gezwungen auf dx12 umzusteigen.
 
Nvidia schafft das schon, einfach per Gameworks in den passenden Spielen 2 neue unnötige Tessalation Stufen eingebaut die AMD Karten bremsen und man ist trotz mieser Async Compute Leistung wieder gut dabei. :evillol:

Es ist aber interessant das die DX12 Vorzeigekarten eines der Hauptfeatures in Hardware nicht ausreichend unterstützen während es bei den AMD seit 2011 möglich ist. Wer sich eine Maxwell Karte wegen möglicher DX12 Überlegenheit gekauft hat steht jetzt dumm da falls es in weiteren Spielen genauso aussehen sollte.

Die 28nm Karten beider Hersteller scheinen ja für DX12 nicht wirklich ausgereift zu sein, da lohnt es sich wohl doch eher auf die 16nm Karten zu warten wenn man wirklich sowas wie Zukunftssicherheit will.

hardwareguru schrieb:
Die können sagen was Sie wollen da sie pro AMD sind.Rate mal wo da Geld geflossen ist.Mantel Vorzeigetitel.Wohl gemerkt war Mantel sonst ein Witz und Ich hatte in BF4 nur Ärger damit.

Wirklich? Das Maxwell Architektur bedingt ein Feature absolut mies umsetzt liegt jetzt daran das AMD den Entwickler eines Spiels bezahlt haben soll? Meinst Du das wirklich ernst?
 
Zuletzt bearbeitet:
Zurück
Oben