News Nvidia setzt auf effizienteres DirectX 11 statt Mantle

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.907
Gespannt Gespannt! AMD hat das RAD zum Bewegen gebracht, mich erfreut es so sehr das endlich Bewegung reinkommt.
Wir haben alle genug Rechenpower und diese muss einfach mal effizienter genutzt werden. :king:
 
Für 130€ mehr bekommt man also eine schnellere Grafikkarte... okay?! Im Westen nix neues...
Interessanter wäre doch was man an "mehrleistung" für das gleiche Geld bekommt Nvidia ;-) Aber okay
 
Denen geht wohl der Arsch auf Grundeis^^
 
Sieh an siehn an...was denn nun plötzlich alles möglich wäre, sogar ohne Low Level API und DX12...Sachen gibts. Schade nur dass immer erst der Underdog aufzeigen muss, was möglich wäre.
 
Bei Konsolen musste was für die Optimierung getan werden um jedes Quäntchen herauszuholen... Wird auch mal zeit das die Schlampen etwas Druck bekommen und es mal nötig sehen, die scheinbar unsauber programmierten Treiber etwas besser Pflegen.
 
Geil... auf einmal wird künstlich beschnittene Leistung freigeschaltet und es geht 1/3 schneller.... so wird auch klar warum bei weniger Stromaufnahme die Leistung eklatant steigen kann...
:)

Es wird langsam immer klarer, warum ältere Karten wie meine GTX 560ti von Test zu Test schlechtere FPS haben als zu ihrem Erscheinen.
Wäre übrigends interessant solche Karten wie die GTX 560ti in den Parcour mit aufzunehmen.
Viele Spiele sind ja noch DX 9, weit mehr als D10.1/11 und überdies würde sich die ganze Zurückrechnerei erübrigen.
Ich glaube es haben weit mehr Leute Karten in der Baureihe GTX 4/5 und ATI 5/6als Karten mit Release 2013/14.
 
Warum hat Nvidia nicht gleich seine Treiber besser optimiert?

Getreu dem Motto "Ein Pferd springt nur so hoch wie es muss, aber nicht wie es kann", ein anderer Grund fällt mir nicht ein.
Jetzt wo Mantle in Fahrt kommt, geht Nvidia der Popo auf Grundeis...
 
Dann schreib ichs hier nochmal.

Es wäre zu wünschen wenn CB den Treiber ausgiebig testet. Es liegt der Verdacht nahe, dass man bei Nvidia neben einer teuren und starken CPU vor allem bei Thief ein Setting im GPU-Limit gewählt hat (Auflösung > Full HD was die FPS nahelegen), bei dem eine API die vornehmlich die CPU entlastet (mantle) natürlich nichts bringt (aber das hat auch schon der CB Test gezeigt). Ein Hinweis darauf: Warum wurde denn bei dem Thief Bench auf einmal die Werte von der AMD in DX weggelassen? Ich nehme stark an, dass dieser den Werten von Mantle entsprochen hätte.

Und wie Nvidia es geschafft hat bei der Star Swarm TechDemo ein vergleichbares Szenario hinzubekommen belibt auf ewig deren Geheimnis.

Marketing at its best schade dass sich CB hier völlig unkritisch vor den Karren spannen lässt. Das hat PCGH besser gemacht.
 
Zuletzt bearbeitet:
Komisch das doch angeblich Microsoft und nvidia seit 4 Jahren gemeinsam an DX12 arbeiten und genau das Reduzieren wollen.
Und jetzt macht nvidia das im Alleingang mit DX11?

Pfff, wers glaubt. Einfach nur Marketing Geblubber um im Gespräch zu bleiben und zu sagen wir tun auch was... :rolleyes:
 
Wahrscheinlich schafft auf diese Weise die 130€ teurere Nvidia Karte unter 1080p mit i7 annähernd die gleiche Leistung.

Ich halte das für reines, leeres Pressegelaber.
 
r4yn3 schrieb:
Sieh an siehn an...was denn nun plötzlich alles möglich wäre, sogar ohne Low Level API und DX12...Sachen gibts. Schade nur dass immer erst der Underdog aufzeigen muss, was möglich wäre.

Ka wo du bisher gelebt hast aber in der Welt in der ich mich bewege gab es immer Treiber Optimierungen. In quasi jedem Treiber Chance Log liest du von Verbesserungen. Das ist so neu wie Grafikkarten Treiber.
 
Die Y Achse ist mal lustig beim Mantle Graphen. Optisch sieht es viel aus. Sind aber im Optimalfall ganze ~3fps:)
 
terraconz schrieb:
Ka wo du bisher gelebt hast aber in der Welt in der ich mich bewege gab es immer Treiber Optimierungen. In quasi jedem Treiber Chance Log liest du von Verbesserungen. Das ist so neu wie Grafikkarten Treiber.
Die Treiberoptimierungen wo es heißt, in Spiel X mit Karte Y bis zu Z mehr Performance? Klar, kann ich ja dann pauschal sagen ich hab in einem Spiel Z mehr FPS...wenn man sich die letzen Treibertests bei CB ansieht, sieht man ja dass man sich im Schnitt auf 1-2% Unterschied bewegt..
Ausnahmen gibts nur, wenn ein neues Spiel erscheint, welches noch nicht mal Ansatzweise optimiert wurde.
Aber gerne lass ich dich in deiner Welt, wo man Blind dem Marketing vertrauen kann...vorallem Nvidias :rolleyes:.
 
Zuletzt bearbeitet:
Na da bin ich mal gespannt wie n Pfitschipfeil ;)

Glaube zwar persönlich, das auch ein optimiertes DX11 keine Bäume ausreissen wird, aber mal abwarten. Würde uns ja allen zugute kommen, wenn sich auch in diesem Bereich etwas ändert.

LG Ben
 
Die Treiber zu pflegen und zu optimieren ist heutzutage wohl ein ähnlicher Auswand, wie die Entwicklung der Hardware selbst. Man muss ja nur mal in die Changelogs schauen (bzw. es auch selbst merken beim Zocken) das immer kleine Verbesserungen vorgenommen werden, und die Leistung über einige Treiberrelases schon mal im zweistelligen Prozentbereich steigen kann.

Das ist nicht neu, aber jetzt kann man es halt wunderbar wieder mit viel Marketingtamtam preisgeben ;)
 
Marketinggeblubber par ecxellence. Nvidia kann mit der Leistungsteigerung von Mantle nicht mithalten und jetzt kommen sie mit einem Szenario, wo sie "angeblich" schneller wären. Und die Fanboys werden sich drauf stürzen und die Nvidia-Krone hochhalten und Mantle totreden :/

Brace yourself, BS is coming :D
 
ah ja, und da kommen die erst jetzt drauf ...
 
Für mich klingt das eher nach Werbung um irgendwie "nachzuziehen" und im Nachhinein stellt sich das als Mogelei im Treiber raus , sowas gabs doch vor Jahren schon.
 
Ist klar die haben sich nie viel um den CPU Overhead gekümmert, weil in Benchmarks sowieso immer mit übertakteten High End CPUs bzw. extrem hohen Auflösungen getestet wurde, da man immer davon ausgegangen ist, dass es hier keinen nennenswerten Unterschied gibt.

Ich denke, dass in Zukunft bei den Grafikkartentest auch immer ein Zusatztest mit schwacher CPU gemacht werden muss, besonders bei den Mittelklassen Grafikkarten. Wer steckt schon eine R7 260 in ein System mit einem 4770K mit 4,4GHz, wenn es ihm hauptsächlich um die Spiele Performance geht.
 
Zurück
Oben