• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News So viel Leistung kostet Nvidia Gameworks

Daedel,
ich habe ihn sehr wohl verstanden. Gameworks sind Bibliotheken für Effekte. Was passiert wohl, wenn diese deaktiviert und die Ubisoft-Techniken aktiviert werden? Richtig. Danke.

Toms,
deaktiviert man die Gameworks-Effekte in beiden Spielen, hat man eine annährend 1:1 Kopie der Konsolenversion. Das heißt alle Effekte, wie z.B. das SSAO (Screen Space Ambient Occlusion) in AC:U bzw. SSBC (verbesserte Version von Ubisofts SSAO) in Farcry 4 sind auf AMD Hardware optimierte Effekte. Das sind die Effekte, die auch die Konsolenspieler haben.

Und da eine GTX980 in der Konsolenversioneinstellung schon schneller ist, liegt es daher entweder an der besseren Architektur oder an besseren Treibern.
 
@moshimoshi:
Insofern, dass SweetFX im Vergleich dazu kaum Performance kostet (zumindest keine 25-50%) :)


Sontin schrieb:
"...
deaktiviert man die Gameworks-Effekte in beiden Spielen, hat man eine annährend 1:1 Kopie der Konsolenversion...
Das behauptest du :) Weil es schlüssig klingt oder weil du es überprüft hast? Wieso sollte Nvidia eigentlich daran gelegen sein, dass die Games auf den Konsolen gut laufen? Weil sie von AMD sind?
Wer weiß, was außer diesen Effekten sonst noch verbaut ist in der Konsole Version UND der PC Version? ;)
 
Zuletzt bearbeitet:
Nö. Ich muss garnichts behaupten. Ohne Gameworks sind es exakt die Konsolenspiele mit den selben Effekten.

Hier von nVidia(!):
SSBC is Ubisoft's new in-house AO technique, designed for current-generation consoles, where by all reports it performs admirably. Compared to SSAO it is far more accurate, far more stable (fewer temporal artifacts), and shadows fine detail that SSAO leaves untouched.
http://www.geforce.com/whats-new/gu...far-cry-4-nvidia-hbao-plus-ambient-occulusion

Aber wahrscheinlich hat Ubisoft die Konsoleneffekte auf nVidia-hardware programmiert, gell.
 
Sontin schrieb:
Aber wahrscheinlich hat Ubisoft die Konsoleneffekte auf nVidia-hardware programmiert, gell.
Vielleicht hat Ubsoft gar nicht optimiert? Vielleicht hatte Ubisoft z. B. auch gar keine Möglichkeit in bestimmten Bereichen zu Optimieren? (unabhängig davon, worauf sie programmiert haben ;) ) Ich weiß es genauso wenig.
Vertrauen ist immer besser, gell? :)
 
Zuletzt bearbeitet:
Schöner Test zur falschen Zeit. Die Tests müssten nach Release gemacht werden. Nach starker Kritik hat es Ubisoft doch tatsächlich geschafft in ACU im 4. Patch die interne Handbremese zu lösen siehe:

http://ht4u.net/news/30512_ac_unity...erungen_-_insbesondere_amd-grafik_profitiert/

Fakt ist. Nvidia hat damit ereicht was es wollte. Zu Beginn wenn die Spielbenches gemacht werden steht AMD doof da. Wenn jeder das Spiel durch hat und kein Hahn mehr danach kräht, kann man dier Bremse ruhig lösen.

Das gleiche werden wir in allen folgenden GW Titeln beobachten können.

Hättet ihr mal lieber einen aktuellen GW Vertreter genommen:

1.jpg

http://gamegpu.ru/mmorpg-/-onlayn-igry/monster-hunter-online-benchmark-test-gpu.html

Und jetzt behauptet nochmal GW würde AMD nicht ausbremsen.
 
Aha da spiele ich doch lieber auf Xbox, PS als mir so ein Scheiß anzutun.
Der Gaming PC ist für mich gestorben !

Zu OfP Zeiten war alles noch gut !

Jetzt muss man bald für bessere Grafiktreiber 10€ im Monat bezahlen ;) sonnst ruckelt es !
 
Hier wird wieder nichts anderes weiter aufgezeigt das nVIDIA wie üblich schneller ist, bin kein Fanboy ,habe momentan eine R9 290 verbaut.
 
Sontin schrieb:
Nö. Ich muss garnichts behaupten. Ohne Gameworks sind es exakt die Konsolenspiele mit den selben Effekten.

Hier von nVidia(!):

http://www.geforce.com/whats-new/gu...far-cry-4-nvidia-hbao-plus-ambient-occulusion

Aber wahrscheinlich hat Ubisoft die Konsoleneffekte auf nVidia-hardware programmiert, gell.

Die Konsolen haben eigene APIs, die Effekte werden ja über DX11 umgesetzt. Da gibts keine Bevorzugung in irgendeiner Richtung. Es gibt halt nur die Gameworks-Shader, die Ubi zur Verschönerung mit reingebaut hat, damit sich die PC-Version von den Konsolenversionen abhebt, sonst ist das Gemecker ja immer groß in der Presse. Ubi hat diese Spiele in der Tat für die Konsolen entwickelt und lässt AFAIK ein externes Studio die DX11-Version davon umsetzen.
Was Gameworks angeht wird AMD aber mittlerweile sicherlich am Ball bleiben und einfach alle Gameworks-Shader austauschen im Treiber, das ist sicher kein Problem mehr.
Die Godrays sind tatsächlich über Geometrie gebastelt, da sind die AMD-Karten ab Hawaii u.U. im Nachteil ggü. Maxwell (nicht ggü. Kepler). Allerdings ist das auch ne Frage der Zeit, bis AMD hier andere Skalierungsfaktoren erzwingt und das Problem löst. Das fällt da eh nicht auf.

Dai6oro schrieb:
Schöner Test zur falschen Zeit. Die Tests müssten nach Release gemacht werden. Nach starker Kritik hat es Ubisoft doch tatsächlich geschafft in ACU im 4. Patch die interne Handbremese zu lösen siehe:

http://ht4u.net/news/30512_ac_unity...erungen_-_insbesondere_amd-grafik_profitiert/

Fakt ist. Nvidia hat damit ereicht was es wollte. Zu Beginn wenn die Spielbenches gemacht werden steht AMD doof da. Wenn jeder das Spiel durch hat und kein Hahn mehr danach kräht, kann man dier Bremse ruhig lösen.

Das gleiche werden wir in allen folgenden GW Titeln beobachten können.

Hättet ihr mal lieber einen aktuellen GW Vertreter genommen:

Anhang anzeigen 467040

http://gamegpu.ru/mmorpg-/-onlayn-igry/monster-hunter-online-benchmark-test-gpu.html

Und jetzt behauptet nochmal GW würde AMD nicht ausbremsen.

Das war mit den Spielen zu Beginn aber gar keine gute Presse für NV... garnix haben die erreicht bei den Bugorgien von Ubi.
Da war DAI schon erheblich bessere Presse für AMD, denn dort wurde die Mantle-Version ja massiv gelobt von der PCGH beispielsweise (was ich bestätigen kann, habs ja selber).

Mal sehen wir es beim Witcher aussieht. Das dürfte neben dem neuen Batman so ziemlich der einzige große Gameworks-Titel werden (wobei man beim Witcher viele Gameworks-Shader wieder rausgeschmissen oder von vornherein gar nicht eingesetzt hat).
AMD hat hier auch mit Mantle ein erheblich besseres Standing; BF Hardline, MassEffect, StarCitizen uvm werden Mantle-Titel sein. Heiße Kandidaten sind wohl auch ES6, GTA5 und das neue DeusEx.
 
Zuletzt bearbeitet:
Fragt sich halt wie neutral die Engines sind... also wie performant die auf AMD-Karten wäre, wenn Gameworks nicht verwendet werden würde bzw. Ubisoft und Nvidia keine Kooperation hätte.
Dass die Gameworks-Option "abgeschaltet" ist heißt ja längst nicht, dass da nicht trotzdem rumgefuscht wird bzw. das Framework trotzdem nicht irgendwie Performance kostet oder whatever.
 
Sebbi schrieb:
naja da sieht mal wieder wie Nvidia es nötig hat, andere Hersteller auszubremsen, damit die eigenen Karten nicht so überteuert daher kommen und ein besseres P/L Verhältniss haben.

und ja, mir ist das das bashing ist, aber es ist nunmal so wie auch die Nvidia Beführworter nicht abstreiten können!

Auch nicht wie Nvidia es auch schon nötig hatte, bei benchmarks zu schummeln.

Ach bitte, die meisten Vergleichstests werden ohne Sondereffekte gemacht, welcher Vorteil bleibt denn da?
 
zeromaster schrieb:
Ach bitte, die meisten Vergleichstests werden ohne Sondereffekte gemacht, welcher Vorteil bleibt denn da?
viele tester machen welche in unterschiedlichen benchmarks und viele leser achten nur auch die benchmarks mit max einstellungen
 
Mars2k8 schrieb:
Fragt sich halt wie neutral die Engines sind... also wie performant die auf AMD-Karten wäre, wenn Gameworks nicht verwendet werden würde bzw. Ubisoft und Nvidia keine Kooperation hätte.
Dass die Gameworks-Option "abgeschaltet" ist heißt ja längst nicht, dass da nicht trotzdem rumgefuscht wird bzw. das Framework trotzdem nicht irgendwie Performance kostet oder whatever.

Das kann eh keiner mehr nachhalten hinterher. Beide IHVs fummeln sich da im Treiber einen zurecht, da werden massiv Shader ersetzt unter DX11, egal welches Spiel. AMDs Beschwerde über Gameworks ist ja auch gewesen, dass sie es schwerer haben Shader zu ersetzen, weil die den NV Quellcode nicht einsehen können. Also nur um das klarzumachen man hat sich nicht darüber beschwert, dass NV eigene Shader anbietet, sondern nur darüber, dass das Reversengeneering etwas mehr Zeit dauert und man deshalb erst später einen passenden Treiber anbieten kann.

Eigentlich braucht man wirklich eine neue API, um hier wieder etwas mehr Vergleichbarkeit hinzubekommen.

Mod Arse Nulpe schrieb:
Hier wird wieder nichts anderes weiter aufgezeigt das nVIDIA wie üblich schneller ist, bin kein Fanboy ,habe momentan eine R9 290 verbaut.

So formuliert ist das schlicht falsch. Der Eindruck entsteht ja nur, weil NV seit 2013 wieder massiv in die Treiberoptimierung investiert. Wenn wir uns erinnern, war bis Anfang 2013 NV sehr stiefmütterlich bei der Spieleoptimierung und AMD hatte die Nase vorn. Bis zum CEO-Wechsel war das bei AMD der Fall, man hat nicht ordentlich optimiert, Fehler etliche Versionen durchgeschleppt, Linux stiefmütterlich behandelt usw. Erst der Wechsel zu Lisa Su änderte das wieder, denn die hat sofort die Treiberteams massiv aufgestockt und viel Augenmerk auf die Softwareoptimierung gelegt. Nicht umsonst hat AMD jetzt einen Omega-Treiber, der erheblich besser läuft bei vielen Programmen (nicht nur Spielen), alte Fehler behebt und vernünftige Leistung unter Linux bringt.
Offenbar plant AMD sogar, Treiberentwickler für Öffentlichkeitsarbeit zu schulen, um besser mit der Presse und auch Entwicklern/Publishern zusammenarbeiten zu können.
 
Zuletzt bearbeitet:
Mich hätte es mal interessiert wie der Unterschied ist ohne den Omega Treiber und ein äquivalenten Nvidia Treiber mit den 3. Und 4. Patch.

Zum Thema Tesselation soweit ich weiß war doch AMD dort besser oder verwechsel ich das jetzt mit GPGPU Leistung.
 
Ich finde der Text passt nicht so ganz zu den zwei Diagrammen!

Zum einen sieht man deutlich, dass wenn GW ausgeschaltet wird die 290x mit Omega Treiber rund 44% schneller läuft im vergleich zur GTX 980 die bei GW= off nur 28% schneller als mit GW.
Verstehe ich das falsch oder wieso wird das nicht so von CB erwähnt?! Will man hier wieder täuschen? (wie btw: beim PS4 Test von AC Unity..., bei dem in einem mini Satz erwähnt wird, dass es sich um die PS4 Variante handelt und nicht um die hier übliche PC Version)
 
Dai6oro schrieb:
Schöner Test zur falschen Zeit. Die Tests müssten nach Release gemacht werden. Nach starker Kritik hat es Ubisoft doch tatsächlich geschafft in ACU im 4. Patch die interne Handbremese zu lösen siehe:

http://ht4u.net/news/30512_ac_unity...erungen_-_insbesondere_amd-grafik_profitiert/

Daher hab ich einfache Regel: selten AAA-Titel und wenn dann auch nicht zum Release. Die Benches von HT4U kannate ich noch nicht, aber wenn ich in AC:U sehe, dass die R9 290X in 4k auf einmal fast die doppelten Frames hat, kann ich fast nicht mehr an Zufall oder unbewusst schlechte Programierung denken. Wobei bei Ubisoft wohl beides denkbar ist.

Hauptsache, man hat die Leistungskrone in den Releasebenchmarks, fallen genug Leute drauf rein.

Wobei nun auch nicht klar ist, welchen Anteil der Omega da hat. Bei Monster Hunter Online ists aber schon arg verdächtig. Aber gut, wird hier wohl nicht erscheinen das Spiel.
 
Vielleicht ist das auch eine art Racheakt von Nvidia an AMD. Da AMD bevorzugt wurde von SONY und Microsoft bei ihren Konsolen. Es ist bekannt das Nvidia zu viel Geld wollte für ein Grafikchip.
Nvidia schien ja sehr eingeschnappt gewesen zu sein und hat recht schnell die Hardware der neuen Konsolen schlechtgeredet. Sowas hat man zur PS3 nie gelesen oder gehört von Nvidia. Schließlich war da ein Nvidia Grafikchip verbaut.

Ist natürlich alles nur spekulation. Aber will nicht wissen was hinter verschlossenen Türen alles gemacht wird um Konkurrenz auszustechen.

Ansich ist es mir auch völlig wurscht. Solche Titel spiele ich grundsätzlich nur noch auf der Konsole.
 
fox40phil schrieb:
Ich Will man hier wieder täuschen?

Der ganze Test ist aussagelos hätte man sich sparen können.
Das Nvidia schneller ist mit einer GTX 980 kann ich nachvollziehen ist ja auch eine gute Karte aber hier wird nicht aufgeklärt ob was an den Behauptungen was drann ist man hätte auch noch eine GTX 970 mit in den Test nehmen sollen.
So bleibt es eher eine Nvidia Werbung.
Das Nvidia schneller ist.
 
@hrafnagaldr,

bei Monster ist einfach massiv Tess drin. Mittels Treiber kannst du ja die Stufen ändern.
Alte Spiel wie damals bei Crysis und diversen anderen Titeln. Merkt man ja allein an der Katze, wie richtig übertrieben dort Tess rein geblasen wurde :D

@yui,

Rache wegen Konsolen, nein.
Das Spiel hatte Nvidia auch damals drauf siehe oben und auch bei älteren AC-Titeln (Dx 10.1 Geschichte.. ) ;)


@Sephiroth51,

jupp.
Und das neuste Phänomen, mit den GTX 970er was den Speicher betrifft, wo bei 3,5Gb Usage bereits shutters auftreten, wie bei Karten deren Ram voll läuft, als auch durchgehende Ruckler bei nur 3,5Gb obwohl 4GB vorhanden sind... wird noch alles getestet und spekuliert, aber ist schon krass.... wie damals mit der 660 / 660 TI ( Anbindung des Speichers )
Mal sehen was da noch so zu Tage kommt, ob Software oder schlicht: Gewollt, was dann (wenn) wohl daran liegt: http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980 und die 4GB eine Mogelpackung wäre.

https://onedrive.live.com/view.aspx...=file,xlsx&app=Excel&authkey=!ACQg3PNHHXJQ-nc
http://forums.guru3d.com/showthread.php?t=396064
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560256
 
Zuletzt bearbeitet:
Sephiroth51 schrieb:
Der ganze Test ist aussagelos hätte man sich sparen können.
Das Nvidia schneller ist mit einer GTX 980 kann ich nachvollziehen ist ja auch eine gute Karte aber hier wird nicht aufgeklärt ob was an den Behauptungen was drann ist man hätte auch noch eine GTX 970 mit in den Test nehmen sollen.
So bleibt es eher eine Nvidia Werbung.
Das Nvidia schneller ist.

/signed!
Das unterstreicht auch leider den werbenden AC Unity Test.... ich glaube CB hat sich langsam verkauft..
 
Zurück
Oben