News Nvidia GameWorks: Quellcode für HBAO+ und weitere Effekte veröffentlicht

Das ist zumindest mal ein Anfang. Ob das wohl an den Druck durch GPUOpen liegt? :)

Wie dem auch sei, finde ich positiv - mehr Open-Source ist eig. immer eine gute Sache
 
Ein zu begrüßender Schritt.
Wird sich zeigen welche Folgen das haben wird.
 
Ein Schritt in die richtige Richtung. Hoffentlich wird aus dem "bald" kein "nie". :)
Die Tendenz gefällt mir aber!
 
Das doch immerhin etwas da kann man wohl davon ausgehen wenn amd ebenfalls einsehen kann das HBAO+ als standard bald angeboten wird was mir eh lieber ist wenn ich sehe wieviel VXAO an Leistung frisst.
Hairworks in Primal wäre sicher nice gewesen und auch vorhanden wäre es schon offen .
Kann aber auch verstehen das man sich trotzdem ein paar effekte exklusiv vorbehält, immerhin muss dafür ja auch code geschrieben werden.
Wäre so wie wenn Mercedes neuen nanolack entwickelt und den dann freundlich zu bmw und audi rüberschickt damit alle Kunden davon profiteren können und mercedes nicht die bösen sind.
 
sehr guter schritt von nvidea.
Nun muss AMD dann aber auch zeigen das die ihre treiber dahingehend wirklich optimieren können. Wenn ich an die GodRays in FO4 denke ist da noch viel potenzial nach oben!
 
AMD verliert durch HBAO+ ohnehin nicht soviel mehr Leistung als Nvidia. Der Imageschaden wiegt für Nvidia wahrscheinlich schwerer.
 
Oh na sieh mal einer an. Was AMD kann, nämliche eigene Entwicklungen wie TressFX (Purehair) allen zur Verfügung und zur weiteren Optimierung zu stellen, kann Nvidia also auch.

Ich denke das war zuletzt zu viel schlechte Werbung für Nvidia, nach der ganzen Async Compute/DX12 Geschichte, GPUOpen, Purehair was schöner und viel schneller als Hairworks ist, usw. Jetzt hat man wohl gedacht man müsse das Image etwas verbessern und ich bin mir sicher, Nvidia Fanboys werden ihre Firma für diese Aktion vergöttern...

Übrigens VXAO sieht zwar etwas besser aus (was ich nur im direkten Vergleich zu HBAO+ sah), kostet aber absurd viel Leistung.

Der Titel ist übrigens verwirrend, denn der Quellcode für HBAO+ wurde ja (noch) nicht veröffentlicht...
 
Zuletzt bearbeitet:
Den Quellcode für die neuesten GameWorks-Effekte behält Nvidia dagegen noch für sich.
Eh klar, den zu den jetzt offen zugänglichen Techniken, gab es eh schon mehrere Games und mittlerweile laufen AMD Karten eh schon mit diesen Effekten.

Trotz allem, begrüße den Schritt. Umso mehr offene Standards, desto besser!

Nvidia Fanboys werden ihre Firma für diese Aktion vergöttern...
Tuen sie schon, siehe auf wccft ect.
 
Zuletzt bearbeitet:
Gameworks Effekte sind sowieso reinster Crap den die Unreal Engine schon seit Version 3 nativ und ohne entsprechende Performanceverluste umsetzte. Das interessanteste davon ist noch HairWorks (welches natürlich niemals opensource wird), wobei TressFX v3 da sowieso alles in den Schatten stellt.

\OT weißt eigentlich jemand bei CB dass die ersten DX12 API calls gleich wie die von Mantle hießen?

mfg,
Max
 
Jetzt kann AMD gerne die Code-Stellen zeigen wo sie eindeutig benachteiligt wurden. Auf anhieb findet man in github aber keine passenden ifdefs.

max_1234 schrieb:
Gameworks Effekte sind sowieso reinster Crap den die Unreal Engine schon seit Version 3 nativ und ohne entsprechende Performanceverluste umsetzte.

Wie soll man Effekte ohne Leistungverlust zu den ohne Effekte erreichen. Das solltest du uns eimal erklären, denn durch das mehr an Code wird auch die Leistung reduziert da sich die Abarbeitungszeit (wie bei dem jedem imperativen Programm) durch mehr Code der ausgeführt wird, verlängert. Wenn ist nur eine Reduzierung des Aufwands gegenüber einer anderen Effekt-Lösung möglich.

Aber das technische Verständnis brauchen wir ja hier ja überhaupt nicht.
 
Zuletzt bearbeitet:
Was heißt der letzte Dreck? HBAO+ bingt in vielen Fällen doch deutlich bessere Optik. Insgesamt is der Effekt wichtiger als Hairworks oder FressFX in meinen Augen.
 
strex

Man benötigt keine "passenden ifdefs", wenn man mehr oder weniger an Dummy vor sich stehen hat und nicht weiß, wie ein Programm funktioniert. Also was soll die Aussage ?

Den Unterschied wird man sehen, wenn künftig AMD Karten mit den Effekten besser umgehen kann. Aber wie schon oben gesagt, es sind eigentlich Effekte die schon in einigen Games vorgekommen sind und AMD sich schon öfteres beschäftigen musste. Erwarte also nicht so viel Steigerung. Deshalb veröffentlicht NV die neusten Techniken nicht.

the division:
wurde nachgetestet und schon haben die AMD wieder aufgeholt im Game
original.jpg
 
Zuletzt bearbeitet:
Übrigens VXAO sieht zwar etwas besser aus (was ich nur im direkten Vergleich zu HBAO+ sah), kostet aber absurd viel Leistung.
Das war damals bei HBAO+ auch der Fall & kommt Zeit, kommt Performance. Daher kein Grund zur "Panik". Übrigens, ich find es immer wieder herrlich, wenn sich immer wieder die gleichen Stimmen, bei gewissen Themen, zu Wort melden ...^^


edit: @max_1234
Ich warte immer noch auf dein Vid, mit deinem CF-Gespann, deinem Haswell @5,0GHz als auch deinem Philips 4K-Moni ...:evillol:
 
Zuletzt bearbeitet:
pipip schrieb:
strex

Man benötigt keine "passenden ifdefs", wenn man mehr oder weniger an Dummy vor sich stehen hat und nicht weiß, wie ein Programm funktioniert. Also was soll die Aussage ?


Ist aber keine Benachteiligung sondern bei closed source völlig normal. Die nach außen propagierten Schnittstellen sind öffentlich, sieht jeder der mit Gameworks arbeitet, dass kann auch AMD einsehen. Also das ist mal überhaupt keine Begründung.

Es hieß hier immer von dir und anderen, dass diese absichtlich gebremst wurden. Das kann man jetzt aber im Code als reine Lüge identifizieren.
 
Zuletzt bearbeitet:
@Suddi
So wie du, ja das ist herrlich. Hast du nicht noch ein manipuliertes GTX970 Performance Video für mich? Heute ist es so bewölkt, das könnte ich echt gebrauchen.

@strex
GameMurks Effekte nutzen unmengen an Tessellationsstufen, mit denen derzeit nur aktuelle Pascal Karten gut umgehen können. Selbst die Nvidia-eigenen Kepler Karten brechen unter teilweise 64x Tessellationsstufen übelst ein. Jeder GameMurks Effekt nutzt dieses Gimmick, sofern möglich - nicht sofern sinnvoll.

mfg,
Max
 
Zuletzt bearbeitet:
strex schrieb:
Jetzt kann AMD gerne die Code-Stellen zeigen wo sie eindeutig benachteiligt wurden. Auf anhieb findet man in github aber keine passenden ifdefs.

Die Benachteiligung erfolgte bisher immer über lächerlich hohe Tesselationstufen, die keine optischen Vorteile mehr brachten, aber durch die Maxwell architekturbedingt weniger Leistung verloren hat, da brauchts keine Änderungen im Code.

edit: max war schneller :D
 
@max_1234

Macht deine Aussage aber auch nicht richtig, dass die UE dieselben Effekte komplett ohne Leistungsverlust erzeugen kann. Auch der Effekt in mit einem anderen Algo kostet etwas Leistung. Vielleicht weniger als bei NV, aber der kostet immer Leistung. Somit ist die Aussage falsch der kostet gar keine Leistung. Das ist ja nicht so, oder der Turingpreis ist deiner.

max_1234 schrieb:
Gameworks Effekte sind sowieso reinster Crap den die Unreal Engine schon seit Version 3 nativ und ohne entsprechende Performanceverluste umsetzte.

Wenn müsste es heißen im Verhältnis zu NV reduziertem Aufwand und nicht der Aufwand ist 0.
 
Zuletzt bearbeitet:
@max_1234
Ich sag doch, weniger labern & mehr Praxiswerte zeigen, aber daran scheitert es & man blubbert & provoziert lieber ...;-)
Na wenigstens können ja die AMD-User die Tesseeinstellung "regulieren" & NV-User schauen da natürlich doof aus der Wäsche und müssen daher zwangsläufig upgraden. NV will ja neue Karten "an den Mann" bringen & da muss man Begehrlichkeiten wecken und das macht man natürlich, in dem man die vorherige Gen bewusst ausbremst. Tolle Politik ...^^
 
Zurück
Oben