• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2: Neuester Patch beschleunigt RX Vega um bis zu 22 Prozent

Ich würde mal sagen die ganze Crysis Reihe ist Buggy:
Hier CRYSIS 3 man achte auf die FPS
4k
4k.jpg
600
786.jpg

Je niedriger die Auflösung um so niedriger die FPS? Eindeutiger Hinweis das hier was mit dem LOD und dem Culling nicht funktioniert. Würde mal tippen das sich dann viele Polygonen ein Pixel teilen und das einfach nur mühselig ist das auszusortieren.
 
Zuletzt bearbeitet:
Das Monopol ist längst besiegelt.

Blah blah blah, programmier doch selber mal, dann weißt du vielleicht wie mühselig es ist und dass man sich aus Entwicklungskostengründen entscheiden muss für welche Hardware man programmiert. Du merkst doch hoffentlich selber wie es langsam immer besser wird mit der Ausnutzung von neuer AMD Hardware (Ryzen, Vega). Es geht doch spürbar vorwärts!
Kein Plan warum man da trotzdem so pessimistisch sein muss?
 
duskstalker schrieb:
im gaming segment gibts genau eine anwendung für high poly modelle

Solange die triangles des 3d models später nicht kleiner als ein Pixel sind, sondern etwas größer und man nahe ran geht ist das schon schön anzusehen.
Ich versteh nicht wo dein Problem dabei ist. In Crysis 2 hat mans halt teilweise übertrieben okay.

nvidia ist immer wieder dadurch aufgefallen, durch softwaremanipulation (treiber, benchmark) ihre karten in ein besseres licht zu rücken.

Falsch. Nvidia hat die bessere Tesselationseinheit und deswegen ist Nvidia auch schneller.
AMD muss also nachbessern.

und jetzt haben sie gameworks - die effekte sind offensichtlich und trotzdem wird das noch bestritten?

Welche Spiele hamm denn Gameworks? Kaum welche. HBOA+ läuft auf AMD und Nvidia gleich.
Tesselation wie in Witcher is ein Performanceproblem bei AMD. Ok 32x hätte auch gereicht aber x64 liefert die beste Qualität auch wenn die Unterschiede gering sind.

und ja - eine so übertrieben aufgebohrte tessellationseinheit in den nvidia gpus ist für nix anderes da als missbrauch.

So eine sinnlose Implementierung wie RapidPackedMath oder proprietäre Features ala Shader Intrinsics (hoffentlich richtig geschrieben) sind für nichts anderes da als Missbrauch oder Async Compute, anstatt die Auslastung der shaderunits auch auf normalem Wege zu erreichen.
Supa... funktioniert überall gleichmassen. Könnte man sich n ganzn Tag aufregen drüber.

nvidia sitzt bei crytek im studio und sagt, wie was gemacht werden soll.

Aluhut lässt grüßen. Entwickler stellen das so ein wie sie wollen.

hier gibts absolut nichts am detailgrad auszusetzen, obwohl das modell sehr sparsam umgesetzt ist,

Geschmackssache. Tesselation könnte das alles noch deutlich verbessern.
Wirkt an vielen Stellen kantig und unnatürlich.

einfachstes mittel sind die CB benches. man muss halt die augen aufmachen.

Was immer du da sehn möchst. Ich sehs ned.
 
gerdb schrieb:
Blah blah blah, programmier doch selber mal, dann weißt du vielleicht wie mühselig es ist und dass man sich aus Entwicklungskostengründen entscheiden muss für welche Hardware man programmiert. Du merkst doch hoffentlich selber wie es langsam immer besser wird mit der Ausnutzung von neuer AMD Hardware (Ryzen, Vega). Es geht doch spürbar vorwärts!
Kein Plan warum man da trotzdem so pessimistisch sein muss?

Das hat wenig mit Blabla zu tun.
Eine Hand voll Spiele laufen nun Verhältnis mäßig gut auf Vega während alle dx11 Spiele schleichen.

Nvidia hat nun 83% Anteile bei Steam, und die meisten spiele kommen immer noch mit DX11.
Der d-GPU Markt ist gefick wie zu Zeiten von Bulldozer die CPU sparte.
Es sind einfach Tatsachen derzeit.
Auch ist hardware so teuer wie schon lange nicht mehr, da lohnt fast der kauf einer PS4Pro oder der neuen Xbox mehr.

Einzig die Intel CPUs mit Vega und AMD APUs sind ein Lichtblick um breit im markt vertreten zu sein und Optimierungen zu forcieren, aber selbst dann wird vega10 schon veraltet sein wenn mal endlich nur Vulkan/DX12 Games mit NCU Optimierungen kommen....
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Pleasedontkill
Gschwenni schrieb:
Solange die triangles des 3d models später nicht kleiner als ein Pixel sind, sondern etwas größer und man nahe ran geht ist das schon schön anzusehen.
Ich versteh nicht wo dein Problem dabei ist.

du siehst vom polycount hinter so gut wie nichts - der großteil dessen, was du siehst, ist die normal map. das was wirklich zählt ist die auflösung der texturen, vorallem der normal maps. die geometrie muss einfach nur ausreichend sein.

mein problem ist, dass der nutzen von tessellation in crysis 2 zu 90% nicht vorhanden ist, aber viel leistung schluckt. crysis 2 ist ein extremes beispiel - batman arkham origins ist aber genau das selbe.

hier noch aus alien vs predator

QlYPUIq.jpg


tessellation bläst hier nur die subdivisions auf - die kanten und ecken bleiben. das ist sinnlos.

Gschwenni schrieb:
Falsch. Nvidia hat die bessere Tesselationseinheit und deswegen ist Nvidia auch schneller.
AMD muss also nachbessern.

https://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/
https://www.tweaktown.com/news/5238...480-image-quality-controversy-aots/index.html
http://www.pcgames.de/The-Witcher-3...ft-Nvidia-mit-Gameworks-Sabotage-vor-1159707/
http://www.tweakpc.de/news/13799/assassins-creed-directx-10-1-wird-abgeschaltet/
https://www.computerbase.de/2008-05/assassins-creed-bekommt-kein-d3d-10.1-mehr/


natürlich hat nvidia die bessere tessellationseinheit, die stecken auch dahinter, wenn tessellation in so einem extremen umfang verwendet wird :freak:

mit tessellation wird zu 90% unfug getrieben. das sieht man schon daran, dass die performance bei amd karten deutlich ansteigt, wenn man tessellation auf 8x oder 16x begrenzt, aber die bildqualität gleich bleibt.

ist im andromeda benchmark auch genau so von CB zu lesen.


Gschwenni schrieb:
Welche Spiele hamm denn Gameworks?

CB parkour:

anno: tessellation
dishonored: tessellation
ghost recon: tessellation + nvidia gras
mafia 3: tessellation
mass effect: tessellation
rise of the tombraider: HBAO+
shadow warrior: HDR
the witcher: hairworks / tessellation
titan fall 2: HBAO+
watch dogs 2: tessellation

manche haben noch fxaa und andere teile von gameworks, aber ist auch schwer herauszufinden, was wo drin ist.

Gschwenni schrieb:
So eine sinnlose Implementierung wie RapidPackedMath oder proprietäre Features ala Shader Intrinsics (hoffentlich richtig geschrieben) sind für nichts anderes da als Missbrauch oder Async Compute, anstatt die Auslastung der shaderunits auch auf normalem Wege zu erreichen.

:freak: rapid packed math, async compute usw. sind neue technologien, die helfen moores law abzuschwächen, in dem man vorhandene ressourcen effizienter nutzt - kleinere fertigungen und die daraus resultierende höhere leistungsfähigkeit stagniert mittlerweile so stark, dass man andere methoden sucht, um mehr leistung zu bekommen - ist bei den cpus mit der "flucht in die kernzahl" genau so zu beobachten.
die auslastung der shader macht nvidia in DX11 über einen software scheduler, der gut funktioniert, aber nur eine unzulänglichkeit in DX11 ausgleicht.

die zukunft ist vulkan, mit allen features, die die API unterstützt.


Gschwenni schrieb:
Aluhut lässt grüßen. Entwickler stellen das so ein wie sie wollen.

https://www.extremetech.com/extreme...rps-power-from-developers-end-users-and-amd/2

AMD attempted to provide Warner Bros. Montreal with code to improve Arkham Origins performance in tessellation, as well as to fix certain multi-GPU problems with the game. The studio turned down both. Is this explicitly the fault of GameWorks? No, but it’s a splendid illustration of how developer bias, combined with unfair treatment, creates a sub-optimal consumer experience.


Gschwenni schrieb:
Geschmackssache. Tesselation könnte das alles noch deutlich verbessern.
Wirkt an vielen Stellen kantig und unnatürlich.

geschmackssache? ist ne gebrochene wasserleitung auch geschmackssache?
das modell + shader maps ist sehr gut. tessellation macht da "garnichts", genau so wies bei crysis 2 "nichts" macht.
in der theorie ist tessellation eine gute technologie, aber niemand braucht n ziegelstein mit 10.000 polys. tessellation würde mit deutlich weniger polys auch schon was bringen - und das an ausgewählten stellen eingesetzt und niemand beschwert sich. aber tessellation über die gesamte szene verteilen, an den unwichtigsten stellen, ist einfach für die tonne.

tessellation als LOD (level of detail) technologie, für sand oder schnee und für wasser (wo man es sieht) macht das sinn. bei den haaren muss man wohl gucken, ob hairworks oder tressFX besser ist, allerdings ist tressFX hier wohl fairer, was die leistung angeht (kostet auf beiden marken gleich viel).

Gschwenni schrieb:
Was immer du da sehn möchst. Ich sehs ned.

vergleich nvidia gesponsorte titel vs freie.
 
Danke duststalker für deine gehaltvollen und informativen Beiträge und Links.

Schade das sowas fast immer seitens der Community kommt und von den Redaktionen, welche sich schließlich einem journalistischen Hut aufgesetzt haben, eben nicht.
Wer jetzt noch immer das Gegenteil behauptet ist wohl auf beiden Augen grün.

Wenn man sich die Beiträge und Links liest, dem fällt es ja wohl auf.
 
@Volkimann

Tja CB halt.

@Gschwenni
Die ganzen Tesselation einheiten sind einfach nur Verschwendung von Chipfläsche die man z.B. für zusätzliche Sahder oder andern Kram verwenden kann. Deshalb ist so was wie es Nvidia Treibt ein Herber verlust für den Kunden.
 
Gameworks braucht kein Mensch. Es ist teuer, auch für Nvidia Nutzer (auch deswegen frage ich mich immer wieder wie man das gutheißen kann, ohne die aktuelle Topdogkarte ist eh für die meisten schlicht nicht nutzbar, siehe die Einbrüche in Starwars bei den Nvidia Schatten) für die Optik die geboten wird. Das können andere Engines besser und billiger.
 
Artikel-Update: ComputerBase berichtete über möglicherweise auftretende Grafikfehler auf Nvidia-Grafikkarten mit dem neusten Patch. Nach der Installation des GeForce 388.31 sind diese verschwunden und die zuvor schwarzen Stellen werden nun wieder korrekt dargestellt. Damit ist die Bildqualität wieder vergleichbar mit der einer AMD-Grafikkarte.
 
Ich halte es für ein höchst verräterisches Ergebnis, das hier von Computerbase präsentiert wird. Man kann nur hoffen, dass die Redakteure nicht aus Arizona stammen.
 
ampre schrieb:
Die ganzen Tesselation einheiten sind einfach nur Verschwendung von Chipfläsche

Nein, ganz im Gegenteil!
Das ist sehr weise eingesetzte Chipfläche, die dazu dient sowohl alle Modelle des Wettbewerbs schlecht aussehen zu lassen als auch eigene ältere Modelle total veraltet dastehen läßt. Das hat den eigenen Umsatz stark angekurbelt.
Und die verar... äh übers Ohr gehauene Kundschaft freut sich auch noch darüber wie kleine Schneekönige...
Also alles richtig gemacht!
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Was den AMD-Karten fehlt sind die ROPS. Hätte Vega 96 ROPS würde die Welt vielleicht anders aussehen. Dann wäre die Texelfüllrate in etwa bei der 1080Ti und die Leistung auch.
 
Kabelkasper schrieb:
Was den AMD-Karten fehlt sind die ROPS. Hätte Vega 96 ROPS würde die Welt vielleicht anders aussehen. Dann wäre die Texelfüllrate in etwa bei der 1080Ti und die Leistung auch.

Pixelfüllrate meinst du wohl. Die Pixelfüllrate der Vega 64 liegt nur bei 2/3 einer 1080 Ti, während die Texelfüllrate fast gleich ist.
 
Btw. RapidPackedMath ist keine Zaubertechnologie, sondern einfach nur 2 FP16 Operationen statt einer FP32 pro Takt.
 
Zuletzt bearbeitet:
Nice Patches. Von Patch zu Patch wird AMD schneller und NV langsamer.

So offensichtlich macht das nicht einmal NV in deren Games :-P
 
Wieso nicht schon gleich so zum Anfang, die Herren Entwickler/Bethesda :confused_alt:, so hat sich die Rohleistung der unoptimierten Erstversion schon in den Köpfen fest gesetzt und man kann nur hoffen, dass die gepatchten Leistungsdaten auch Ihren Weg in den GPU-Ranglisten-Vergleich (bei CB) finden.

So ist Wolfenstein II jetzt dann doch noch zum vollwertigen Vorzeigespiel für AMDs/RTGs RX Vega GPU-Halbgeneration geworden, bleibt die Hoffnung, dass noch mehr Titel so gut auf die RX Vega Architektur optimiert werden, bevor dann Ende März schon nVidias Ampère auf den Markt geworfen wird (hoffentlich nicht wieder ein weiterer getunter Maxwell Shrink à la Pascal, sondern mit wirklichen/sinnvollen Architekturneuheiten/-Verbesserungen mit vollwertiger DX12.1 Tier und Async Compute Unterstützung).
 
Zurück
Oben