• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forza 7 Benchmark: Vega hat mehr Benzin im Blut als Pascal

modena.ch schrieb:
@SimsP
Da wäre mal ein Sheduler on Hardware
oder die Fähigkeit Grafik und Compute Berechnungen ohne Content-Switch abzuarbeiten.

Und natürlich noch ein paar Kleinigkeiten für vollen DX 12.1 Support.

Welchen Teil des Schedulers genau meinst du? Letztlich erledigt jede Grafikkarte einen gewissen Teil des Scheduling in Hardware und in Software.
Parallele Berechnungen von Compute und Grafik sind auch seit Maxwell schon möglich. Soweit ich weiß wurden sie im Treiber nur blockiert, vor allem da das Scheduling noch statisch ablief und dementsprechend die Gefahr bestand, dass viele SMs die viel Zeit mit Nichtstun verbringen würden.
Seit Pascal gibt es aber ein dynamisches Scheduling und damit auch funktionierendes Async Compute. Sieht man übrigens auch in allen möglichen Benhmarks.

Für DX12.1 braucht man meines Wissens vor allem zwei Features: Raster Order Views und Conservative Rasterization. Beides können GeForce Karten meines Wissens nach schon seit Maxwell 2.
AMD unterstützt die Features erst seit Vega. Sind also alle AMD Karten vor Vega in deinen Augen auch nicht DX12 fähig?
 
@tek9
Die Aussage ist deswegen kein Quatsch, weil die AMD Karten auch in praxisnahen Szenarien auf Computing- Ebene die Kerne Ausspielen kann und dies in Mehrleistung umgemünzt wird. Die höhere Shaderzahl verpufft also nicht.

Wenn diese Rechneleistung also vorhanden ist und diese in Spielen nicht effektiv in FPS umgesetzt werden kann, dann gibt es einen architektonischen oder Softwareverschuldeten Flaschenhals.

Das Beitragsniveau sinkt gegen 0, weil hier zum 500.000.00 Male wieder ein Markenkrieg geführt wird. Die eine Seite sieht die Vega 64, wie diese in zukünftigen Spielen mit den Pascals dieser Welt den Boden aufwischt. Dann beherrscht Pascal plötzlich kein DX 12 mehr, dann irgendwann nur noch durch Softwareemulation...
Wie kann man nur so viel Mist schreiben, obwohl einen die Information im Internet geradezu auf die Nase gebunden wird?

Mensch Leute- Jeder hat hier im Netz inzwischen Zugriff auf hunderte von Tests. Man kann doch garnicht so verquert sein und den Schnitt dieser Test, also die aktuelle Realität so fehlzuinterpretieren...

@Hollomen
ohne den Druck durch Vulcan wäre MS gar nicht mit dx12 gekommen.
https://blogs.nvidia.com/blog/2014/03/20/directx-12/

Artikel vom 20.März 2014:
Our work with Microsoft on DirectX 12 began more than four years ago with discussions about reducing resource overhead....

Somit ist die Aussage schlichtweg falsch. Die Drawcall- Problematik und der Wunsch nach größerer Einflussnahme auf die Grafikhardware war schon lange ein Thema. Auch ohne Vulcan.

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
@tek9
Die Aussage ist deswegen kein Quatsch, weil die AMD Karten auch in praxisnahen Szenarien auf Computing- Ebene die Kerne Ausspielen kann und dies in Mehrleistung umgemünzt wird. Die höhere Shaderzahl verpufft also nicht.

Wenn diese Rechneleistung also vorhanden ist und diese in Spielen nicht effektiv in FPS umgesetzt werden kann, dann gibt es einen architektonischen oder Softwareverschuldeten Flaschenhals.


Die Aussage ist Quatsch weil Spiele wie Forza belegen das lediglich die Software stimmen muss um die Leistung auf die Straße zu bringen.

Das hier zu viel Fanboy geblubber durch den Wald rauscht und mal wieder kräftig virales Marketing betrieben wird, lässt sich leider nicht von der Hand weisen.
 
@tek9

Meine Aussage:
...dann gibt es einen architektonischen oder Softwareverschuldeten Flaschenhals

Deine Aussage:
...Die Aussage ist Quatsch weil Spiele wie Forza belegen das lediglich die Software stimmen muss

Somit sage ich das gleiche wie Du und somit ist die Aussage kein Quatsch :)
Esseidenn wir beide reden Blödsinn...

Und wie gesagt- Keiner hier weiss, ob nicht ein Bug, eine Fehlkonfiguration ein Treiberkonflikt oder oder oder die Pascal Karten einbremst.

Es wäre schön, wenn die Entwickler ein Rädchen gefunden haben, dass eine vielleicht brach liegende Leistung der Vega Architektur wecken kann...

Es geht halt nichts über Konkurrenz und Vielfalt für uns Konsumenten.

Grüße
Zero
 
Zuletzt bearbeitet:
Finde es aber auch gut wie du auf dein Vergleich auf RotTR nicht reagierst, und es kommt trotztdem noch so rüber als ob du denkst das es nur ein Spiel gibt wo die Vega besser ist als die 1080 TI.

Vega läuft auf DX12 gegen der TI nur gut wenn Nvidia nicht in jedem einzelnen Spiel ihre Game Works einfügen müssen.
 
Du verdrehst lediglich meinen Beitrag mehr nicht ;)

Wenn du der Meinung bist das dieses Design oder die Software einen Flaschenhals erzeugt, sagst du eigentlich gar nichts aus.

Leider habe ich heute Abend wenig Zeit den Beitrag von Leonidas vom 3dc raus zu suchen, in dem er sehr ausführlich erklärt hat warum AMD mehr einfach gestrickte Shader als Nvidia in ihrem Design verwenden.

Wenn du nicht als Fanboy sterben willst, solltest du dich in die Materie einlesen.
 
Da bin ich ja mal gespannt wie sich Coffee Lake schlägt. Sollte hier auch eher ein Rückschritt erkennbar sein, gehört die Zukunft (DX12, Vulkan) aktuell ganz klar AMD.

Schön zu sehen wie der Underdog auch mal auftrumpfen kann.

Wird wahrscheinlich im Hintergrund noch viel Geld fließen um die Marktmacht von DX12 noch hinaus zu zögern damit die beiden "Großen" weiter besser da stehen.
 
ZeroZerp schrieb:
Wenn diese Rechneleistung also vorhanden ist und diese in Spielen nicht effektiv in FPS umgesetzt werden kann, dann gibt es einen architektonischen oder Softwareverschuldeten Flaschenhals.

Wie ich schon mal sagte, die Karten von AMD sind keine reinen Gaming Karten, auch wenn sie als solche natürlich vermarktet werden.
Sie sind eine notwendige Mischung aus professionellen Karten und Gaming Karten, weil AMD eben nicht die Mittel hat hier zweigleisig zu fahren.

Wer sagt denn, dass die zusätzliche Rechenleistung jemals komplett für Gaming gedacht war?


Und die Aussage von tek9 ist eine andere als deine, denn deine Aussage impliziert, dass das Problem bei einer Inkompetenz von AMD liegt, indem sie entweder in der grundlegenden Architektur oder in ihrem Treiber Mist gebaut haben.

tek9 geht davon aus, dass das Problem bei den Spielen selbst liegt, das ist dann zwar immer noch ein softwareverschuldeter Flaschenhals wie du ihn auch nennst, aber es macht schon einen Unterschied ob dieser AMDs Schuld ist oder nicht.



ZeroZerp schrieb:
Beitragsniveau sinkt gegen 0, weil hier zum 500.000.00 Male wieder ein Markenkrieg geführt wird. Die eine Seite sieht die Vega 64, wie diese in zukünftigen Spielen mit den Pascals dieser Welt den Boden aufwischt. Dann beherrscht Pascal plötzlich kein DX 12 mehr, dann irgendwann nur noch durch Softwareemulation...
Wie kann man nur so viel Mist schreiben, obwohl einen die Information im Internet geradezu auf die Nase gebunden wird?

Mensch Leute- Jeder hat hier im Netz inzwischen Zugriff auf hunderte von Tests. Man kann doch garnicht so verquert sein und den Schnitt dieser Test, also die aktuelle Realität so fehlzuinterpretieren...

Pascal beherrscht nicht "plötzlich" kein DX12 mehr sondern hat noch nie das volle DX12_1 Feature Level unterstützt, mehr wurde hier nicht gesagt und das bleibt auch Fakt.
Und auch das Pascal einen Softwarescheduler besitzt ist auch nicht "irgendwann" sondern schon immer so gewesen.
 
Zuletzt bearbeitet:
Inxession schrieb:
Da bin ich ja mal gespannt wie sich Coffee Lake schlägt. Sollte hier auch eher ein Rückschritt erkennbar sein, gehört die Zukunft (DX12, Vulkan) aktuell ganz klar AMD.

Schön zu sehen wie der Underdog auch mal auftrumpfen kann.

Wird wahrscheinlich im Hintergrund noch viel Geld fließen um die Marktmacht von DX12 noch hinaus zu zögern damit die beiden "Großen" weiter besser da stehen.

AMD gehört die Zukunft ganz sicher nicht, alleine aufgrund ihres recht geringen Marktanteils im Consumer Bereich. Ihr Support und die Optimierung ihrer Treiber sind absolut lächerlich für die Preise die sie verlangen.

Dass sie da ständig ins Hintertreffen geraten sollte klar sein, auch wenn sie sich bei der Hardware alle Mühe geben. DX12 als Standard wird noch dauern, da Spiele eine Entwicklungszeit von mehreren Jahren haben. In 1-2 Jahren sollte DX12 dann mainstream sein.

Was Forza7 angeht, ich habe es mir doch gekauft. Festzustellen sind lauter fehlende Optimierungen. Ganz besonders in der Garage bei der Autoauswahl hat man beim Wechsel zum nächsten Auto 1-2 Sekunden Wartezeit, mit einer neueren Samsung SSD versteht sich. Das hier das Los entscheidet ob AMD oder Nvdia mehr Leistung bietet, sollte auch verständlich sein. Da braucht man AMD nicht loben, denn sie haben in der Richtung nichts spezielles getan.
 
Zuletzt bearbeitet von einem Moderator:
@LyGhT

OK- Ich gehe darauf ein. Die Gameworkseffekte in rottr beschränken sich unter DX12 auf PureHair, welches im Gegensatz zu Tressfx aus dem ersten Teil weder bei AMD noch bei NVIDIA groß auf die Perfomance auswirkt.

Und noch einmal... Es ist verhält sich auch in der Softwarelandschaft wie sonst überall auch: Die Ausnahmen bestätigen die Regel.

Durch diese Ausnahmen dann aber auf eine anrollende Kehrtwende im Leistungspoker zu schließen ist halt einfach vermessen. Da ist der Wunsch der Vater des Gedanken.

@Taxxor
Ich habe unter dem Softwareverschuldeten Flaschenhals aber keine Einschränkungen gemacht. Dazu habe ich zu wenig Einblick, wie das Spiel im speziellen die Kommunikation mit der API regelt. Deshalb ist es so, wie Du sagst und so wie ich es schon oben geschrieben habe.
Da sind unsere Ansichten deckungsgleich.

Grüße
Zero
 
Zuletzt bearbeitet:
rob- schrieb:
AMD gehört die Zukunft ganz sicher nicht, alleine aufgrund ihres recht geringen Marktanteils im Consumer Bereich. Ihr Support und die Optimierung ihrer Treiber sind absolut lächerlich für die Preise die sie verlangen.

Dass sie da ständig ins Hintertreffen geraten sollte klar sein, auch wenn sie sich bei der Hardware alle Mühe geben. DX12 als Standard wird noch dauern, da Spiele eine Entwicklungszeit von mehreren Jahren haben. In 1-2 Jahren sollte DX12 dann mainstream sein.
.

Ausgehend von einer Marktsituation ohne Mining Boom waren die Preise von AMD völlig okay. Für das gleiche Geld mehr VRAM und langlebigere Karten zu erhalten ist schon super.

AMD ist nach Release halt nicht 100 Prozent durchoptimiert und Nvidia pflegt Treiber nur anständig für Karten die nicht EOL sind.

Ergo fällt Nvidia zurück während AMD regelmäßig aufholt.
 
rob- schrieb:
Ihr Support und die Optimierung ihrer Treiber sind absolut lächerlich für die Preise die sie verlangen.

Komm mal im hier und jetzt an. Der Treibersupport von AMD ist mittlerweile mindestens dem von nVidia ebenbürtig. Beide Treiber haben ihre kleinen Makel, aber grundsätzlich laufen sie.

Ich finde es beachtlich das so einige hier meinen, man müsse AMD nicht loben, aber nVidia hat Bugs im Treiber. Keins von beiden trifft zu.

Gelobt werden muss Turn 10 die zeigen was mit DX12 möglich ist, dass nVidia nicht davon profitiert liegt in ihrer Hardware geschuldet.
 
ZeroZerp schrieb:
@tek9
Die Aussage ist deswegen kein Quatsch, weil die AMD Karten auch in praxisnahen Szenarien auf Computing- Ebene die Kerne Ausspielen kann und dies in Mehrleistung umgemünzt wird. Die höhere Shaderzahl verpufft also nicht.

Wenn diese Rechneleistung also vorhanden ist und diese in Spielen nicht effektiv in FPS umgesetzt werden kann, dann gibt es einen architektonischen oder Softwareverschuldeten Flaschenhals.

Das Beitragsniveau sinkt gegen 0, weil hier zum 500.000.00 Male wieder ein Markenkrieg geführt wird. Die eine Seite sieht die Vega 64, wie diese in zukünftigen Spielen mit den Pascals dieser Welt den Boden aufwischt. Dann beherrscht Pascal plötzlich kein DX 12 mehr, dann irgendwann nur noch durch Softwareemulation...
Wie kann man nur so viel Mist schreiben, obwohl einen die Information im Internet geradezu auf die Nase gebunden wird?

Mensch Leute- Jeder hat hier im Netz inzwischen Zugriff auf hunderte von Tests. Man kann doch garnicht so verquert sein und den Schnitt dieser Test, also die aktuelle Realität so fehlzuinterpretieren...

@Hollomen

https://blogs.nvidia.com/blog/2014/03/20/directx-12/

Artikel vom 20.März 2014:


Somit ist die Aussage schlichtweg falsch. Die Drawcall- Problematik und der Wunsch nach größerer Einflussnahme auf die Grafikhardware war schon lange ein Thema. Auch ohne Vulcan.

Grüße
Zero
Ich habe Vulcan als Begriff verwendet, weil damit hier wohl auch die jüngeren Leser etwas anfangen können.
Ok, dann muss ich weiter ausholen... Informier dich hier gern über Mantle, ein AMD Derivat welches in Vulcan mündet.
Das MS keine große Energie mehr in die Weiterentwicklung von DX stecken wollte, war seinerzeit überall zu lesen.
https://de.m.wikipedia.org/wiki/AMD_Mantle
 
Zuletzt bearbeitet:
tek9 schrieb:
Noch so ein Beitrag der gerade mal so auf Knochelhöhe fliegt. Mangelnde Kenntnisse und Fanboy Getue sind wirklich nervig. Man könnte auch 80 Prozent der Beiträge löschen, ohne das eine Information verloren geht.

Wenn du meinst, nur ist der Inhalt deines Kommentars letztlich = 0. Wer im Glashaus sitzt.....

Das hat nichts mit Fanboismus zu tun. Zu dem Zeitpunkt als sich Nvidia entschloss ihren Scheduler umzubauen um sich der Marktentwicklung anzupassen,
GF114, owing to its heritage as a compute GPU, had a rather complex scheduler. Fermi GPUs not only did basic scheduling in hardware such as register scoreboarding (keeping track of warps waiting on memory accesses and other long latency operations) and choosing the next warp from the pool to execute, but Fermi was also responsible for scheduling instructions within the warps themselves. While hardware scheduling of this nature is not difficult, it is relatively expensive on both a power and area efficiency basis as it requires implementing a complex hardware block to do dependency checking and prevent other types of data hazards. And since GK104 was to have 32 of these complex hardware schedulers, the scheduling system was reevaluated based on area and power efficiency, and eventually stripped down.https://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/3
hat AMD sich entschlossen den Markt an die eigene Architektur anzupassen.

Mit Mantle standen die Zeichen noch gut, mit der Idee Mantle aufzugeben und der Hoffnung auf DX12 und Vulkan haben sie sich aber verschätzt und bis heute nicht darauf reagiert. Ich nenne das am Markt vorbei entwickelt. Das iPhone wäre auch kein Erfolg geworden wenn es den iTunes und den Store nicht gäbe. Eine Hardware ohne passende Software ist nun mal wenig wert.

AMD (beziehungsweise ATI) hat hier aber nicht einmal anders gehalten wie sonst. Bei der Physikberechnung haben sie auch auf den Kauf von PhysX durch Nvidia nicht reagiert und gewartet bis Microsoft dafür ihr DirectX entsprechend anpasst. Mit DX12 haben sie sich aber verschätzt, schlichtweg weil DX12 nicht wirklich kompatibel zu DX11 sondern eine großenteils neue API darstellt und deshalb die Entwickler sich nicht wie gewohnt allesamt drauf gestürzt haben.

"Früher" war die Sache halt einfacher. Von DX9 bis zu DX11 war der Code praktisch identisch und wurde nur um neue Features erweitert.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
OK- Ich gehe darauf ein. Die Gameworkseffekte in rottr beschränken sich unter DX12 auf PureHair, welches im Gegensatz zu Tressfx aus dem ersten Teil weder bei AMD noch bei NVIDIA groß auf die Perfomance auswirkt.

Lustig, wie Nvidia Marketing doch greift, denn PureHair hat nichts mit Gameworks zu tun.

https://www.hardwareluxx.de/index.p...-schoen-tressfx-vs-purehair-vs-hairworks.html
Da PureHair von CrystalDynamics selbst entwickelt wurde, gaben die Entwickler noch nicht wirklich viel Informationen preis. Bekannt ist allerdings, dass PureHair technologisch auf TressFX 3.0 basiert und von den Entwicklern selbst noch einmal auf das Spiel optimiert wurde. Auch kann es der Kooperation mit NVIDIA geschuldet sein, dass das AMD-Branding wegfiel.

Purehair wurde mit dem GPUOpen-Programm entwickelt, das Programm welches von AMD als Konter zu Gameworks geschaffen wurde.

Da lässt Nvidia mal wieder Gelder fließen um kein AMD Branding zu haben und alle denken, nachdem sie beim Spielstart nur ein Nvidia Logo gesehen haben, wenn sie in den Optionen gehen PureHair=Nvidia Hairworks
 
Zuletzt bearbeitet:
xexex schrieb:
Mit Mantle standen die Zeichen noch gut, mit der Idee Mantle aufzugeben und der Hoffnung auf DX12 und Vulkan haben sie sich aber verschätzt und bis heute nicht darauf reagiert. Ich nenne das am Markt vorbei entwickelt. Das iPhone wäre auch kein Erfolg geworden wenn es den iTunes und den Store nicht gäbe. Eine Hardware ohne passende Software ist nun mal wenig wert.

weltweit kommen auf jede aktuelle amd grafikkarte (desktop hawaii, fiji, polaris 10/20 und vega) etwa 20 nvidia grafikkarten (steam hardware survey). mit so einem fliegenfurz an aktueller verbreitung machst du mit "software für hardware" überhauptnichts. die RTG ist im gaming sektor im absoluten überlebenskampf. wenn amd mantle behalten hätte, wäre das ding einfach tot. vulkan musste in neutrale hände gegeben werden, damit das ding überhaupt eine chance hat. ohne breiten nvidia support kann man mantle / vulkan direkt einsargen.
 
@Taxxor

...womit dann das Argument rottr unter DX12 auf NVIDIA schneller nur wegen Gameworks dann seine Gültigkeit verloren hätte...

Grüße
Zero
 
tek9 schrieb:
Ausgehend von einer Marktsituation ohne Mining Boom waren die Preise von AMD völlig okay. Für das gleiche Geld mehr VRAM und langlebigere Karten zu erhalten ist schon super.

AMD ist nach Release halt nicht 100 Prozent durchoptimiert und Nvidia pflegt Treiber nur anständig für Karten die nicht EOL sind.

Ergo fällt Nvidia zurück während AMD regelmäßig aufholt.

Das kann man aber so nicht pauschal gelten lassen, sondern hängt vom jeweiligen Kunden-Profil ab. Ich habe bisher keine älteren Karten gesehen, die dann in aktuellen Spielen ein hohes Leistungsniveau erreicht hätten. Ob das Spiel dann noch spielbar für den jeweiligen Menschen ist, hängt von ihm selbst ab. Dem einen reicht eine RX570 von der Leistung her, die ihm auch noch in zwei Jahren ausreicht, weil er mehr Kompromisse eingeht. Der andere Kunde will noch mehr Leistung und ist auch bereit die Karte nach ein bis zwei Jahren wieder gegen ein neueres Modell auszutauschen.

Wenn ich mir die Fury X ansehe. Auf dem Papier hohe Rohleistung, die sie bis heute nicht nutzen konnte und durch die mageren 4GB VRAM bereits heute Probleme bekommen kann. Und jetzt sind wir bereits an einem Punkt, wo man bei AMD die BigChips mit Nvidias Performance-Chips vergleicht.
 
Zuletzt bearbeitet:
zerozerp schrieb:
...womit dann das argument rottr unter dx12 auf nvidia schneller nur wegen gameworks dann seine gültigkeit verloren hätte...

vxao, und du ignorierst trotzdem, dass rottr in DX11, ob mit Gameworks oder nicht, wesentlich besser mit Nvidia läuft, als es im Schnitt der Fall ist und man dies mit DX12 so gut wie aufgeholt hat.
 
Zuletzt bearbeitet:
Zurück
Oben