Keine Mikroruckler mit 3 Grafikkarten

@Felixxz21

Du meinst wahrscheinlich Nthusim. Ich benutzte DXTory welches API-übergreifend funktioniert. Kosten: umgerechnet 32 Euro.

Die kostenlosen Alternativen funktionieren mehr schlecht als recht.

VG
 
Zuletzt bearbeitet:
Genau das meinte ich :)
Aber wenns das auch schon für 32€ gibt, ist das sicherlich ne gute Alternative.
 
Felixxz21 schrieb:
[...] benutzen bei Starcraft II 4xAA für die Benches obwohl sie selber schreiben, dass AA in SCII auf einem Treiberhack basiert.
Was ist daran verwerflich? :freak:

AMD wie NV bieten einen Hack, der es ihrem Kunden erlaubt, eine höhere Bildqualität in SC2 zu erzielen und PCGH hat gebencht, welche Fps da am Ende rausspringen ...
 
Verwerflich daran ist, dass nicht die Leistung der GPU gemessen wird sondern die des Hacks. AMD Karten sind dadurch stark im Nachteil, weil der Hack von AMD mehr Leistung kostet. Aber auch nVidia Karten sind im Vergleich zu anderen Spielen im Nachteil, weil auch bei Geforces AA in SCII überproportional Leistung kostet.

Somit wird die Grafikkarte nicht durch sich selbst, sondern durch den Hack limitiert, obwohl man sonst immer versucht externe Limits (-> CPU) auszuschließen.
 
Felixxz21 schrieb:
Verwerflich daran ist, dass nicht die Leistung der GPU gemessen wird sondern die des Hacks. AMD Karten sind dadurch stark im Nachteil, weil der Hack von AMD mehr Leistung kostet. Aber auch nVidia Karten sind im Vergleich zu anderen Spielen im Nachteil, weil auch bei Geforces AA in SCII überproportional Leistung kostet. Somit wird die Grafikkarte nicht durch sich selbst, sondern durch den Hack limitiert, obwohl man sonst immer versucht externe Limits (-> CPU) auszuschließen.
Das ist in diesem Fall schlicht so. Dass AMD-Karten stark im Nachteil sind - dafür gibt's Spiele, wo NV schlechter abschneidet. Wenn AMD nicht will, dass MSAA per Hack in SC2 verfügbar ist, dann können sie es ja aus dem Treiber streichen. Was aber nicht der Fall ist. Außerdem limitiert eindeutig die Grafikkarte, denn unterschiedliche Modelle (eines Herstellers) sind unterschiedlich schnell trotz des gleichen Hacks, auch Overclocking hat Auswirkungen auf die Fps.

Ich kann da bei bestem Willen nichts Verwerfliches dran sehen, wenn AMD wie NV mehr Bildqualität per Treiber anbieten, dies aber mehr Leistung als bei anderen Spielen kostet :freak:
 
y33H@ schrieb:
Das ist in diesem Fall schlicht so. Dass AMD-Karten stark im Nachteil sind - dafür gibt's Spiele, wo NV schlechter abschneidet. Wenn AMD nicht will, dass MSAA per Hack in SC2 verfügbar ist, dann können sie es ja aus dem Treiber streichen. Was aber nicht der Fall ist. Außerdem limitiert eindeutig die Grafikkarte, denn unterschiedliche Modelle (eines Herstellers) sind unterschiedlich schnell trotz des gleichen Hacks, auch Overclocking hat Auswirkungen auf die Fps.

Ich kann da bei bestem Willen nichts Verwerfliches dran sehen, wenn AMD wie NV mehr Bildqualität per Treiber anbieten, dies aber mehr Leistung als bei anderen Spielen kostet :freak:

nVidia ist in keinem Spiel so benachteiligt, wie AMD in SCII + MSAA. Außerdem wäre der Test sinnlos, auch wenn AMDs Hack zu gut funktioniert wie nVidias, einfach weil es ein Hack ist und deswegen die GPU nicht normal aufspielen kann. Die fps sind nicht deswegen so niedrig weil die Grafikkarte zu langsam ist oder die Grafik zu geil, sondern weil MSAA + Deffered Shading in DX9 nicht vorgesehen ist. Die API unterstützt es nicht, der Hack macht es möglich, jedoch zu Leistungskosten die nicht normal sind, einfach weil inofiziell ist und bleibt.

Ich meinte nicht, dass die CPU an sich limitert, sonder das bei SCII die Güte des Hacks limitert, was einem CPU Limit an aussagelosigkeit gleich kommt.

Der Test liefert auf beiden Seiten Leistungswerte die nicht realistisch sind und nicht zum Bild passen, was die GPU in anderen Spielen zeigt. Und da SCII das einzigste Game ist was dieses Manko hat, fänd ichs sinnvoll den Test zu streichen und durch einen realistischeren und aussagekräftigeren Bench zu ersetzen. Denn letzlich sagt der Bench nichts über die Leistungsfähigkeit aus.
Man kann die Rangordnung der GPUs nicht grob, wie bei den meisten anderen Games (und auch Crysis) auf alle Anwendungen projezieren.

Genauso wäre es, wenn AMD ebenfalls einen SSAA Hack für DX10/11 anbieten würde. Diesen könnte man auch nicht testen, weil er durch seine Natur als Hack nicht realistisch funktioniert (wie SSAA unter DX9) sondern z.B. oft heftige Bildfehler produziert und das Bild blurt.

Wird aber langsam ziemlich offtopic, wenn noch Diskussionsbedarf besteht schreib mir ne PM.

@Boxleitnerb

Stimmt eben nicht. Schau mal hier da siehst du das die min fps (=Mikroruckler) bei 3 Grafikkarten um bis 100% höher sind, obwohl die avg fps nur um ca. 35% steigen.
Es gibt einfach nicht mehr so krasse drops wie bei 2 Karten, wo die fps einfach mal von 150 auf 70 fps fallen. Der größte Drop bei 3 Karten ist von 170 auf 150, also praktisch nicht vorhanden. Sieht man in dem Diagramm perfekt.

Natürlich wirds nicht ruckeln wenns von 150 auf 70 fällt, aber bei einem Crysis (z.B. von 60 auf 35) wird man das teilweise extrem merken. Und mit 3 Karten fällts dann halt viell. von 60 auf 50, aber das ist nicht spürbar.
 
Zuletzt bearbeitet:
Nun, das kommt dann auf den Einsatzzweck an, was das für Auswirkungen hat. Du freust dich über höhere fps und es MR vielleicht etwas weniger (oder auch nicht, je nach Spiel).
Ich schalte mehr Bildqualität dazu und bin dann ungefähr bei denselben fps wie vorher (meine Diagramme bei 2 vs. 4 GPUs waren bei denselben fps). Dann mikroruckelt es natürlich mehr, jedenfalls in der Theorie.

Es gibt übrigens auch Leute, die meinen dass z.B. Crossfire auch bei 60fps spürbar mikroruckelt. Ich brauche so oder so einen Limiter. Wenn das Minimum bei ca. 35-40 liegt, habe ich dann keine Probleme. Zusätzlich noch gleichmäßige fps, keine Schwankungen und deutlich geringerer Stromverbrauch.
 
Felixxz21 schrieb:
Der Test liefert auf beiden Seiten Leistungswerte die nicht realistisch sind und nicht zum Bild passen, was die GPU in anderen Spielen zeigt. Und da SCII das einzigste Game ist was dieses Manko hat, fänd ichs sinnvoll den Test zu streichen und durch einen realistischeren und aussagekräftigeren Bench zu ersetzen.
Die Werte sind realistisch für SC2, welches sich extrem gut verkauft und die kommenden Jahre durch Addons und das Battle.net ein sehr gefragter Titel bleiben wird. Ein solches Spiel aus dem Parcours zu werfen, das ist verwerflich.

Davon ab kosten AA-Hacks in diversen anderen Spielen auch sehr viele Fps, Stichwort UE3 (Deferred Rendering ahoi).
 
boxleitnerb schrieb:
Es gibt übrigens auch Leute, die meinen dass z.B. Crossfire auch bei 60fps spürbar mikroruckelt.
Ja, bei mir ruckelt Crysis auch mit 70 und mehr fps noch sehr stark... :-/
(vsync an oder frame limiting behebt das Problem)

Zurück zur eigentlichen Frage:
Hat hier jemand 3 oder mehr GPUs und kann mal ein paar Frametimes messen?

Ich finde den Erklärungsversuch des TE plausibel, stelle es mir auch so vor, dass die Kadenzen statistisch kleiner werden (wenn auch nicht aufeinanderfallen, wie vom TE behauptet) durch eine Erhöhung der Kartenanzahl.
Das kann aber nicht die ganze Wahrheit sein, da früher ja anscheinend mehr Karten sogar noch mehr MR bedeuteten.

Messungen wären hier dringend von Nöten, da die THG-Zahlen allein nicht aussagekräftig genug sind.


Leider ist die ganze Diskussion hier bislang um den heißen Brei (30%) bzw. völlig am Thema vorbei (70%).
 
@Boxleitnerb
Hast du überhaupt gelesen was ich geschrieben hab oder dir das Diagramm bei Toms Hardware mal angeschaut? Dort sieht man ganz klar wie die min fps steigen und die Mikroruckler somit verschwinden.

Kennst du den Unterschied zwischen min und avg fps, denn du redest immer von avg fps, die jedoch nicht direkt etwas mit den Mikrorucklern zutun haben und somit nicht interessieren. Sie sind hier erstmal völlig ohne Belang, wichtig ist, dass durch die 3 GPUs die min fps massiv nach oben gehen.

Ein Crysis mit 60 avg fps und 50 min fps ist auch mit CF/SLI butterweich.

@y33h@
Wie gesagt bitte per PM, weils einfach nur offtopic ist.

@Merlin

Ja das war eigentlich die Kernfrage und es gibt doch bestimmt Leute mit 3 oder 4 GPUs im Forum. Aber leider wird hier nur (kontraproduktives) diskutiert.

Wenn CB sich dessen mal annehmen könnte, wäre das genial. Einfach eine Messung mit avg und min fps, Frametimes und subjektivem Empfinden. Wäre top.
 
min fps habe ich noch nie für sonderlich aussagekräftig gehalten, ganz einfach weil da viel zu wenig Infos drinstecken. Das kann ein Drop in einer 100s Szene sein. Da gibt es sinnvollere Methoden, die Performance im unteren Bereich zu messen.
Was hälst du von meinen Diagrammen? Du kannst ruhig sagen, wenn du einen Fehler in denen findest. Es ist ja erstmal eine Theorie, wenn auch eine weiter verbreitete. In einem genügend kleinen Zeitintervall (wo es ja ruckelt - wir reden ja nicht von Makrorucklern) sollten die fps mehr oder weniger konstant sein, da gibts gar keine min fps per se. Ich hab selbst ein paar Messungen zu MR gemacht (leider nur 2 GPUs) und nach weniger als einer Sekunde ändern sich die Kadenzen schon wieder deutlich, weil sich die fps ändern.

Die Diagramme auf THG beinhalten natürlich dann die Maßnahmen im Treiber gegen die MR. Bei Nvidia gibts ja einen Puffer, was AMD macht weiß ich nicht. Dass sich das mit der (simplen) Theorie beisst, sollte klar sein. Daher bin ich auch auf Frametimes gespannt.
 
Zuletzt bearbeitet:
Zurück
Oben