Asus Strix 970 OC

steve_gorden88 schrieb:
Die Graka berechnet mit Vsync nur so viele Bilder wie der Monitor ausgeben kann, definitiv.
Diesen Eindruck bekommst du, weil bei vsync der Bildausgabepuffer nur maximal entsprechend der Displayfrequenz geupdatet wird. Die GPU rechnet selber u.U. aber weiter. Du musst also vor dem Puffer messen. Zudem hängt es von der Anwendung und der 3D-Schnittstelle ab. Es gibt welche, wo man selbst einstellen kann, wieviel Bilder die Engine berechnen soll (z.B. Wastelands 2).

Ich habe das Thema in der Praxis bei mir durch: Mit vsync und ohne Framelimiter hatte ich höheren Stromverbrauch und Spulenfiepen, wenn die Bildrate über 200 fps war. Mit Frame Limiter hatte ich geringeren Stromverbrauch und kein Spulenfiepen (unabhängig davon ob vsync an war oder nicht).

Bei Anwendungen die mit triple Buffer arbeiten, solte man den fps-Limiter auf 58fps setzen sonst kann (muss aber nicht) es zu Verzögerungen kommen (manche haben Input Lag als Symptom beschreiben).

Tearing tritt bei Frame Limiting unterhalb der Darstellungsgrenze des Displays kaum auf. Das Vsync würde also nur noch das bisschen Rest-Tearing wegbügeln, was einem dann aber wieder 30/60er fps-Wechsel einhandelt.
 
Zuletzt bearbeitet:
Gut, dann erkläre mir doch mal wie die Graka es schafft bei, angeblich, 200 Bildern im "Hintergrund" (sprich maximaler Auslastung) es zu schaffen mit aktiviertem vsync unter 100% ausgelastet zu sein und dabei auch noch Kühler zu bleiben als ohne vsync?

Ich bin sehr gespannt, denn viel Strom = viel Wärme / weniger Strom = weniger Wärme, ach und Strommessgeräte nicht zu vergessen die deine Theorie widerlegen.


Und zum Thema, man könnte ein anderes Netzteil testen, denn das kann das Spulenfiepen beeinflussen.
 
steve_gorden88 schrieb:
Gut, dann erkläre mir doch mal wie die Graka es schafft bei, angeblich, 200 Bildern im "Hintergrund" (sprich maximaler Auslastung) es zu schaffen mit aktiviertem vsync unter 100% ausgelastet zu sein und dabei auch noch Kühler zu bleiben als ohne vsync?
Wie meinen? Wo habe ich geschrieben, dass die Karte mit vsync voll ausgelastet "kühler" ist oder weniger Strom verbraucht als ohne vsync?

Testen kann ich heute abend. Das Strommessgerät hab ich seit Wochen direkt zwischen Steckerleiste und PC-Netzteil, da mich einfach interessiert hat, welches Spiel nachdem Grafikkartenwechsel wieviel unter welchen Umständen verbraucht.
 
Zuletzt bearbeitet:
Das nennt man Logik. Die Grafikkarte liefert normalerweise so viele Bilder wie sie kann, sprich nahezu 100% Auslastung, außer sie wird durch vsync oder einen framelimiter begrenzt.

Deiner Theorie zu Folge, also das die Graka trotz vsync im "Hintergrund" mehr Bilder liefert als die vertikale Frequenz des Monitors beträgt, müsste sie so viele Bilder berechnen wie sie kann und zu 100% ausgelastet sein.



Aber es ist schlichtweg falsch, dass die Graka trotz vsync mehr Bilder berechnet als sie ausgibt und genau deshalb ist sie nicht zu 100% ausgelastet (außer sie liefert generell weniger Bilder als die Frequenz des Monitors beträgt) und deshalb verbraucht sie auch weniger Strom und erzeugt weniger Wärme.


Abgesehen von dem Strommessgerät solltest du vielleicht noch beispielsweise den MSI Afterburner und sein OSD bemühen, der zeigt die Auslastung der Graka an und die FPS natürlich.
 
steve_gorden88 schrieb:
Das nennt man Logik.
Nein. Das nennt man "steve hat nicht nicht ordentlich gelesen". :) Ich habe kein Szenario beschrieben, wo dies hier zutrifft:
wie die Graka es schafft bei, angeblich, 200 Bildern im "Hintergrund" (sprich maximaler Auslastung) es zu schaffen mit aktiviertem vsync unter 100% ausgelastet zu sein und dabei auch noch Kühler zu bleiben als ohne vsync?
Aus meinem Text geht doch hervor, dass die geringere Last bei mir durch den FPS-Limiter erzielt wurde, und damit kann die Karte doch keine 100% Last gehabt haben (unabhängig vom vsync). Nur damit war das Fiepen weg, was ich bei höheren fps-Zahlen hatte. Vsync an oder aus (ohne FPS Limiter) brachte hier keine Abhilfe. Denn der FPS Limiter via NVIDIA Inspector sorgt imo dafür, dass die GPU nur soviel Bilder berechnet wie eingestellt. Das schliesst nicht aus, dass es auch durch andere Kombinationen dazu kommen kann. Im FSX z.B. kann man die maximale Framerate ja auch über die Engine festlegen unabhängig vom Treiber.

beispielsweise den MSI Afterburner und sein OSD bemühen, der zeigt die Auslastung der Graka an und die FPS natürlich.
Die Anzahl der Bilder, die die GPU berechnet und an die Ausgabepuffer schickt oder die Anzahl der Bilder, die vom Puffer ausgegeben ausgegeben werden? Das ist doch genau der Punkt. Vsync sorgt nicht in allen Fällen dafür, dass die GPU weniger Bilder berechnet, in Abhängigkeit von 3D-Schnittstelle und Anwendung. Sonst wäre mir das Spulenfiepen nie aufgefallen, da ich vorher immer vsync erzwungen hatte und demnach die Spulenfiepgrundlage bei meiner Karte nicht hätte eintreten können.
 
Zuletzt bearbeitet: (Rechtschreibung)
Ich zitiere dich mal:
"Bei vsync berechnet die GPU immer noch z.B. 200 fps (was das Fiepen meist auslöst), es werden lediglich nur 60fps an den Displayausgang ausgegeben." = falsch. Wäre dies so, dann wäre die graka, ob mit oder ohne vsync, zu 100% bzw. 99% ausgelastet und das ist definitiv nicht der Fall.
 
Eben, denn du hast geschrieben:
dann erkläre mir doch mal wie die Graka es schafft bei, angeblich, 200 Bildern im "Hintergrund" (sprich maximaler Auslastung) es zu schaffen mit aktiviertem vsync unter 100% ausgelastet zu sein und dabei auch noch Kühler zu bleiben als ohne vsync
Dass sie bei aktiviertem vsync kühler bleibt, habe ich aber eben nicht geschrieben. Den geringeren Energieverbrauch hatte ich ja nicht an vsync festgemacht. Aber ich weiß, worauf du eigentlich hinaus willst.

Gestern abend noch ein bisschen getestet und recherchiert: letztlich ist es so, dass deine Aussage für jeden richtig ist, der ausschließlich Direct3D einsetzt. Dort wird offenbar generell das Rendern in den Backbuffer erst bei jedem vsync freigegeben. Das ist plausibel, weil ich das von mir beschriebene Verhalten nur mit einigen (aber auch nicht allen) OpenGL-Programmen reproduzieren konnte, aber mit keinem Direct3D-Spiel.

Das deckt sich mit dem hier: http://forums.anandtech.com/showpost.php?p=36210145&postcount=17

Direct3D blockt wohl generell das Rendern von Nachschub, wenn die Buffer voll sind bis zum nächsten sync, so wie du sagt. OpenGL bietet zumindest die Möglichkeit, die GPU weiterrendern zu lassen, um aktuellere frames zu haben, falls GPU und CPU deutlich schneller Daten liefern, als mit vsnyc ausgegeben werden können. Das Ziel einer solche Umsetzung ist möglw. das Vermeiden der 1-frame-latenzen wie sie bei D3D und Triple Buffering+vsync auftreten können.

(siehe http://gamedev.stackexchange.com/questions/58481/does-directx-implement-triple-buffering )

Für den Threadersteller bedeutet das, dass wenn seine Karte noch fiept und er mit einer D3D-Anwendung getestet hat, mglw. das vsync bei ihm nicht korrekt umgesetzt wird? (z.B. in der nvidia systemsteuerung eingeschaltet, und im Spiel Und/oder Drittapplikation aber aus oder umgekehrt?).

Oder fiept die Karte auch wenn in einem Spiel 50-60 fps erreicht werden?
 
Zuletzt bearbeitet:
Das mit dem Kühler bleiben und dem weniger Strom verbrauchen erwähnte ich auch nur als "Beweis", dass die Karte tatsächlich nur so viele Bilder rendert wie der Monitor sie ausgeben kann.


Also meine MSI GTX970 fiept auch bei 60fps, zumindest bei Dark Souls 2, bei anderen habe ich noch nicht drauf geachtet.
 
Zurück
Oben