News Neue Framelatenz-Diagramme auf ComputerBase

txcLOL schrieb:
Nur finde ich es immer lustig wie die AMD Fanboy's sich hier gleich übelst angegriffen fühlen. Ich glaube würde NV dieses Problem haben, würden die ganzen "objektiven" User sicherlich was ganz anderes posten.

Ich glaube nicht das es dadurch sachlicher zugehen würde.

Aber man könnte das Problem aus der Welt schaffen in dem zwei Beispiele genommen werden, eines in dem AMD nicht so gut abschneidet eines in dem nvidia nicht so gut abschneidet.
 
freyny80 schrieb:

Dankesehr!

Ich zitiere mal weniger selektiv alle Ausführungen zur subjektiven Einschätzung.:

"Und in der Tat, unsere Messungen der Framelatenz zeigen interessante Ergebnisse, die zum Teil auch spürbar sind. So stockt zum Beispiel The Witcher 2 auf der Radeon HD 7970 GHz Edition trotz hoher FPS-Werte spürbar, was sich nicht in den FPS-, aber in den Framelatenzdiagrammen schnell zeigt. Die GeForce GTX 680 läuft in diesem Spiel trotz niedrigerer Framerate deutlich besser – der Peak zu Beginn der Sequenz ist reproduzierbar, tritt aber nur ein Mal auf.

Ähnliches können wir über Alan Wake sowie Hitman: Absolution berichten. So rendert die Radeon HD 7970 GHz Edition in der Testeinstellung zum Beispiel mit durchschnittlich 41,6 Frames per Second in Alan Wake, hakt jedoch spürbar mehr als die GeForce GTX 680, die auf 35 FPS kommt. Das Framelatenzdiagramm zeigt genau dieses Phänomen.

Jedoch lässt sich nicht generell sagen, dass die aufgezeigten Schwächen bei den Framelatenzen immer spürbar sind und das Spielgeschehen somit negativ beeinflussen. So können wir das sich anhand des Framelatenzdiagramms ergebende Bild in Far Cry 3 zum Beispiel nicht bestätigen – die Radeon HD 7970 GHz Edition ist nicht spürbar schlechter als die GeForce GTX 680."

Also: Latenzgraph angucken und dem Problem im Detail nachgehen.
 
Mit ein Grund warum ich ATI meide, Treiber ist nichts für mich und das ruckeln sehe ich auch schon immer deshalb Kauf ich seit Jahren nur noch Nv.
 
Zock schrieb:
Mit ein Grund warum ich ATI meide, Treiber ist nichts für mich und das ruckeln sehe ich auch schon immer deshalb Kauf ich seit Jahren nur noch Nv.

Danke für diese Fanboy-Aussage.
 
BigGonzo schrieb:
Eine nette Sache.
Lassen sich solche "Latenzen" eigentlich reduzieren, wenn man im Grafikkartentreiber das vorausberechnen von Bildern beispielsweise von 3 auf 5 einstellt?
Wenn du mit einer schwammigen Steuerung zufrieden bist.

Stell dir mal vor du bewegst die Maus und erst eine viertel Sekunde später siehst du die Auswirkungen auf dem Monitor. Es ist bereits heute so, dass aufgrund des Treibermodells und der DirectX Schnittstelle das Bild bis zu drei Frames verzögert auf dem Schirm erscheint nachdem es berechnet wurde.

Wenn du jetzt noch einen Monitor mit Overdrive-Technik besitzt, dann werden dort ebenfalls noch 1-3 Bilder zwischengepuffert. Stichwort Inputlag. Ein wenig Lag verursacht auch noch deine Maus und die Gameengine an sich, als auch die Grafikkarte selbst und wenn du online spielst, dann kommt auch noch die Netzwerklatenz (Ping) hinzu.

All das vergrößert die Latenz, die zwischen deiner Benutzereinagbe und der Monitorausgabe entsteht und macht die Steuerung extrem schwammig. Eine zusätzliche Pufferung von Bildern wäre hier extrem kontraproduktiv. Da kannst du gleich in der Cloud spielen.


Das ist übrigens, was man wirklich unter Latenz versteht und nicht der hier im Artikel beschriebene Effekt.
Trotzdem sind beide nicht uninteressant und sehr wichtig für ein angenehmes Spielerlebnis.

Hohe Frameraten verringern übrigens beide diese Effekte. Es kann also nie schaden ein Spiel trotzdem mit 120 fps zu spielen, selbst wenn es schon mit 40 fps flüssig erscheinen sollte. Die Jitter und Latenzprobleme werden durch die hohe Framerate deutlich reduziert, sodass sie kaum noch eine Rolle spielen.
 
Zuletzt bearbeitet:
Luxuspur schrieb:
achnee ... mittlerweilen auch auf CB angekommen ... das hohe FPS alleine nichts bringen ... dann will ich euch auch gleich noch nen Tip geben ... wenn man sich mit den Spieleprofilen auseinandersetzt und selbst Hand anlegt ... kann man da auch noch einiges rauskitzeln ... (mikro)ruckler zeigen nur die eigene Unfähigkeit!

Du kommst selbst noch klar oder? Ich denke ein Grafikkartenhersteller sollte das zu seinen Aufgaben zählen. Du musst ja auch nicht bei einem neu gekauftem Auto die Motorsteuerung ändern weil er unrund läuft. Aber gut das du so clever bist und das alles auscheckst :D :D :D Super beitrag, geh lieber offline, den dein Gelaber ist nonsense !
 
Blublah schrieb:
Kann schon sein, aber praktisch jede HW-Seite die solche Tests macht findet das Problem. Und AMD selbst hat ja schon zugegeben dass es auch an ihrem Speichermanagement liegt, welches sie überarbeiten.


Schließt aber nicht aus, dass es noch andere Gründe außer dem Speichermanagement gibt.

Habs gefunden:

http://www.tomshardware.com/reviews/gaming-processor-frame-rate-performance,3427-5.html

Es wurde generell mit einer GTX680 getestet (zum Vergleich ne AMD wurde leider nicht getestest), aber man kann schön sehen, dass auch CPU+Chipsatz einen Unterschied machen können. Wobei die Unterschiede stellenweise auch sehr gering sind es aber auch durchaus Szenarios gibt, wo zB ein i3 gegenüber einem X6 im Mittel eine 5ms höhere Framelatenz hat. Untern Strich bleibt der i5 aber weiterhin die beste CPU fürs Gaming, AMD steht nur etwas besser da, wenn auch die Latenzen betrachtet werden.

So, nun liegt es an CB, den großen Vergleichstest zu machen. :D
 
Zuletzt bearbeitet:
Ich vermute eher mal das die Korrektur dieses Treibermissstandes ein paar FPS kosten würde und das geht ja mal garnicht...bloß keine FPS verlieren.... AMD ist aktuell soviel besser was P/L angeht, die könnten sich jetzt ruhig mal um sowas kümmern!
 
grax schrieb:
Danke für diese Fanboy-Aussage.

Was hat das denn mit Fanboy-Tum zu tun? Es steht doch schwarz auf weiß, dass AMD-Karten trotz gleicher FPS-Zahl mehr ruckeln als Nvidia-Karten. Ich finde da kann man durchaus froh sein, eine Nvidia-Karte im Rechner zu haben, statt einer Radeon.
 
Also Durchschnittswert und Varianz hätten es auch getan. Den Schritt als Revolution zu feiern ist eher peinlich, da die Framezeit doch eh bekannt war. Das Problem war außerdem doch schon von Multi-GPU Systemen bekannt. Ich weiß auch genau, dass ich das irgendwo schon mal erklärt hatte von wegen Grenzwerten dF/dt und das es hier sinnvoller ist, nach dF zu gehen.
 
Zuletzt bearbeitet von einem Moderator:
Grundkurs, das ist deswegen eine Fanboy Aussage weil der Zock bekannter Fanboy ist. Und ausserdem soll er das seit Jahren sehen. Ist klar.......

Und er hat immer noch nicht gemerkt das es ATI nicht mehr gibt.
 
Zuletzt bearbeitet:
neo-bahamuth schrieb:
Schließt aber nicht aus, dass es noch andere Gründe außer dem Speichermanagement gibt.

Auch interessant Skyrim mit den alten Treibern, wo man das Problem umgehen konnte, indem man Skyrim auf einen CPU-Kern begrenzt hat.

Alle Kerne:

skyrim-default-microstutter.jpg


Skyrim Prozess begrenzt auf ein Kern:

skyrim-1-core-affinity-microstutter.jpg


Von daher wäre es schon mal interessant, dieses Problem auf nen Intel und AMD System (am Besten K10.5 und K15) zu sehen, ob es da unterschiede gibt.
 
Zuletzt bearbeitet:
Matzegr schrieb:
Auch interessant Skyrim mit den alten Treibern, wo man das Problem umgehen konnte, indem man Skyrim auf einen CPU-Kern begrenzt hat.

Skyrim Prozess begrenzt auf ein Kern:

Danke das meinte ich. Die Sache nur auf das Speichermanagement der AMD-karten zu schieben ist m.E. völlig zu kurz gegriffen.

Whoozy schrieb:
Vielleicht hat das was mit HT zu tun ? War HT bei den Tests an ?

Hättest Dir das angeschaut hättest gesehen, dass es sich um einen i5-2500k handelt...
 
Relaxo32 schrieb:
Trotzdem war die Aussage "[...] die Radeon HD 7970 GHz Edition ist nicht spürbar schlechter als die GeForce GTX 680."

Diese Aussage wirkt neutral/positiv hinsichtlich der Problematik.

Nun wird nochmal auf die Problematik ein paar Tage später drauf hingewiesen mit der Aussage:

"Das folgende Beispiel zeigt, dass die Radeon HD 7970 verglichen mit einer GeForce GTX 680 in Far Cry 3 deutlich mehr Ausreißer zeigt, d.h. sie generiert die Frames in unregelmäßigen Zeitabständen sodass der übliche Durchschnittswert von 43 FPS nur eine begrenzte Aussagekraft hat."

Das wirkt hingegen negativ, eher gar als wären die 43 FPS der HD7970 weniger Wert als die Geringeren der GTX680.

Nun frag ich mich, wieso plötzlich diese andere Aussage? Mit welcher Begründung? Diese fehlt schlichtweg, warum man auf einmal eine negative Aussage tätigt.
Mfg

Ist lesen UND verstehen so schwer?

Im Test der 17 Karten wurde geschrieben, daß bei z.B FC3 die Framelatenzen einer AMD im Vergleich zur Nvidia nicht auffallen. Dennoch sind die da...
In dieser News wird nur dargestellt, daß die durchschnitllichen Fps-Werte durch die Latenzen "angehoben" werden.

Man könnte auch meinen, daß es Absicht sein könnte, um eben den "längeren" Balken zu haben...
 
Ganz tolle Sache die so einiges aufzeigt und AMD hoffentlich dazu bringt es genauso gut wie Nvidia zu machen.
Ich habe ne 7870 und zocke eigentlich fast nur BF3 und dort gibt's ja keine Auffälligkeiten. Aber so insgesamt hat mich das die letzten Jahre schon etwas gewundert das manche Spiele trotz guter FPS Werte nicht so 100% fluschig laufen.

Freut mich das man der Sache auf die Schliche kommt und dadurch alle Hersteller handeln müssen.
 
Ich verstehe wirklich nicht, was diese Diskussion über "Fanboys" soll. Lasst doch jeden hier seine Meinung schreiben und fertig.

Fakt ist, dass es das Problem der Mikroruckler bei AMD-Karten gibt und dass AMD dies sogar ehrlich eingeräumt hat und nach eigenen Aussagen bereits an der Lösung arbeitet. Natürlich kann man diese Mikroruckler in manchen Spielen spüren, in anderen nicht und höchstwahrscheinlich wird das für den einzelnen Anwender auch subjektiv unterschiedlich wahrnehmbar sein.

Es gibt also ein Problem und man kann es jetzt toll visualisieren und vergleichen. Das ist definitiv ein Fortschritt für Grafikkartentests und ganz sicher auch etwas, was viele "Poweruser" gerne und zu recht beachten werden.
 
Nochmal die Punchline:

Varianz!



Aber herzlichen Glückwunsch zum Fortschritt. Sieht schön bunt aus.
 
Zuletzt bearbeitet von einem Moderator:
Whoozy schrieb:
Ich bin vom CB test ausgegangen, die testen mit einem dicken Intel i7 6 Kerner.

Aber was hat das mit dem Test auf benchmark3d zu tun, bei dem Skyrim auf einen Kern begrenzt wird? Die Bilder waren ja auch nicht von CB :)
 
Zurück
Oben