Sehen kann mans bei ~30FPS oder weniger, das gleiche Phänomen tritt aber auch bei deutlich > 30 FPS auf, wo man es aber wegen der höheren FPS werte nicht mehr so deutlich erkennen mag.
Tja, wo ist dann der Unterschied zwischen 60 FPS und der (idealisierten) Leistungsverdoppelung auf 120FPS, wenn letzters dank Multi GPU immer zwei Frames gleichzeitig darstellt? Richtig, dann braucht man Multi GPU nicht.
Doch das ist alles relativ vernachlässigbar. Relativ zu den Lösungswegen der Chipentwickler. Wenn die erst noch Frames analysieren müssen, Frames verzögern und was weiß ich nicht noch alles, wer gibt dann die Garantie, daß die Frames auch wirklich zeitnah auf den Schirm gebracht werden? Analyse & Co kosten Zeit. Haben wir im Endeffekt dann sowas wie Input Lag, nur auf Grafikkartenebene, dafür aber alles schön synchron?
Ein paar Denkrunden später...
Man könnte dem Mikrorucklerproblem so begegnen, indem man treiberintern einen FPSzähler mitlaufen läßt, und für die Berechnung des Zeitintervalls zweier aufeinanderfolgender Frames einfach den FPS Wert des vorangegangenen Framepaares heranzieht. Damit könnte man die Frameausgabe schonmal deutlich genauer steuern. Sicher ist es nicht ideal, Frames können immer noch ein paar Millisekunden vom Idealzeitpunkt abweichen, aber man hätte auf diese Weise keinerlei Inputlag, weil es nichts zu analysieren gibt.
Fertig gerenderte Frames zu pausieren, um sie später anzeigen zu lassen führt ebenfalls zu Lag. Stattdessen wäre es sinnvoll, die Grafikkarte nach der (FPS der Vorframes / Anzahl der GPUs) Methode zu pausieren und erst bei Ablauf der errechneten Zeit ihre Arbeit wieder aufnehmen zu lassen.
Hoffentlich setzen die GPU Entwickler auf eine lagfreie Methode.