News Die Multi-GPU-Mikroruckler: Der Stand der Dinge

Achtung Optimismus:

Wir wollen doch nicht gleich von der schlimmsten/naheliegensten Lösung ausgehen?

Vielleicht erlaubt Microschuft ja in DX 11.0 wieder die Darstellung aller schicken Effekte mit SFR. Wenn das ginge, wären SLI und CF bis dahin aber erstmal lange Zeit auf Malle.:)
 
Wenn der Lag sowieso egal sein sollte, könnte man sich die zweite Karte eigentlich sparen.

Die Graka sagt einfach bei jedem 2. Frame gleich das sie fertig ist und berechnet den 3.
Indem Frame 1 und 3 überblendet werden, erhält man dann den 2. Frame.
Nun einfach die 3 Frames in angepassten zeitlichen Abständen ausgeben.

Und siehe da: Ab einer FPS von 60 fällt der "falsche" Frame vielleicht garnicht mehr auf.

Ich geh mal schnell zum Patentamt...
 
das ganze gibt dann den gleichen bildeindruck wie zu der zeit als die tft's noch 30ms reaktionszeiten hatten und man bei counterstrike mit ner waffe in einer komplett grauen welt rumrennt^^
 
Also ich habe bei meinen beiden Sparkle 8800 GTS 640MB im SLI Verbund noch nie etwas von Mikrorucklern gemerkt.COD4 und auch COD 2 gehen ab wie Schmidts Katze,lediglich Crysis ist immer noch ein Kandidat dafür das es ab und zu trotz Patch 1.2 einbricht und ruckelt.Ich denke es kommt drauf an,wie sehr ein Spiel an SLI auch angepasst wird.Da es davon nicht mal ne Handvoll gibt(meinen Infos nach korririert mich wenn ich falsch liege)Können diese auch nicht vernünftig laufen.Bei Crysis habe ich sogar schon ein System gesehen,wos mit einer Graka deutlich flotter lief als bei mir.Ich denke das mit dem Ruckeln kann man nicht pauschalisieren.Beim einen funzt es halt einwandfrei,bei anderen gibt es Probleme.Ich habe ein ganz anderes Problem unter SLI.Ab und zu frieren beim Spielen die Spiele einfach ein und der Sound hakt dann dabei.Wer hat dieses Phänomen noch ? ;).Ansonsten kann ich sagen,das SLI ne feine Sache ist,aber nicht wirklich notwendig wäre.Eine brachiale Graka tuts auch und die Stromrechnung sinkt dabei auch ;) Mein nächster PC wird wieder ne Single GPU aufm Mutterbrett haben.

Greetz !
 
Also meiner Meinung nach verfügt die Mehrzahl der Leute, die sich zu diesem Thema äußern, weder über ein CF- noch SLI-System, sind also nicht wirklich in der Lage, sich mit einer persönlichen Erfahrung zu äußern, es sei denn, er hat's mal bei´nem Kumpel gesehen.

Ich für meinen Teil bin der Aufassung, dass das Thema tatsächlich übertrieben wird. Unstrittig ist die Problematik als solche, denn die Lags kann man ja messen. Ob man's deshalb "fühlt" ist ne ganz andere Geschichte. Ich setzte derzeit eine 3870X2 mit einem E8400 @ 4 Ghz ein und spiele alles @ 1680x1050 mit max. Details. Sicher ruckelt mal die eine oder andere Stelle im Game, aber das war mit meiner vorherigen 8800GTX nicht anders, und hat für mein Empfinden bei der X2 sicherlich nichts mit "Microrucklern" zu tun.

CU
 
Ok, sehe meinen Denkfehler. AFR heißt ja immer ein mal Geometrie pro Frame, SFR ein mal Geometrie pro halbem Frame. Das Alter...

Mal ein Einwurf, der dem Thema vielleicht eine Wende geben kann.

Es ist doch seltsam, daß manche bei mehr als 25 fps Schilderungen abgeben, als hätten sie eine ruckelnde, unspielbare Dia-Show vor sich, andere ab etwa 20 Frames flüssiges Gameplay wahrnehmen.

Was ist denn da los? Frametimes von CF/SLi-Gespannen hab ich mir als Tabelle angesehen, und meine, man muß das nicht selbst erlebt haben, um nachzuvollziehen, wie es sich auswirkt.

Nun haben doch schon etliche Leute in diversen Threads darauf hingewiesen, daß sie ähnliche Erscheinungen (nämlich arythmische Frametimes) bei Einzelkarten haben und natürlich als störend empfinden.

Generell muß eine Lösung, die damit zurechtkommen will, so oder so (ob für CF/SLI oder Einzelkarten) rythmische Frametimes mit gleichmäßigen Abständen gewährleisten. Kann sie aber doch gar nicht, weil Abweichungen von der Bildwiederholfrequenz mit der Differenzfrequenz stattfindende Asymmetrien verursachen. Daran liegt es vermutlich auch, wenn jemand objektiv gute Frameraten als ungenügend empfindet.

So oder so muß also treiberseitig gewährleistet werden, daß günstige mathematische Beziehungen zwischen Bildwiederholfrequenz und Frametimes eingehalten werden. Ein Treiber, der das leistet, löst die Probleme der Einzelkarten und automatisch auch die der Gespanne.

In Worten kommt es nicht so deutlich rüber, aber mit einer Grafik kann man so was gut veranschaulichen. 30 Frames bei 60Hz sind absolut flüssig und butterweich, bei 75 Hz leicht rucklig, bei 70 Hz ungeniessbar. 35 Frames sind bei 70 Hz gut, aber bei 60Hz schlecht, 25 Frames bei 75Hz erstklassig usw. usf.

Das kennt man doch von den Problemen bei der Transformation zw. PAL und NTSC.
 
Zuletzt bearbeitet: (Typos und dgl.)
Also viele Leute die ich kenn, und MultiGPUs verwenden sagen, dass sie davon nix merken :p
Ausserdem glaube ich auch nicht, dass Frame2 GENAU im gleichen Moment fertig ist wie Frame1...Da wäre Karte#2 aber sehr schnell :D
 
@ Autor (Wolfgang);

Am weitesten scheint dabei Nvidia gekommen zu sein, denn dort stellt man mit einem zukünftigen Treiber eine Lösung in Sicht. Dieser soll einen Scheduler enthalten, der die fertigen Frames im richtigen Zeitabstand an den Monitor ausgeben soll.

Dennoch ist derzeit zumindest noch keine baldige Lösung in Sicht.
Hallo,

warum der Widerspruch? Denn die Lösung ist in Sicht. ;)
 
liegt wohl daran, das wenn Nvidia einen Treiber für ein bestimmtes Feature in Aussicht stellt dieser meist nicht allzu schnell kommt.

siehe z.b. die Speicherprobleme der G80 Karten oder auch Hybrid-Sli.


@ CB :

Warum erhalte ich nichtmal eine Antwort von euch mit welchem Monitor ihr die Mikroruckler GESEHEN habt ?

Messen kann sie jeder, das ist keine Kunst mehr....
 
@Realsmasher
Eigentlich sollte jeder Monitor, der Makroruckler darstellen kann auch Mikroruckler darstellen können. :(;)

Worauf willst du hinaus? Das es bei einem miesen TFT unerheblich sein soll?
 
nein, das es bei einem GUTEN TFT (aka VA/IPS) unerheblich ist.

Siehe meine Rechnung oben.

Ob das auf TNs auftritt interessiert mich persönlich nicht. Wer sich teures CF/SLI zulegt wird wohl eh nicht auf Bonbon-TN spielen.

Und die, die es trotzdem tun sind selbst schuld.


Leider hab ich kein CF/SLi und kann es deswegen nicht selbst testen, deswegen würde mich interessieren wo CB es gesehen hat.

Die diversen SLi/CF Nutzer als quelle sind mir alle zu parteiisch.
 
@various66: Auch wenn ich noch kein SLI oder CF habe. Vielleicht will ich ja sowas kaufen? Hier geht es ganz gewiss nicht um "Fühlen" oder "Empfinden" sondern ganz sonnenklar um die Vergleichbarkeit von Benchmarkergebnissen, speziell von Single- und Multi-GPU-Karten. Wenn ich weiß, dass ich alles nur mit 60fps geil finde, dann muss/sollte ich trotzdem vorher wissen, was ich mir kaufen muss, um meinem Anspruch gerecht zu werden. Unter Umständen ist man dann mit Multi-GPU ja kurzzeitig (...haste nich gesehen?) bei nur 30fps.:o Und dann wird alles unspielbar!!!:D

Wenn man sich mit diesen Unzulänglichkeiten abfinden will, kann man ja gleich Multi-GPU in Benchmark-GPU umbenennen, oder so ähnlich. So ich kauf mir jetzt mal noch ne zweite Karte damit ich meine Benchmarks verbessere. Ob es dann unerklärlich weiterhin in Anwendungen ruckelt, juckt mich doch nicht ich bin nur Zahlenfetischist.:)
 
Zuletzt bearbeitet:
Realsmasher schrieb:
@ CB :
Warum erhalte ich nichtmal eine Antwort von euch mit welchem Monitor ihr die Mikroruckler GESEHEN habt ?
Messen kann sie jeder, das ist keine Kunst mehr....
Mikroruckler habe ich auf zwei mMonitoren gesehn. Dem Dell 3007 und dem NEC 2080UX+
 
Ah, also 2 ältere IPS Modelle ohne Overdrive oder andere Puffertechniken.

Wäre es eventuell möglich in kommenden Tests mal einen PVA/MVA/IPS der neueren Generation mit Overdrive vergleichsweise zu verwenden ?
 
Noch mehr Puffer? Damit der Lag noch größer wird?

Den Lag darf man nicht außer acht lassen.
Und ja es ist je nach persöhnlichem empfinden schlimmer oder weniger schlimm. Mich kotz der Lag bei einem Prerender Limit von 3 Frames übelst an, wenn 4 GPUs rumrendern muss das einfach schrecklich sein.
 
Zuletzt bearbeitet:
Yes, hier gilt natürlich wieder je höher das Prerender Limit, desto höher die Gefahr z.B. von "Mouselags". Man kann nunmal die Bildausgabe nicht unbegrenzt von der CPU abkapseln. Irgendwann machts dann keinen Spass mehr. Ich glaube Counterstrike o.ä. sollte dann lieber nicht mehr ernsthaft gespielt werden.

Eine saubere Frame-Harmonisierung kann nur über den Treiber oder die Hardware der Grafikkarten geschehen. Ich bin gespannt...
 
Zuletzt bearbeitet:
Der lag wird auf dem gleichen Monitor dadurch nicht höher bei 2 Karten.

Wenn der Monitor eh 2 Bilder puffert, egal ob single-card oder sli/cf, dann sind es eben 2 frames = 33ms lag im gegensatz zu normalem Monitor mit worst-case lag von 16.6ms wenn bild kommt, während das alte gerade angefangen wurde zu zeichnen.(ich gehe von 60hz tft aus)

und ? merkt ein normaler Spieler eh nicht.

Bei schnellen online-shootern mag das eine rolle spielen(effekt ist der gleiche wie im schnitt 25ms höherer ping), aber ein nachziehen des Mauszeigers oder ähnliches ergibt sich dadurch noch nicht.

Könnt euch doch Testberichte von 2-3 Bilder puffernden Monitoren durchlesen, die sind alle durchweg als Spieletauglich bewertet.(Unterscheide : Spieletauglich <-> CS 1.6 Ligatauglich)

Spürbares Inputlag in Form von nachziehen bemrkt man erst bei 4-6 Bildern Puffer.
 
@Realsmasher: Ich glaube hier ist etwas falsch verstanden worden. Der Monitor-Lag käme bei diesem Szenario noch dazu zum eigentlichen Prerender Limit. Deswegen auch Unyu:"Noch mehr Puffer? Damit der Lag noch größer wird?". Als Summe aller Lags, kann man hier also die Verzögerung durch alle nicht CPU-gezeiteten Bild-Post-Prozesse bezeichnen. D.h. in wirklich kritischen Situationen würde der Eingriff des Monitors alles zwar nur noch 2 fps schlimmer machen aber es würde schlimmer werden.
 
ich weiß schon was du meinst :

dadurch das gpu 1 bei 60fps nur 30fps davon erzeugt dauert ein Frame in der Berechnung trotzdem 33ms und nicht 16,6 wie auf einer single-gpu lösung die 60fps schafft.

Wenn du aber die obige Rechnung betrachtest, dann wirst du feststellen das ich dies schon mit einberechnet habe und es ab einem 2frame-puffer-monitor keinen Unterschied mehr macht.

bsp :

- du bewegst die maus bei 0ms
- cpu verarbeitung ignorieren wir mal, weil die bei single/multi gpu gleich lang ist
- bild wird gerendert in 33ms
- monitor erhält bild, und gibt es bei 50ms aus

dazu single gpu :

- du bewegst die maus bei 0ms
- cpu verarbeitung ignorieren wir wieder
- bild wird gerendert in 17ms
- monitor erhält bild, gibt es aber dennoch erst bei 50ms aus, da noch ein 2 alte Bilder im Puffer sind für den zeitpunkt 17ms und 33ms.




Aber wie gesagt ist das pure Theorie. Ich habe keinerlei praktische Erfahrung wie der Monitor wirklich damit umgeht.
 
Zurück
Oben