News Die Multi-GPU-Mikroruckler: Der Stand der Dinge

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.621
Am heutigen Tag präsentiert Nvidia Quad-SLI auf Basis zweier „GeForce 9800 GX2“-Karten und dementsprechend untersuchen wir die Multi-GPU-Technologie – sowie ATis CrossFire-X-Pendant – ausführlich in einem Artikel. In diesem kommen wir unter anderem auf ein generelles Multi-GPU-Problem zu sprechen, die „Mikroruckler“.

Zur News: Die Multi-GPU-Mikroruckler: Der Stand der Dinge
 
Auf jedenfall erfreut es mich das zurmindest eine Hersteller an dieses Problem befasst und dies auch zu beheben versucht.
Mich hat dieser ganze Geschichte auch die ganze Zeit von SLI & CrossFire abgehalten.
 
Zuletzt bearbeitet:
Das scheint immer so zu sein. Die hauen die beste Technik auf den Markt, aber unterstützt wird davon leider per Treiber noch gar nichts. Aber ich bin zuversichtlich, ich denke mal Ati und Nvidia bekommen das in den Griff, kein Zweifel. Ist eben nur die Frage wann. Mal davon abgesehen halte ich es im Moment ohnehin für sinnlos sich 4 Gpu´s auf ein Board zu knallen...
 
"Am weitesten scheint dabei Nvidia gekommen zu sein, denn dort stellt man mit einem zukünftigen Treiber eine Lösung in Sicht."
Das kann man imho erst sagen, wenn es tatsächlich was handfestes von nVidia gibt. Den VRAM Bug wollten sie auch vor Monaten beheben, aber nach wie vor skaliert ATi bei wenig VRAM besser.
 
Abgesehen von den Mikrorucklern finde ich solche Karten sowieso schwachsinnig. Alle Leute, die nicht jeden Tag spielen, sollten sich mal ausrechnen was so eine blöde Karte an einem Nachmittag für Strom verbrät. Gut bei bei wem das Mutti und Papi zahlt dem kanns egal sein. Aber selbst wenn Geld keine Rolle spielt, so gibts da immer noch den Faktor Umwelt ;)
Die Mikroruckler sind da nur das i-Tüpfelchen.

Hoffentlich gehen Ati und Nvidia bald mal die Leistungsaufnahme an.
Preis ist aber wirklich schon erstaunlich!
 
Wenn ich das richtig in Erinnerung habe, geht es ja nicht nur um Quad-SLI, sondern auch um normales SLI (und vielleicht auch um zB GX2, oder?). Von daher kann es schon interessant sein. Denn nicht selten sind SLI/CF-Systeme günstiger und effektiver als ein gleichteures Einzelkarten-System.
Trotzdem gut, dass dieses Thema nochmal separiert behandelt wird.
Ich finde es schade, dass sich die Hersteller erst nach und nach damit befassen und trotz alledem immernoch diese Systeme weiter produzieren.


Mal so eine Frage an die Leute, die SLI/CF nutzen: Wie oft betrifft einem dieses Problem der Microruckler. Bei welchen Spielen ist es extrem und welche Einstellungen nutzt ihr dafür (Auflösung, Details, AF, AA etc.)?
Denn ich kann mir gut vorstellen, dass viele SLI/CF nutzen wollen, aber gerade wegen den Microrucklern ziemlich verunsichert sind. Ich bin auch so ein Kandidat, der sich evtl dafür ein neues Board und eine zweite Karte kaufen würde, aber Angst hat, nachher nur alles zu verschlimmbessern und es daher lieber sein lässt.
 
Gut, NVidia's Treiberversprechen gehen mir selbst als "NV-Anhänger" ein bisschen auf den Sack. Für alles wolle man neue Treiber veröffentlichen oder monatliche Releases anstellen. Das wenigste wurde eingehalten. Gut, das Texturflimmern der G7x wurde stark vermindert und der VRAM-Bug zwar nicht behoben aber zumindest dessen Auswirkungen reduziert. Aber was sich NV sonst noch so an Treiberverbesserungen vorgestellt hat ist bisher alles eine Luftnummer. Leider.
 
Wahnsinn wie sehr die "Microruckler-Problematik" gehypet wird.

Da diese nur bei <30 fps auftreten, habe ich solche Microruckler mit meinen 2 NVIDIA 7900GS im SLI noch nie erlebt
 
wursti was soll da "gehypet" werden, es sind fühlbare Ruckler zu spüren und dies auch weit über 30FPS

Ich behaupte jetzt mal sogar das es auch bei Single Lösungen so ist. Nur habe ich leider keine Lust/Zeit das genauer zu überprüfen, aber in einigen Spielen merkt man das auch, obs an Vista liegt kann ich nicht genau sagen. Aber vllt für CB interessant auch mal Single Karten genauer zu überprüfen. In WoW merkt man das z.B. sehr stark auch wenn die FPS Anzeige 30 und mehr anzeigt, die Ruckler spürt man obwohl alles flüssig läuft. (hört sich ziemlich widersprüchlich an)
 
Sehen kann mans bei ~30FPS oder weniger, das gleiche Phänomen tritt aber auch bei deutlich > 30 FPS auf, wo man es aber wegen der höheren FPS werte nicht mehr so deutlich erkennen mag.

Tja, wo ist dann der Unterschied zwischen 60 FPS und der (idealisierten) Leistungsverdoppelung auf 120FPS, wenn letzters dank Multi GPU immer zwei Frames gleichzeitig darstellt? Richtig, dann braucht man Multi GPU nicht.

Doch das ist alles relativ vernachlässigbar. Relativ zu den Lösungswegen der Chipentwickler. Wenn die erst noch Frames analysieren müssen, Frames verzögern und was weiß ich nicht noch alles, wer gibt dann die Garantie, daß die Frames auch wirklich zeitnah auf den Schirm gebracht werden? Analyse & Co kosten Zeit. Haben wir im Endeffekt dann sowas wie Input Lag, nur auf Grafikkartenebene, dafür aber alles schön synchron?



Ein paar Denkrunden später...

Man könnte dem Mikrorucklerproblem so begegnen, indem man treiberintern einen FPSzähler mitlaufen läßt, und für die Berechnung des Zeitintervalls zweier aufeinanderfolgender Frames einfach den FPS Wert des vorangegangenen Framepaares heranzieht. Damit könnte man die Frameausgabe schonmal deutlich genauer steuern. Sicher ist es nicht ideal, Frames können immer noch ein paar Millisekunden vom Idealzeitpunkt abweichen, aber man hätte auf diese Weise keinerlei Inputlag, weil es nichts zu analysieren gibt.

Fertig gerenderte Frames zu pausieren, um sie später anzeigen zu lassen führt ebenfalls zu Lag. Stattdessen wäre es sinnvoll, die Grafikkarte nach der (FPS der Vorframes / Anzahl der GPUs) Methode zu pausieren und erst bei Ablauf der errechneten Zeit ihre Arbeit wieder aufnehmen zu lassen.

Hoffentlich setzen die GPU Entwickler auf eine lagfreie Methode.
 
Zuletzt bearbeitet:
Das hätten sie vorher testen und beseitigen sollen. Macht schon einen schlechten Eindruck, das so freizugeben.

CB:Kleiner Fehler im Text:
 
gabs sowas eigentlich beim 3DFX SLI? :D
 
Ich frag mich gerade, wieso überhaupt überall AFR zum Einsatz kommt. Umso mehr GPUs beteiligt sind, umso dämlicher ist die Methode - jedenfalls soweit ich das verstanden hab.
 
Die sollten lieber mal nen Highend und nen Lowend Chip auf eine Karte klatschen so das man unter Windows nicht immer mit voller Last rum brutzelt, denn mit dem Speedstepping bekommen die Leute von nvidia scheinbar das nicht hin
 
@14
wüsst nicht warum. 3dfx sli funktionierte ja im interleaving verfahren. da können solche probleme nicht auftauchen. da leidet dann unter umständen zwar die bildqualität ansich darunter wenn unterschiede beim DAC auftreten, aber mikroruckler gibts nicht :)
 
Child schrieb:
Ich frag mich gerade, wieso überhaupt überall AFR zum Einsatz kommt. Umso mehr GPUs beteiligt sind, umso dämlicher ist die Methode - jedenfalls soweit ich das verstanden hab.

AFR ist nicht dämlich sondern aktuell einfach die effizienteste Multi-GPU-Technik. Etwas besseres gibt es nicht, nur hat AFR eben nicht nur Vorteile.

Und 3DFX benutzte damals das Scan-Line-Interlaving-Verfahren. Das funktionierte vollkommen anderes (heute würde es gar nicht mehr funktionieren) und hatte keine Mikroruckler zur Folge.
 
Ja ich weiß - gibt ja unterschiedliche Methoden die Frames aufzuteilen. Eine GPU die geraden, die andere die ungeraden Zeilen, Teilung des Frames halb halb auf die GPUs (irgendwo müsste noch meine Voodoo1 liegen ... hm).

Ähm naja, auf was ich hinaus wollte, wenn jetzt 4 GPUs in AFR rendern, dann rechnen die an 4 Bildern gleichzeitig. Das sorgt zwar für viele fps - im Artikel wird die Problematik ja erklärt.

Ich für meinen Teil hab lieber anstatt 70 nur 60 fps dafür keine Ruckler.
 
Mir gefällt die Formulierung nicht:

Ab einer FPS-Grenze von etwa 30 Bildern pro Sekunde wird dieses in einigen Spielen spürbar und mindert massiv den Spielfluss.

Klingt so, als wenn man nur irgendwie über 30 fps kommen müsste, damit die Welt wieder in Ordnung ist und sobald man drunter ist, kann man nicht mehr zocken...
Eine klare sogenannte "FPS-Grenze" gibt es doch garnicht.

Kein Wunder, dass Leute wie wursti_00 darauf anspringen.
 
Zurück
Oben