News Multi-GPU: Nvidia entwickelt ab 2021 keine neuen SLI-Profile mehr

Beitrag schrieb:
Ne, ich meinte 'nen Artikel, der das vom technischen Standpunkt aus erklärt. Die Probleme kenne ich, ich suche das Warum. Ist ja schon irgendwie interessant, dass man mit Hardware, die von Parallelisierung lebt bei einer Aufgabe, die von Parallelisierung lebt, so viele Probleme und so wenig Mehrleistung erhält.
Ein Artikel habe ich nicht, aber eine Laienhafte Erläuterung:

Das Problem ist die Methode, die bei SLI oder Crossfire angewendet wird. Beim Alternate Frame Rendering (AFR) berechnet eine Grafikkarte das aktuelle Bild und die zweite das nachfolgende. Wenn A das Bild ausgegeben hat, beginnt A mit dem Rendern des nachfolgenden Bildes, das B gerade rendert. Wenn Grafikkarte A eine wenig fordernde Szene rendert, Grafikkarte B aber eine mit mehr Rechenaufwand, dann entsteht eine Lücke im Millisekundenbereich, da A das Bild bereits ausgibt, aber B noch nicht fertig gerendert hat. Das kann sich fortsetzen: B hat nun länger gebraucht, das Bild zu rendern und A wiederrum kann das nächste direkt hnterherschießen.

Diese Inkonsistenzen bei den Frametimes werden trotz hoher FPS als Ruckeln wahrgenommen und das stört den Spielfluss - je nachdem, wie empfindlich der Spieler für die Ruckler ist, sehr stark bis gar nicht.
Solange beide Grafikkarten gleich stark ausgelastet sind, und gleich viel Zeit zum Rendern benötigen, ist alles Tacko, und es gibt tatsächlich einen ziemlich guten Skaleneffekt, was die FPS anbelangt. Waren die FPS sehr generell sehr hoch, die Frametimes also kurz, fielen Mikroruckler so gut wie gar nicht auf.

Mit steigender Spieldauer kommt es aber fast zwangsweise zu Situationen, wo dieses Gleichgewicht gestört ist und es zu häßlichen Mikrorucklern kommt. Allgemein hatte Nvidia das besser im Griff als ATi/AMD, das Problem gab es aber Plattformunabhängig.
Das Problem ist Uralt und gab es schon mit der ATi Rage Fury Maxx. Ich will mich nicht zu weit aus dem Fenster lehnen, aber ich meine, dass war die erste Doppel-GPU-Karte, die AFR einsetzte. Bei der Voodoo hat meiner Erinnerung nach jede GPU eine Zeile gerendert, dann wurde das Bild zusammengesetzt und ausgegeben.

Es gibt auch noch andere Methoden. Zum Beispiel das Grafikkarte A eine Hälfte des Bildes rechnet, B die andere. Oder dass das Bild in Tiles aufgesplittet wird. Hier ergäbe sich auch die Möglichkeit, die Rechenlast dynamisch zu verteilen, was rein theoretisch Mikroruckler vermeiden würde. Ich vermute, dass AFR aber die am einfachsten und universell zu implementierende Methode war, wobei der Aufwand mit dem Erstellen von Profilen in Treibern schon recht hoch war.

Wenn da jetzt Bullshit bei war, möge man mich bitte korrigieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Emsch, Aquilid, .Sentinel. und 2 andere
LegeinEi schrieb:
1996 von 3dfx: SLI = Scan Line Interleave (Zeilenaufteilung auf 2 Karten) = gut

Ja versuche das mal heute bei aktuellen Titel, viel Spaß dabei. 1996 waren die Spiele eben noch sehr einfach gestrickt.

@Balikon

60 fps mit Limiter und dann funktioniert SLI sehr gut, vorausgesetzt es wird überhaupt unterstützt. SoTr lief wunderbar mit SLI und war mit 2x 1080 TI deutlich schneller als eine 2080 TI. Problematisch wird es nur unter 60 fps, dann machen sich die Mikroruckler der einzelnen Frametimeausbrüche bemerkbar. Und auch wichtig, niemals SLI mit nur 8x Anbindung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Swiffer25 und Balikon
Vorteil ist, dass in den Games direkt und sauber implementierte Multi GPU Optionen über nvlink dann wenigstens gut skaliere. Fand die SLI Profillösung immer haltbar und sehr schwankend.
 
Wieso unterstützt CoD als grösster Shooter kein natives SLI? Und warum unterstüzt BF1 natives SLI und BF:V nicht ? Fragen über Fragen. ^^
 
Botcruscher schrieb:
Hat über Jahre doch lange Balken in die Magazine gezaubert...
Schon. Hatte selbst ein SLI System mit zwei 6600 GT. War ganz nett, Mehrleistung gab es in den meisten Spielen, hin und wieder ein paar Mikroruckler, das war aber sowas von egal 😂 Oh man, damals noch mit einem 0815 TFT Monitor 😂 Geile Zeit! 👍

Allerdings wurde SLI einige Jahre später,
sowie heute, überflüssig. Da kaum Mehrleistung und die Rohleistung der Karten stieg rasant an. Die Nachteile waren einfach für Gaming zu nervig.
 
  • Gefällt mir
Reaktionen: Swiffer25
Palatas schrieb:
Selbst 4k Gaming ist damit gut spielbar geworden und 8k Gaming ist noch kein relevanter Markt.

Absolut nein. 4K-Gaming ist noch lange nicht gut spielbar. Bei der 3080 nicht, bei der 90 wohl auch nicht in jeder Lebenslage. Wir haben doch alle die Benchmarks gesehen oder nicht?
Mit nvlink 2x 3090 wäre es wirklich gut spielbar. Wozu gibt's 4K@120 TVs oder 4K@144 Monitore.
 
  • Gefällt mir
Reaktionen: Swiffer25 und Laphonso
SLI lohnt eben wenn keine 60 FPS erreicht werden können. Ist auch noch heute der Fall. Bzw. für 144 hz Spieler würde sich SLI auch noch heute lohnen.
Das mit dem Mikroruckler ist sowie so ein "Mythos". Entweder war nur eine 8x Anbindung vorhanden oder die FPS zu gering, denn Mikroruckler sind nichts anderes als eine hohe Differenz in der Frametime und das hat man bei jeder Grafikkarte:

https://www.igorslab.de/wp-content/...imeoB-2560-x-1440-DX12-Very-High-Settings.png

Ist halt nur die Frage wie hoch diese Differenz ausfällt und bei minimum 60 FPS ist diese eher klein, so das diese wie bei einer single Karte nicht mehr ins Gewicht fällt.
 
  • Gefällt mir
Reaktionen: Swiffer25
@Duke711 Vielen Dank für die Ergänzung. Bei den Strategien zur MR-Vermeidung war ich mir nicht sicher, deshalb habe ich sie nicht erwähnt.
Das die Unterschiedlichen PCIe-Anbindungen noch kritisch mit reingespielt haben, hatte ich gar nicht mehr auf dem Schirm.
 
dx12 sollte ja von Anfang an Multi-GPU unterstützen auch mit unterschiedlichen Karten zusammen.
Man hat dann aber sehr schnell gemerkt außer gelabder von redmond ist daraus nie etwas geworden.
In der Realität ist Multi-GPU in dx12 "fast" unmöglich umzusetzen weil das so Komplex und kompliziert ist für denn jeweiligen Spiele Entwickler ( auch große Studios sind an der Aufgabe gescheitert ) dies in ihren games umzusetzen.
Daher ist daraus auch nie etwas geworden

Das die 3090 noch nen SLI konnektor hat ist eher belanglos, der Kunde sollte nur denken das er etwas hat was die 3080 und die Karten darunter nicht haben.

nvidia kann SLI nativ umsetzen ohne Einfluss durch Software aber dann stehen die wieder vor dem Problem das die Spieler zwei kleine Karten statt eine große teure kaufen.
 
  • Gefällt mir
Reaktionen: Swiffer25
Naja in SoTR hat man das in DX12 mit SLI wunderbar hinbekommen, das war auch der letzte Titel, der wieder so gut mit SLI funktioniert hat. Aber bei den heutigen Preisen lohnt sich SLI ohne hin nicht. Ist ja leider ein Fass ohne Boden geworden.
 
Balikon schrieb:
Zum Beispiel das Grafikkarte A eine Hälfte des Bildes rechnet, B die andere. Oder dass das Bild in Tiles aufgesplittet wird.

Das sind alles Methoden die heutzutage schlichtweg nicht mehr vernünftig zu implementieren sind, weil viele "Bildverbesserungsmechanismen" erfordern, dass eine Grafikkarte das komplette Bild kennt.

Deshalb rät Nvidia nun zu Multi GPU und einer direkten Unterstützung seitens der Spiele.
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12
https://software.intel.com/content/...cles/multi-adapter-support-in-directx-12.html

Damit entfallen jegliche Brücken, jegliche Abhängigkeiten von einer bestimmten GPU und rein technisch gesehen wäre (laut Nvidia) selbst eine Auslagerung der RayTracing Berechnung auf eine zweite Karte möglich. Problem dabei ist natürlich nur, die Spieleentwickler müssten es implementieren und es müssten Kunden dafür existieren.

Ich denke das wichtigste was im Artikel gesagt wurde, könnte eine entscheidende Rolle in der Zukunft spielen:
Anstatt weiterhin SLI-Profile zu entwickeln und mit den Treibern auszuliefern, wird Nvidia seine „Anstrengungen darauf konzentrieren, Entwicklern bei der Implementierung von nativem SLI in Spielen zu unterstützen“.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes, SVΞN und Laphonso
Ja weil SoTR zwar dx12 hat aber einen alten render-port also im Grunde dx11 aber mit neuen Processing threading drumherum.
Sowie viele anderen Spiele, echtes dx12 ohne dx11 Abhängigkeit ist immer noch sehr selten.
Gut funktioniert war auch relativ, SLI war ständig kaputt in SoTR wenn man sich die alten release notes älterer treiber angeschaut hat.

xexex schrieb:
Deshalb rät Nvidia nun zu Multi GPU und einer direkten Unterstützung seitens der Spiele.
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12

Wird sich aber kaum jemand darauf einlassen, höchstens Spiele die mit nvidia Technologie werben wäre die Chance relativ hoch.
Aber die ganzen Entwickler Studios die Hauptsächlich für die Konsole entwickeln werden nur mit denn Schultern zucken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
HaZweiOh schrieb:
Nur theoretisch. Nvidia verrät halt nicht, dass keine neue GPU außer der 3090 noch SLI unterstützen wird, wie ich gelesen habe [...]
Doch, das ist bekannt, ich glaube das Zitat hast du missverstanden. Neu ist jetzt, dass auch auf der 3090 SLI nicht mehr wie bisher mit SLI Profilen von Nvidia unterstützt wird, sondern nativ vom Entwickler implementiert werden müsste.

Dass nur die 3090 SLI unterstützt macht auch Sinn, oder würdest du wirklich zwei 3080 in SLI betreiben wollen? SLI hat doch viel zu viele Nachteile. Da würde ich mir lieber ein 3090 kaufen. SLI macht doch erst Sinn, wenn ein einzelne 3090 nicht mehr ausreicht - und dann halt mit zwei 3090.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Swiffer25
Don Sanchez schrieb:
Dass nur die 3090 SLI unterstützt macht auch Sinn, oder würdest du wirklich zwei 3080 in SLI betreiben wollen? SLI hat doch viel zu viele Nachteile. Da würde ich mir lieber ein 3090 kaufen.

Eine 3090 hat vielleicht 15-20% mehr Leistung als eine 3080, also theoretisch würde ich sehr gerne zwei 3080 nutzen wollen, das würde dann nicht 20% sondern 100'% mehr Leistung ergeben und noch immer weniger kosten als eine einzelne 3090.

Leider ist das aber bestenfalls absolute Zukunftsmusik und ich sehe diese Zukunft in der Cloud und nicht mehr auf lokal verbauten Grafikkarten.

Geht man noch ein Schritt weiter, würde man sogar eher asymmetrische Aufteilung sehen, eine potentielle 3090 würde als "Masterkarte" dienen und zusätzliche 3080 würden ihr "zuarbeiten".
1600458691800.png


Aber wie schon gesagt, das ist vor allem was fürs RZ, der klassische PC hat längst ein "Ablaufdatum".

1600458890680.png

https://www.tomshardware.com/news/intel-starts-work-on-multi-gpu-support-in-vulkan-driver
 
Zuletzt bearbeitet:
Multi-GPU war schon lange tot, das Nvidia jetzt erst die Traueranzeige annonciert ist sicher dem Aufwand bei den Treibern geschuldet. Manpower kann man auch an anderer Stelle sinnvoller einsetzen, mir ist es Recht.
 
xexex schrieb:
Eine 3090 hat vielleicht 15-20% mehr Leistung als eine 3080, also theoretisch würde ich sehr gerne zwei 3080 nutzen wollen, das würde dann nicht 20% sondern 100'% mehr Leistung ergeben und noch immer weniger kosten als eine einzelne 3090.
Aber nur in deinen Träumen... eine zweite Grafikkarte bedeutet nicht +100% FPS. Eher +50% - bei doppeltem Stromverbrauch und doppelter Hitze, also extrem ineffizient. Und dann ist da noch das Problem der Mikroruckler, was sich zwar verbessert hat, aber immer noch da ist, wodurch das Spiel noch schlechter läuft.
 
Don Sanchez schrieb:
Und dann ist da noch das Problem der Mikroruckler, was sich zwar verbessert hat, aber immer noch da ist, wodurch das Spiel noch schlechter läuft.

Du redest von SLI ich rede von echter Multi GPU Verwendung.
Überraschender als die Leistung ist allerdings auch etwas anderes: Der Mischbetrieb von AMD- und Nvidia-Grafikkarten funktioniert einwandfrei, Microruckler sind nicht zu spüren. Selbst der gleichzeitige Betrieb einer GeForce GTX 980 und einer Radeon R9 390X funktioniert ohne weiteres und das System ist schneller als zwei GeForce GTX 980.
https://www.computerbase.de/2016-02..._amd_und_nvidia_zu_kreuzen_gelingt_fehlerfrei
 
xexex schrieb:
Balikon schrieb:
Zum Beispiel das Grafikkarte A eine Hälfte des Bildes rechnet, B die andere. Oder dass das Bild in Tiles aufgesplittet wird.
Das sind alles Methoden die heutzutage schlichtweg nicht mehr vernünftig zu implementieren sind, weil viele "Bildverbesserungsmechanismen" erfordern, dass eine Grafikkarte das komplette Bild kennt.

Deshalb rät Nvidia nun zu Multi GPU und einer direkten Unterstützung seitens der Spiele.
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12
https://software.intel.com/content/...cles/multi-adapter-support-in-directx-12.html

Damit entfallen jegliche Brücken, jegliche Abhängigkeiten von einer bestimmten GPU und rein technisch gesehen wäre (laut Nvidia) selbst eine Auslagerung der RayTracing Berechnung auf eine zweite Karte möglich. Problem dabei ist natürlich nur, die Spieleentwickler müssten es implementieren und es müssten Kunden dafür existieren.
Blenders Cycles Engine sowie viele andere 3D-Rendersoftware nutzt ja reines Raytracing mit Tile-based Rendering.

Vielleicht lebt SLI / Crossfire dann ja irgendwann in einigen Jahren wieder auf, wenn man wirklich Echtzeit-Raytracing kann. Sofern es dann nicht plötzlich wieder neue Probleme damiot gibt. ^^
 
  • Gefällt mir
Reaktionen: konkretor, .Sentinel., Balikon und eine weitere Person
harrysun schrieb:
War SLI nicht das Know-how vom 3dfx Zukauf damals?

Wurde hier im Thread schon erklärt, davon blieb nur der Name da "Scan Line Interleave" schlichtweg mit aktuelleren Rendertechniken keinen Sinn ergibt.
 
  • Gefällt mir
Reaktionen: konkretor
Zurück
Oben