Test Multi-GPU in Spielen: Auch 2 × 16 PCIe-Lanes und NVLink retten SLI nicht

Das SLI hier so knallhart versagt, liegt aber auch an der Software. Insbesondere mit DX12 könnte der Support von SLI deutlich verbessert werden. Hier ist lediglich der Wille der Spielehersteller die Grenze.

greetz
hroessler
 
  • Gefällt mir
Reaktionen: Dr. Chandra
Früher: Crossfire und Eyefinity, dann SLI und Surround
Jetzt: Eine Grafikkarte und ein Bildschirm

Es macht das Leben so viel leichter.

Ne Zeit lang macht das Gebastel schon Spass, aber irgendwann wenn man dann einfach nur Zocken will und sich genau in dem Moment dann irgendwas verabschiedet hat, da hat man dann auch genug.

Und mal ganz ehrlich, am Ende vom Tag ist Gaming für 99% von uns auch nur ein Hobby (und nach wie vor ein relativ günstiges Hobby). Und die 1% bei denen es der Beruf ist müssen sich um die Kosten für ne Grafikkarte auch nicht so gross Sorgen machen.
 
  • Gefällt mir
Reaktionen: adretter_Erpel
Faust2011 schrieb:
Richtig, trotzdem möchte man hier testen, ob SLI überhaupt noch taugt und ob der Pferdefuß von SLI vielleicht die Verbindung der beiden Grafikkarten ist. Schlussendlich ist das ja immer ein Master-Slave-System und die zweite Grafikkarte muss ihr geredertes Bild zur primären Karte übertragen (und evtl. sogar noch während des Renderns Daten austauschen wie bspw. Framebuffer-Objekte / Texturen mit Tiefeninfos, ...).

Das hier aus dem Artikel:



Genau diese 10 mal so hohe Bandbreite ist der Kern des Tests.

Mich würde mal interresieren ob ein Unterschied besteht zwischen SLI / CF zu Dual GPU Grafikkarten á la Radeon Pro Duo (bzgl. Mikroruckler oder der Gleichen) ??

Ahoj.
 
hroessler schrieb:
Hier ist lediglich der Wille der Spielehersteller die Grenze.

Ich glaub die sind eher froh, dass sie ihre Bug-Haufen irgendwie zum Release so weit hinbekommen, dass es keinen Shitstorm gibt, ganz ohne diese zusätzliche Aufgabe :-)
 
  • Gefällt mir
Reaktionen: Cpt.Willard, adretter_Erpel, adaptedALPHA und eine weitere Person
Häschen schrieb:
Dachte ich auch aber was ist daraus geworden?
Schade im Nachhinein war es leider nur auf dem Papier möglich, in der Praxis war es für die Spiele Entwickler extrem schwierig zu Implementieren, weil fast alle spiele Engines noch auf dx11 aufbauen und später wird dx12 einfach nur emuliert.



BFV hat keine SLI Unterstützung weil die Engine nicht multi-gpu freundlich ist

Dx12 soll ja von Nvidia wenn überhaupt, ziemlich mies unterstützt werden.
Hatte sowas die letzten Tage irgentwo gelesen.
Soll bei Amd Systemen deutlich besser sein .

Fifa 19 z.b., stürzt bei mir mit Dx 12 regelmäßig ab.
 
Zuletzt bearbeitet:
Dr. Chandra schrieb:
ob ein Unterschied besteht zwischen SLI / CF zu Dual GPU Grafikkarten á la Radeon Pro Duo (bzgl. Mikroruckler oder der Gleichen)

Du meinst, ob es einen Unterschied gibt zwischen Multi-GPU, aufgebaut aus zwei Grafikkarten, und echten "Dual GPU Grafikkarten", wie die Radeon Pro Duo, R9 295X, ... usw.? Nein, das Problem ist genau dasselbe. Insbesondere das Frame-Pacing, das für eine gleichmäßige Ausgabe der Frames sorgt und damit Mikroruckler entgegenwirken soll, ist eine reine Sache des Grafikkartentreibers.
 
  • Gefällt mir
Reaktionen: Dr. Chandra
SLI und CF wurden eifach stillschweigend exekutiert. Aber das liegt daran weil es nicht funktioniert, sondern weil man nicht will. Die Leute sollen lieber 1000€ für eine Karte ausgeben anstelle von 2x 300€ und dann die selbe Leistung erhalten. (Abgesehen von der Leistungsaufnahme.)

Strange Brigade zeigt wie viel gute Optimierung bringt.
 
Ezeqiel schrieb:
Naja, falls das nicht der Fall sein sollte, dann werden zumindest zwei Bereiche eines Bildschirms mit jeweils unterschiedlichem Inhalt beliefert.

Viele Grüße,
Ezeqiel
das ist schon lange nicht mehr möglich
 
Überschrift schrieb:
Multi-GPU in Spielen: Auch 2 × 16 PCIe-Lanes und NVLink retten SLI nicht
Aua, Aua... In der Überschrift des Artikels schon so ein schwerer Fehler. Der Begriff "Multi-GPU" wird erst seit DX12 verwendet, weil Microsoft die Unterstützung mehrerer Karten (herstellerunabhängig!) in DX12 integriert hat. Vorher - also von DX9.0c bis DX11 - war SLI/CF alleinige Sache des jeweiligen Herstellers. Also:
  • SLI: Technik von Nvidia, um zwei gleiche (!) Karten zur Bildberechnung nutzen zu können. DX9.0c - DX11
  • Crossfire: Technik von AMD zur Nutzung zweier gleichen (!) Karten, ebenfalls DX9.0c - DX11
  • Multi-GPU: Technik von Microsoft um mehrere GPUs zur Bildberechnung nutzen zu können. Die Grafikkarten müssen nicht gleich sein, und müssen nicht vom gleichen Chiphersteller sein. Gibt es nur mit DX12.
@Wolfgang das solltest du als langjähriger Spezialist für Grafikkarten eigentlich wissen.
W0lfenstein schrieb:
War ja klar. War auch schon immer so . Einzel GPU ist immer vorzuziehen.
MultiGPU für Gamer war immer scheisse um es mal auf den Punkt zu bringen und wird auch immer so ein.
Nur wenn man die Technik falsch einsetzt. Erklärung gibt's weiter unten.
AleksZ86 schrieb:
naja, wieso macht man auch mit zwei Mittelklasse/Performance Karten ein SLI?
SLI macht man, wenn schon, mit highend, also den aktuell "stärksten" karten.....
Nein, funktioniert auch wunderbar mit Low- und Mid-Class Karten. Aber nur wenn man es richtig einsetzt. Erklärung gibt's weiter unten.
Retro-3dfx-User schrieb:
Nvidia hat doch damals 3dfx geschluckt, probiert es dochmal mit dem originalen Scan Line Interleave, das hat seinerzeit wunderbar Skaliert und die Lizenzen sind doch da, also ist es auch umzusetzen.
Scan Line Interface funktioniert mit aktuellen Grafik APIs nicht mehr.
BLACKDIAMONT schrieb:
Ich hab noch 3x 980Ti unter Wasser und die rocken bei DX12 alles weg ;) Bei mir bringen die Karten von 8x auf 16x immer mehr FPS, wo ich mich frage .... was ist beim CB Test kaputt? O.o
Ich bleib bei SLI jedenfalls .... für mich ist es nicht Tot (go hatet mich :D) etc ;)
SLI wird durch DX12 abgelöst werden. Siehe oben. Tja, was ist beim CB Test kaputt... Da muss ich jetzt weit ausholen, zurück zur X1800 Serie von ATI ins Jahr 2006. Seit damals - mit Masterkarte und DVI-Kabelpeitsche^^ - liefen bei mir CF Systeme, und ich war hier einer der ersten, der die unangenehmen Mikroruckler monierten, als Wolfgang sie noch vehement abstritt. 2008 oder 2009 dann endlich konnte Wolfgang durch wackere hartnäckige Forummitglieder davon überzeugt werden, und CB brüstete sich damals, als eine der ersten Redaktionen, die Mikroruckler entdeckt und nachgewiesen zu haben. Warum dauerte es so lange? Weil noch keine Frametime Messungen gemacht wurden. Spiele liefen damals unter DX9 generell mit konstanteren Frametimes als aktuell mit DX11 und 12. Aber ich schweife ab. Kurz gesagt ist jeder SLI/CF Test hier auf CB (ja, ich hab alle gelesen und in jedem stets das gleiche moniert) unter ungünstigen Konfigurationen und Spieleeinstellungen gemacht worden. Das habe ich stets bemängelt, und meine Ratschläge wie man es besser machen könnte stets ignoriert. Wie damals die Mikroruckler - den Begriff gabs damals noch gar nicht, wurde damals von mir als "unsauber laufen" bezeichnet^^

Faust2011 schrieb:
TAA erzeugt sehr, sehr gute Ergebnisse und nutzt dazu eine temporale Komponente, d.h. die gerenderten Frames hängen direkt voneinander ab. Das ist leider der Tod jeglichen Multi-GPU Renderings (zumindest, solange wie derzeit das Alternate-Frame-Rendering verwendet wird). Die Grafikkarte braucht für die Berechnung des aktuellen Frames den vorhergehenden, d.h. die beiden Karten müssen jeweils warten, bis die andere Karte fertig ist. Ergo, obwohl zwei Karten im System sind, ist immer nur eine (!) aktiv.
TnTDynamite schrieb:
Wurde denn das hier berücksichtigt? War in den Spielen, die gar nicht skalierten evtl. TAA aktiv? Könnte ja auch versehentlich und unbewusst passiert sein, etwa wenn man es im Spiel inaktiv gesetzt hat, die Option aber vom Treiber anders gesetzt wurde, also nicht auf "anwendungsgesteuert".

Kurz und knapp: Nein, wurde nicht berücksichtigt. Weil Wolfgang entweder nicht richtig testen will oder er es einfach nicht besser weiß. SLI und Crossfire wird stets falsch konfiguriert getestet und dann wird munter drauf los geschimpft weil es ja so Kacke ist...

So konfiguriert man ein SLI/CF System:
  • Mainboard mit ganz vielen PCIe-Lanes
  • viel schnellem RAM
  • Grafikkarten mit massig VRAM
  • CPU so wählen, dass mit nachfolgendem Spiele-Settings nie ein CPU Limit anliegt
So konfiguriert man die Spiele:
  • nur eine Karte nutzen
  • sämtliche Kantenglättung ausschalten
  • die Grafiksettings so einstellen, dass das Spiel immer und überall absolut ruckelfrei läuft. Vergesst FPS Anzeigen, sauber laufen muss es! Manche Spiel laufen schon ab 35FPS sehr sauber (Crysis damals), manche brauchen mindestens 70 FPS.
  • CPU Limit stets vermeiden! Es darf nirgends ein CPU Limit vorhanden sein!
So nutzt man SLI/Crossfire:
  • zweite Karte rein bzw. aktivieren
  • Kantenglättung im Treiber aktivieren. Aber entweder 2x/4x Multi Sampling ohne temporale Komponente oder 2x Supersampling - je nachdem wie gut die Skalierung ist.
SLI/Crossfire ist eher schlecht geeignet, um Leistung zu steigern. Läufts mit einer Karte nicht richtig, läufts auch mit mehreren nicht gut. Aber zur Qualitätssteigerung des Bildes ist es hervorragend geeignet! Leider geht jeder Test hier auf Computerbase nur auf Leistungssteigerung ein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BLACKDIAMONT und Pulsar77
Raucherdackel! schrieb:
sämtliche Kantenglättung ausschalten

Nein, lieber Raucherdackel, das ist heutzutage aber keine Option. Das wäre sinngemäß "und heute gehen wir den Wocheneinkauf mit dem Fahrrad / zu Fuß erledigen". Ja, es gibt ein paar, die sowas machen (und jetzt bitte keine Öko-Diskussion), aber TAA / TXAA ist (zumindest für mich) ein großer Schritt nach vorne. Außerdem bieten viele Spiele gar nicht mehr Alternativen dazu an.

In meinem Fall wollte ich auf 3 FullHD Monitoren "F1 2018" zocken, und zwar ohne irgendwelche Flimmereffekte und sichtbare Kanten. Aber mit TAA sind meine beiden R9 290 auf Single-Card Performance eingebrochen. Deshalb habe ich mir eine Vega 56 geholt. Läuft butterweich, macht Spaß, kurzum: so soll es sein.

P.S. Wenn Du Interesse hast, kannst gerne meine beiden Asus DirectCU R9 290 kaufen, umgebaut auf Wasserkühlung. Die rennen auch mit 1.200 MHz - sehr nice, aber (für mich) nicht mehr zeitgemäß. Die schmücken gerade das offene Regal hinter mir ;) :D
 
  • Gefällt mir
Reaktionen: W0lfenstein, Cpt.Willard und Dr. Chandra
S.O.L.D.I.3.R schrieb:
SLI und CF wurden eifach stillschweigend exekutiert. Aber das liegt daran weil es nicht funktioniert, sondern weil man nicht will. Die Leute sollen lieber 1000€ für eine Karte ausgeben anstelle von 2x 300€ und dann die selbe Leistung erhalten.
Nein. SLI und Crossfire sind mit DX12 einfach obsolet, weil mit DX12 Multi-GPU in der API umgesetzt wurde. Vorher war das ein Treiber Feature.
Faust2011 schrieb:
Nein, lieber Raucherdackel, das ist heutzutage aber keine Option. Das wäre sinngemäß "und heute gehen wir den Wocheneinkauf mit dem Fahrrad / zu Fuß erledigen". Ja, es gibt ein paar, die sowas machen (und jetzt bitte keine Öko-Diskussion), aber TAA / TXAA ist (zumindest für mich) ein großer Schritt nach vorne. Außerdem bieten viele Spiele gar nicht mehr Alternativen dazu an.

In meinem Fall wollte ich auf 3 FullHD Monitoren "F1 2018" zocken, und zwar ohne irgendwelche Flimmereffekte und sichtbare Kanten. Aber mit TAA sind meine beiden R9 290 auf Single-Card Performance eingebrochen. Deshalb habe ich mir eine Vega 56 geholt. Läuft butterweich, macht Spaß, kurzum: so soll es sein.
Lies meinen Post nochmal aufmerksam. Ich weiss, viele Spieleengines können kein Multi Sampling mehr. Supersampling (also die Berechnung des Bildes mit vierfacher Auflösung) - analog dazu Downsampling - sollte funktionieren, und glättet auch das ganze Bild. Sicher, der Umstieg auf eine doppelt so starke Karte ist stets eine Option - und manchmal auch sinnvoll. Aber wenn man dein gewähltes Setting mit meinem vorherigen Post vergleicht, dann sieht man, warum Crossfire nicht richtig lief. Es war so gesehen falsch konfiguriert. Du schreibst ja selber, dass TAA sich nicht mit CF verträgt.
 
  • Gefällt mir
Reaktionen: Pulsar77
Da ich in 4k (ggf. Mit 70%) spiele schalte ich meistens Kantenglättung aus bzw. auf die niedrigste Stufe (gibt manchmal einen FPS boost).

Ich selbst sehe ich aktiven spielegeschehen nichts vom AA.
Das ist wie Raytracing und div. Schatten Settings.
Alles was viel Leistung frist aber ich nur sehe wenn ich darauf achte kommt weg.
 
Viele Aussagen (SLI war schon immer schlecht / SLI war schon immer nur mit 2 High End Karten zu gebrauchen u.s.w.) hier beruhen nur auf hören sagen und nicht auf eigenen Erfahrungen. Meine Erfahrung mit SLI in der Vergangenheit sah so aus.

In meinem Rechner werkelte eine GTX 660 und eine Spiel wie z.B. Crysis 3 weckten Träume von mehr Performance. Geld für eine GTX 780 oder 780 Ti war aber nicht vorhanden. Eine gebrauchte GTX 660 war aber durchaus denkbar.

Mir waren die Probleme und der Mehraufwand bekannt und so kaufte ich eine 2te 660. Mir war klar das ich mit dem Nvidia Inspector bei den meißten Spielen Hand anlegen musste die schlecht oder gar nicht optimiert waren. Dank genügend Infos aus dem Internet war das zwar etwas Aufwändig aber kein Hexenwerk.

Die Spiele die ich damals spielte liefen nach Optimierung sehr gut und gefühlt (nicht gemessen) nahezu ohne Microruckler. Die Leistung bei z.B. BF4 und Crysis3 konnte sogar die einer 780 Ti leicht übertreffen und damit war mein Ziel mehr als erreicht. Da es damals schon die Fraktion gab, die hart darauf bestanden das SLI mit Mittelklasse wegen dem VRAM kein Sinn macht, hatte ich mir damals auch die VRAM Auslastung angeschaut, diese war bei BF4 in 1080p kein Problem.

Ich gebe aber auch zu das ich froh war als ich mir dann eine single GTX 970 leisten konnte die das SLI gespann ohne Leistungsverlust ersetzen konnte, da ich von dem ständigen anpassen mit Inspector auch langsam genervt war.

Auch mein Fazit war und ist, nicht nochmal SLI aber es gab wie im Beispiel beschrieben durchaus sinnvolle Anwendungsgebiete insbesondere auch bezogen auf den Kosten/Nutzen Faktor..

Allgemein gibt es in anderen Sparten von Hobby noch viel krassere Beispiele, z.B. Autotuner hier gibt es die Fraktion die auf biegen und brechen 4 stellige Drehmoment oder PS zahlen erreichen wollen. Unbestritten dabei, dass solche Leistungssteigerungen real auf der Straße ein Fahrzeug langsamer machen als wenn man die Leistung an die restlichen wichtigen Komponenten angepasst hätte. Also bei Enthusiasten in einem Hobby ist keine Sinnfrage zu stellen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TnTDynamite und sky^xs
Raucherdackel! schrieb:
Supersampling (also die Berechnung des Bildes mit vierfacher Auflösung) - analog dazu Downsampling - sollte funktionieren, und glättet auch das ganze Bild.

Genau das hatte ich ein paar mal probiert, und zwar in dem ich im Treiber (AMD Adrenalin) im Spielprofil hart das Antialiasing überschrieben hatte. Resultat: Es hat einfach nicht funktioniert :( Keine Ahnung warum, aber ich habe auch gar keine Lust und Zeit, solchen Problemen hinterherzurennen. Mit Single-GPU ist man einfach prima aufgestellt. Multi-GPU ist eine nette Spielerei, aber halt doch einfach eine Nische.
 
  • Gefällt mir
Reaktionen: Dr. Chandra
@Raucherdackel!

Bezüglich der Scan Line Interleave Technik von 3dfx, die fast immer zu 99% Skalierte und keine Mikroruckler verursachte.

Ich habe das schon gut getestet mit meiner V5-5500 zb. gegen die ATi Rage Fury Maxx die mit AFR läuft und die hat Mikroruckler und das sichtbar bei zeug Anno 2000.

Woher willst du das denn wissen, das dies heute nicht mehr gehen soll, das Bild entsprechend so ab zu Arbeiten wie 3dfx es getan hat... wo steht das denn?

Sicherlich ist diese Technik heute noch umzusetzen, die Theorie ist bekannt, der Rest ist Programmierung und geschluckt wurde das ganze ja 2001 von NVIDIA mit allen technischen Details!
 
Retro-3dfx-User schrieb:
Woher willst du das denn wissen, wo steht das denn?

Sicherlich ist diese Technik heute noch umzusetzen, die theorie ist bekannt der rest ist Programmierung und geschluckt wurde das ganze ja 2001!

Mit wem sprichst Du denn? Und vor allem über was? Gehts Dir um SLI -> Scan Line Interleave?
 
Faust2011 schrieb:
Mit wem sprichst Du denn? Und vor allem über was? Gehts Dir um SLI -> Scan Line Interleave?

Der hat mein Zitieren nicht übernommen, habs Editiert...
 
HisN schrieb:
Ich glaub die sind eher froh, dass sie ihre Bug-Haufen irgendwie zum Release so weit hinbekommen, dass es keinen Shitstorm gibt, ganz ohne diese zusätzliche Aufgabe :-)
Ja inwzischen muss man ja schon froh sein wenn abseits von 16:9 auch noch andere Seitenverhältnisse unterstützt werden und es kein hartes 60 FPS Limit in der Engine gibt. Von Day-Patches, die grad nochmal so gross sind wie das Spiel an sich ganz zu schweigen. Der Download ist mir egal, dafür ist meine Internetverbindung schnell genug, es geht mehr ums Prinzip. Es ist einfach nicht die feine Art, dass man unfertiges Zeug raushaut weil man es ja später ggf. noch "problemlos" patchen kann. Die Kunden werden sich schon melden wenn sie ein Problem haben, und in der Zwischenzeit bringen wir lieber mal das erste DLC auf den Weg, und Bugs werden nur auf Anfrage behoben.
 
Raucherdackel! schrieb:
Aua, Aua... In der Überschrift des Artikels schon so ein schwerer Fehler. Der Begriff "Multi-GPU" wird erst seit DX12 verwendet, weil Microsoft die Unterstützung mehrerer Karten (herstellerunabhängig!) in DX12 integriert hat. Vorher - also von DX9.0c bis DX11 - war SLI/CF alleinige Sache des jeweiligen Herstellers.

Nein - der Begriff "Multi-GPU" ist hier einfach ein Synonym für die Verwendung von mehreren Grafikkarten zum Rendern. Nicht mehr und nicht weniger. Das wird übrigens auch nicht erst seit DX12 so verwendet sondern findet sich auch Jahre vor DX12 in den den Texten wieder.

Raucherdackel! schrieb:
So nutzt man SLI/Crossfire:
  • zweite Karte rein bzw. aktivieren
  • Kantenglättung im Treiber aktivieren. Aber entweder 2x/4x Multi Sampling ohne temporale Komponente oder 2x Supersampling - je nachdem wie gut die Skalierung ist.
SLI/Crossfire ist eher schlecht geeignet, um Leistung zu steigern. Läufts mit einer Karte nicht richtig, läufts auch mit mehreren nicht gut. Aber zur Qualitätssteigerung des Bildes ist es hervorragend geeignet! Leider geht jeder Test hier auf Computerbase nur auf Leistungssteigerung ein.

So funktioniert das aber in der Praxis nicht. Keine Ahnung wann du das letzte mal ein MGPU Gespann im Einsatz hattest - aber in 2019 ist es schlicht nicht mehr sonderlich oft möglich (abseits ein paar weniger AAA Titel) entsprechende Leistungsskalierung zu bekommen. Dabei ist es auch völlig bumms egal ob du die Leistungsskalierung versuchst in FPS umzusetzen oder die mehr FPS in mehr BQ zu pressen.
Skaliert das MGPU Gespann nicht, gibts weder mehr FPS noch mehr BQ.

PS: AA per Treiber funktioniert seit spätestens DX10 auch nicht mehr richtig. Bis einschließlich DX9.0c konnte man bei NV via AA-Bits in vergleichsweise vielen Titeln MSAA/SSAA/SGSSAA via Treiber erzwingen. Für DX10 und drüber gibts es nur noch eine Hand voll Bits - und die funktionieren idR auch nicht abseits der Titel für die sie erschaffen wurden.

Die einzige Möglichkeit eine Kantenglättung per Treiber zu ermöglichen ist VSR, DSR oder das seitens NV über Custom Resolution erzwingbare Downsampling. Der Rest geht zu 99,9% nicht (mehr) in aktuellen Titeln mit DX10 und neuer.

Übrigens, das MSAA und Co. als klassische Hardwaregestützte AA-Implementierungen nicht mehr funktionieren haben auch die Spieleentwickler entdeckt. Heute nutzt man so Weichzeichnerunsinn ala FXAA und Co. was im Endeffekt nichts mehr mit einem echten AA zu tun hat.

Retro-3dfx-User schrieb:
Woher willst du das denn wissen, das dies heute nicht mehr gehen soll, das Bild entsprechend so ab zu Arbeiten wie 3dfx es getan hat... wo steht das denn?

Sicherlich ist diese Technik heute noch umzusetzen, die Theorie ist bekannt, der Rest ist Programmierung und geschluckt wurde das ganze ja 2001 von NVIDIA mit allen technischen Details!

Das Problem ist, dass ein SFR Modus (also ein Split Frame Rendering - nicht am Namen aufhängen, ich meine damit jegliche Art von Zerhackstückeln, also horizontal/vertikal/Schachbrettmuster usw.) durch das aufteilen eines einzigen Bildes in mehrere Teilabschnitte schlicht nicht sonderlich gut bis gar nicht skalieren wird. Warum? Du hast einfach das Problem, dass entgegen der damaligen Engines viel mehr Teile übereinander im Bild liegen und davon in großen Teilen auch auf Daten angewiesen sind, die nicht aus dem konkret zugewiesenen Teilabschnitt bestehen... Screen Space Reflections bspw. wäre hier ein klassicher Vertreter. Wenn der linke Bildbereich sich in einem Objekt im rechten Bildberech spiegelt, kann nicht mittig im Bild geteilt werden -> weil der rechte Bildbereich dann nicht mit der Geometrie des linken Bildbereichs arbeiten kann. Er kennt davon ja überhaupt nichts...
Um sowas umzusetzen müsste man also je nachdem eine Menge redundant berechnen, was der Skalierung massiv entgegen steht. Keine Ahnung, was bringt es dir für 10-20% oder so ins blaue geraten 100% mehr Geld auszugeben?? -> nichts...


Mit DX12 gibts wohl noch andere bestrebungen um MGPU besser skalierbar zu machen. Aber so 100% funktioniert das auch alles nicht.
Von NV gibts dazu bspw. hier was zu lesen:
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12

Faust2011 schrieb:
Du meinst, ob es einen Unterschied gibt zwischen Multi-GPU, aufgebaut aus zwei Grafikkarten, und echten "Dual GPU Grafikkarten", wie die Radeon Pro Duo, R9 295X, ... usw.? Nein, das Problem ist genau dasselbe.

Das kann man so nicht sagen - es gibt (siehe oben) Mittel und Wege in Form von APIs, welche es technisch ermöglichen, Daten von einer GPU zu einer anderen zu schubsen. Dummerweise ist das bei einem klassichen PCIe MGPU Setup eben auf die Bandbreite vom Bus respektive der der Brücken begrenzt. Bei AMD gibts gar keine Brücken mehr.
Technisch gesehen wäre aber ein extrem schneller OnPCB Interconnect hier dann in der Lage, das Syncronisierungsproblem massivst abzumildern. Im Dev. Link oben wird bspw. erwähnt, dass bei 8x PCIe für 64MB Daten ca. 10ms Zeit benötigt werden. 10ms alleine für ein Copy Task - das wäre ein 100 FPS Cap, wenn die Bilderzeugung quasi gar keine Zeit benötigen würde - real kommen da also noch xx ms drauf und die Skalierung bricht zusammen.

Also nein, eine native Implementierung in welcher Form auch immer hat zumindest in der Theorie hier massivste Vorteile. Theorie halt deswegen, weil es aktuell keine konkrete Umsetzung davon gibt.
Die GV100 Cluster verbunden via NVSwitch könnten hier schon deutlich Pluspunkte aufzeigen - testen wirds aber in so einem Gerät wohl zu 99,99% keiner. Zumal Gaming-Benchmarks damit wohl auch absolut nicht laufen würden ;)
 
  • Gefällt mir
Reaktionen: Conqi und Dr. Chandra
SLI ist seit gut 2 Jahren tot. Das 1080ti SLI lief schon schlecht....
 
Zurück
Oben