Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

Sorry aber dieser Test hier ist mal total albern und klar das die CF / SLI Systeme so schlecht darstehen.

Warum testet man solche Systeme bitte auf einem System welches keine 2X 16 Landes bereit stellt, dann ist klar das man so imense einbrüche hat. Allein der Fall das die HB Bridge von Nvidia hier soeinen gewaltigen Vorteil bringt zeigt das schon, das CF auf dem System nur schlecht sein kann, da die überhaupt keine Brücke mehr verwenden und alles durch den PCI-E Port muss.

Wenn ihr einen Vernünftigen CF / SLI Test machen wollt den man werten kann nutzt bitte auch ein System welches dafür volle 2X 16 Lanes bereit stellt und seht das die Erbegnisse um ein vielfaches besser ausfallen.

Ich würde behaupten das sogut wie keiner auf einem Mainstream Sockel CF / SLI laufen lassen wird, da diese Käufer eh immer weniger werden werden die in der Regel auch einen Sockel der dafür besser geeignet ist einsetzen.

Habe seit Jahren SLI Systeme und bei sogut wie keinem Game Probleme solange SLI unterstützt wird und in der Regel einen Performencegewinn von über 60% also wundern mich diese Tests hier doch sehr stark.
 
  • Gefällt mir
Reaktionen: pvcf, IBISXI, cruse und 3 andere
Warum wurde nicht mit 16/16 PCI Lanes getestet? Gerade bei 4k hängt vieles an der Bandbreite.
 
Also ich würde SLI nicht abschreiben. Ich finde die Diskussion eh wohlfeil:

Beim Ryzen stört das keinen Menschen, wenn man zwar reichlich CPU Kerne hat,
die dann aber nicht in jeder Anwendung nutzen kann, aber trotzdem bezahlt hat.
Wenn ich jetzt 2 Grafikchips habe, und die kann ich nicht in jeder Anwendung
voll ausnutzen, wird hier schon eine virtuelle Beerdigung abgehalten. Hä?

Wenn ich weiß, wieviel Performance ich bei meinen Spielen mehr bekomme,
ist es für mich doch eine einfach Rechnung, ob es sich für mich lohnt oder nicht.
Das gilt für Multicore CPUs genauso wie für Multi GPUs. #SLInotdead! :D
 
  • Gefällt mir
Reaktionen: -Bo-
M.B.H. schrieb:
Ich verstehe die Ergebnisse nicht. Rein von der Hardware müsste ein SLI-System GENAU doppelt so schnell sein / doppelt so viele FPS liefern, und zwar bei jedem Spiel. ... Kann doch nicht so schwierig sein in 10 Jahren das hinzubekommen.
...
Ist es aber anscheinend doch. Das Problem ist die Ausgabemethode AFR.
Das hier in einem Post schon erwähnte Uralt-SLI von 3dfx konnte noch 1:1 skalieren. T&L wurde damals aber auch noch von der CPU berechnet.
Einfach ausgedrückt: Die Grafikausgabe lässt sich heute nicht mehr pro Bild zeilen- oder rasterweise aufteilen, wie bei vielen anderen rasterbezogenen Berechnungen, die gut skalieren. Und AFR krankt daran, dass aufeinanderfolgende Bilder eben oft sehr unterschiedliche Leistung benötigen und es dadurch Timing-Probleme gibt.

Ein prinzipbedingtes Problem lässt sich selten bei Beibehaltung des Prinzips lösen. Bestenfalls ein Stückchen abmildern.
 
  • Gefällt mir
Reaktionen: momobinks und HageBen
Hatte damals 2x 8800 und das lief wirklich gut rund. Hatte es danach einfach aus Hitze- und Lautstärkegründen gelassen und werde es nach diesem Test hier wohl auch nicht mehr umsetzen. Mit soeinem Urteil hätte ich nicht gerechnet, immerhin haben sämtliche namenhafte Modder SLI-Systeme, die ich Tag ein, Tag aus in meiner FB-Chronik sehe. Jetzt weiß ich, dass es da wirklich nur um die Optik ging.
 
In Zeiten wo es kaum wirklich brauchbare Single GPU Lösungen für 4K gibt, wäre SLI / CF heute schon noch spannend. Wobei bei den Preisen heutiger High End Grafikkarten wird der Kundenkreis eh sehr klein. Heutige Single GPU Flaggschiffe kosten ja schon meistens das gleiche oder gar mehr, als früher die schnellsten Dual GPU Karten ^^

Ich habe nur ein Crossfire System in Besitz. Eine 5970, hatte ich such schon im 3 fach CF zusammenmit einer weiteren 5870. ^^ Bei alten spielen funktioniert das meist gut.

Ein Freund hatte ne ganze zeit lang auch 2 GTX 690 im System laufen. Das lief schon damals wie ein Sack Nüsse und brachte kaum was.
 
Wulfman_SG schrieb:
sollte eigentlich der Support nicht bei den Grafikschnittstellen liegen? Also DX z.b.? War das nicht ursprünglich der Sinn der sich dahinter versteckte? Die Spieleentwickler müssen nicht auf Grafikkarten optimiert programmieren sondern auf die Schnittstelle.

Genau das ist der Fall. multi-GPU wird nun "endlich" in die API gelegt statt in den Hardware spezifischen Treiber.

Das kann das Problem deutlich vereinfachen, eben je nachdem wie gut diese API funktioniert und die jeweiligen Hardwares dies API auch umgesetzt haben.

https://www.pcworld.com/article/322...brand-as-multi-gpu-gets-more-complicated.html
"CrossFire isn’t mentioned because it technically refers to DX11 applications,” an AMD PR representative told PCWorld. “In DirectX 12, we reference multi-GPU as applications must support mGPU, whereas AMD has to create the profiles for DX11. We’ve accordingly moved away from using the CrossFire tag for multi-GPU gaming.” "
"MD is correct that enabling mGPU support in DirectX 11 and DirectX 12 games are very different. Developers need to build multi-GPU support into DirectX 12 engines and games, explicitly telling the software how to control the hardware. It’s much more versatile and (potentially) powerful than what was available before, but it requires more work on the developer’s end—which may be why only a handful of PC games like Ashes of the Singularity: Escalation, Hitman, and Rise of the Tomb Raider support DX12 mGPU. "


DX12 mGPU ist in Aots, Hitman und RotTR implementiert. Vulkan weiss ich grad nicht welche Games das können.

Schade dass man das nicht im breiten Kontext hier untersucht hat. Aber SLI/CF sind "tot"....das ist ein sterbendes DX11 Feature dass es so mit DX12/Vulkan einfach nicht mehr geben wird.
Ergänzung ()

Nachtrag:

DeusEX hat auch mGPU in DX12: https://www.pcgamesn.com/amd-crossfire-vs-nvidia-sli
 
  • Gefällt mir
Reaktionen: derSafran und valnar77
Wulfman_SG schrieb:
sollte eigentlich der Support nicht bei den Grafikschnittstellen liegen? Also DX z.b.? War das nicht ursprünglich der Sinn der sich dahinter versteckte? Die Spieleentwickler müssen nicht auf Grafikkarten optimiert programmieren sondern auf die Schnittstelle. Die Idee hat sich aber ja scheinbar nicht durchgesetzt und sorgt jetzt dafür das CLI/CF quasi für die Tonne sind. Hätte sich die Idee durchgesetzt, würde DX das einfach handeln und es wäre egal ob 1,2,3 GPUs ...

Sollte...Einfach...

Leute wir sprechen hier von enormen Datenmengen, die zeitkritisch sind, performance bieten müssen, durch verschiedenste Abstraktionsebenen gehen...
Wenn ihr keine Programmierkenntnisse habt stellt euch doch einfach Förderbänder vor. Davon erhöht ihr die Anzahl und die Arbeiter daran. Dann baut ihr Abhängigkeiten ein und danach mehrere Produkte. Danach Produkte die nur bestimmte Stellen anfahren oder nur auf einem Band laufen können. DX irgendwas macht da agrnix von alleine, schon überhaupt nicht mit 0 bis i GPUs.

AMD: CrossFire landet bei neuen GPUs auf dem Abstellgleis

Das Zeug ist tot und gut. Mit VR kommt womöglich noch mal eine deutlich einfachere Form für beide Augen. Wobei VR ja auch mehr oder weniger scheintot ist.
 
Schade das hier nur die DX11-Herstellerlösungen getestet wurden. Ich hätte gerne auch Titel mit offizieler DX12 oder Vulkan Multi GPU Unterstützung gesehen. Aber dann muss die Arbeit halt beim Entwickler gemacht werden.
 
  • Gefällt mir
Reaktionen: Iscaran
Habs auch getestet. 2x 1080 Asus Strix.

In Destiny 2 waren die Frames weit höher, ich hatte aber immer das Gefühl, dass irgendetwas nicht stimmt.
HB Bridge wurde verwendet.

Zudem war die erzeugte Hitze nicht ohne un die "obere" Graka war ziemlich warm (~80° statt normalerweise 70).

Fazit: Entweder 1080ti, oder eben eine Stufe drunter (1080, vega64..) oder eben nocht weiter runter.
Aber SLI/CF würde ich nicht nutzen.
 
Mein letztes SLI-Gespann bestand bis Mitte 2008 aus zwei 8800 Ultras und skalierte damals wirklich ganz passabel.

Sowohl NVIDIA als auch AMD scheinen aber kein großes Augenmerk mehr auf SLI/CF zu legen und ihre Treiber dementsprechend nicht mehr dahingehend zu optimieren.

@Wolfgang vielen Dank für den Test, sehr interessant die Entwicklung zu sehen. Aber hätte es kein Setup mit 16/16 Anbindung sein dürfen?

Liebe Grüße
Sven
 
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen ? Vor drei Jahren wurde man noch ausgelacht dafür weil es totaler Quatsch war ein Spiel auf 120 fps Laufen zu lassen ?
Klärt mich mal bitte auch, das ist mein ernst.
 
@Botcrusher:

Nein Das zeug ist nicht "tot" - es ist nur in die API gewandert und damit lebendiger als je zuvor.
http://www.tomshardware.co.uk/answers/id-3142821/dx12-vulkan-games-supporting-multi-gpu.html

Denn wenn die Entwickler das implementieren ist der Performance gewinn einfach realisierbar und schlägt in der Regel sogar den Performance Gewinn wenn ein Treiber CF/SLI Profil das ganze "reverse-engineered" steuert.

Es gibt aktuell schon 9 DX12/Vulkan Titel die das beherrschen und Sniper Elite 4 zeigt sogar dass die Performance mit native mGPU höher ausfällt als mit DX11

1. Ashes Of The Singularity
(http://www.kitguru.net/gaming/matthew-wilson/creative-assembly-and-amd-team-up-for-total-war-warhammer-dx12/)

2. Rise Of The Tomb Raider
(http://wccftech.com/rise-of-the-tomb-raider-pc-patch-dx12-multi-gpu-async-compute-vsync/)

3. Deus Ex: Mankind Divided
(https://gaming.radeon.com/en/deus-ex-directx-12-mgpu/)

4. Total War: Warhammer
(Now here in Beta form https://www.reddit.com/r/totalwar/comments/4qr92s/dx12_crossfire_support_gone/d4vc4oc/)

5. Civilization VI
(http://www.pcworld.com/article/3143108/software-games/massive-civilization-vi-update-adds-directx-12-new-multiplayer-mode-and-maps.html)

6. Hitman
(https://www.youtube.com/watch?v=9KUK-yHT-Pg)
In action.

7. Gears of War 4
(https://www.youtube.com/watch?v=HquM9cy8HHA)
In action.

8. Sniper Elite 4
(https://www.youtube.com/watch?v=PYirYgVQkjM)
Performance is superior to DX11 Crossfire mode.

9. Halo Wars 2
(https://www.tweaktown.com/news/58211/halo-wars-2s-latest-update-includes-multi-gpu-support/index.html)
This is a DX12 (Feature Level 12) only game, so although the artlicle refers to SLI/Crossfire it is infact DX12 m-GPU that has been patched in.

EDIT: Hier ne andere Version der Liste sortierbar und mit Quellenangaben und mehr details:
http://www.wikiwand.com/en/List_of_games_with_DirectX_12_support
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran
Sollte sich also auch für VR keine Lösung finden lassen bleibt nur die Hoffnung das ab (Mitte) 2019 endlich Eye-Tracking aufgenommen wird und dank "foveated rendering" damit die Last für die (eine) Grafikkarte sinkt.
 
neofelis schrieb:
Wurde SLI/Crossfire nicht als gute Lösung für VR-Brillen angepriesen?
Hätte nicht vermutet, dass sich diese Gespann-Technologie bereits so stark überlebt hat.

Ich hatte auchmal etwas in der Richtung vernommen aber passiert ist nichts. Verständlich ist es ja auch. Stell Dir vor Du benötigst nicht nur die VR Brille um die 500 Euro sondern auch noch zwei Highend Karten a 700 Euro aufwärts. Dann würde es in der Tat kein VR Markt geben oder dieser wäre so klein das Entwicklung nicht lohnt.

Wobei die Vorstellung zwei Karten zu nutzen schon verlockend ist. Allein aus technischer Sicht.

Gruß Holzinternet
 
  • Gefällt mir
Reaktionen: Mihau
Hatte "damals" 2x Asus RoG Matrix Platinium GTX 780 TI im SLI laufen - war schon geil aber der Stromverbrauch war auch vom anderen Stern ^^
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Iscaran schrieb:
DX12 mGPU ist in Aots, Hitman und RotTR implementiert.
ok da hab ich wohl ein Gedankenfehler ... Ich hab mich jetzt an dem Satz auf dem Artikel aufgehalten "Und da jede GPU abwechselnd ein Bild berechnet, verschwinden manche Objekte andauernd und tauchen dann wieder auf. "

heißt doch für mich erstmal: dem Programmierer des SPIELES ist es EIGENTLICH völlig egal ob jemand 1 oder 2GPUs nutzt. Er schickt 10 Bilder(/Frames oder was auch immer) an die API und sagt "mach!" ... die API hat jetzt die Entscheidungsgewalt: ich hab 2 GPUs - dann schicke ich abwechselnd einen Auftrag dahin und einen dahin. Fertig. Theoretisch müssten 2 GPUs damit dann auch doppelt so schnell sein. Wenn ich das jetzt aber richtig verstehe mit DX muss das Spiel "mGPU" unterstützen und mit der Qualität steigt der Vorteil der Unterstützung.

Kommt für mich zum Glück eh nicht in Frage ;)
 
Ist halt wieder so ein Anwendungssache. 5 Spielchen getestet? Und sonst? Bringt es wenigstens anderswo was auf SLI zu setzen? Ich weiss bspw. aus einschlägigen Simmerforen, dass zumindest bei Prepar3d v4.x SLI unglaublich viel bringt und bei GPU-lastigen Situationen bis zu 70% mehr FPS erreicht werden. Skaliert also sehr gut. Auch soll das grundsätzliche Gefühl der flüssigen Darstellung mit SLI auch besser sein, wenn nicht mehr FPS hinten raus kommen. Wie es bei X-Plane ausschaut, weiss ich nicht. DCS skaliert angeblich auch sehr bescheiden mit SLI. Und Fahrsims? Keine Ahnung, ob bspw. rFactor oder pCars2 gut skalieren. Wäre also durchaus erweiterbar dieser Test.

Warum ich das überhaupt erwähne? Gerade die Flightsim-Community besteht aus mehrheitlich älteren Semester, keine Kiddies, welche sich die HW am Hemd absparen müssen oder Papa anzapfen müssen. Da ist dann auch die Bereitschaft viel höher, mehrere tausend Euros in HW zu stecken, wenn es was bringt. Schlussendlich war SLI schon immer höchstens ein Nischenmarkt, also eigentlich nicht sonderlich erstaunlich, dass die 5 AAA Titel da keine Stricke zerreissen...
 
Aslo schrieb:
Schade. Für die Technik muss mal eine Universallösung her, so dass keine Treiberprofile notwendig sind.
Gibt es doch, nennt sich DX12, Vulkan kann auch auf jede GPU zugreifen, Problem ist die Programmierarbeit lohnt sich für die Studios nicht.
 
Wenn ich das jetzt aber richtig verstehe mit DX muss das Spiel "mGPU" unterstützen und mit der Qualität steigt der Vorteil der Unterstützung.

Korrekt. Das ist ja der ganze grund warum man das in die APIs verlagert hat. Dort ist es "einheitlich" für alle GPUs die die API Supporten gelöst und fertig.
Klar der Entwickler muss nun mGPU mit einbauen und beim Kompilieren halt den Compilerswitch setzen - aber das ist immernoch sinnvoller als dass es hinterher die Treiber-Entwickler das Game-Verhalten retro-analysieren und daraus ein CF/SLI Profil "frickeln".

=> mGPU wird sicherlich nur für grafisch Anspruchsvolle Games relevant sein, sprich die Großen Entwickler Studios.
Andererseits brauche ich für irgendein Indie-Retro Game von einem kleinen Studio auch eben kein mGPU support, denn das läuft in der Regel auch schon auf IGPs / APUs performant genug.
 
Zurück
Oben