Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

Finde das eigentlich schade, da steckt soviel Potential drin, gerade für 4K 144Hz aber ich kann mir das nicht mehr antun. ^^
Vielleicht ändert sich ja die nächsten Jahre oder durch NV Link etwas aber das ist wahrscheinlich nur Wunschdenken von mir. :D
 
Auf 4k HDR 120Hz per HDMI 2.1 können wir auch noch lange warten.
Von daher ist jeder Zwischenschritt verständlich. Und Du hast sicher Deine Txp´s schon ne Weile und brauchst mal wieder neues Spielzeug.
Gerade gelesen die Zotac Ti hat 285W zum selben Preis wie die FE.
Da kann sich NV die FE komplett schenken.
 
Ja hab die beiden direkt beim Release gekauft :D Titan V ist interessant aber eigentlich zu teuer, vorallem falls dann noch was besseres als die 2080 Ti kommt. Aber erstmal die Tests abwarten.
 
GerryB schrieb:
Es gibt auch genügend ältere Games, die tek9 in die Knie zwingen, daher muss man nicht nur nach vorne Schielen.
Unreifes UE4- Zeugs kommt mir nicht auf den Rechner..

Wer zwingt hier wen in die Knie :D

Die meisten Spiele die @Häschen als aktuelle Titel aufgelistet hat, sind älter als drei Jahre. Das ist nicht gut abgehangen sondern einfach alter Kram.

Oldies wie Crysis, ARMA, Max Payne 3, Bioshock Infinite, Tomb Raider, oder Watch Dogs z.b. :D

Das SLI und Crossfire mit aktuellen Spielen nicht mehr so gut läuft, lässt sich nicht wegdiskutieren.

Wenn ihr irgendwann bei den Games angekommen seid die seit 2015/16 veröffentlicht wurden, werdet ihr schon wissen was ihr davon haben werdet..
 
@tek9
Das Erscheinungsdatum sagt Nichts über die Qualität aus. Neu ist nicht = besser.
99% eh nur Shootermüll mit sinnlosen Engines.
Ich erinnere nur an den HDR-Artikel und die folgende Diskussion.
Nehm mal MEA und schalte die Farbkompression ab.
Das kannst Du sogar an einem SDR-Moni testen.
btw.
Dein Sys = ?

Oft reicht Single für 4k-HDR nicht aus.
Das kann aber Jeder für sich selbst entscheiden und die Regler nach links schieben.
Oder RTX@FullHD-60fps geniessen.

@Drive
Kann sein, dass 2xTxp schon nicht mehr genügend Bandbreite mit PCIe hat ? --> würde dann wohl nur bis 1070..80
mit der HB-Brücke funzen . (analog hab ich mit der 56 mehr Spielraum als die LCE)

Aus meiner Sicht wird hier im Thread eh nicht mehr viel Interessantes kommen. Warte lieber mal auf
die Turing-Reviews. (und was mit NV-Link geht) Da kann man Dort im Thread weiterreden.
Bye
 
@GerryB Netter Versuch vom Thema abzulenken. Wir diskutieren nicht über die Qualität von alten Spielen sondern darüber das aktuelle Spiele nicht mehr von SLI profitieren.

Würdest du also bitte beim Thema bleiben.

Was nützen einem die alten Spiele wenn man sie alle gespielt hat? Genau gar nichts.

Da aber nicht mehr viel neues mehr kommt das vernünftig mit SLI läuft, macht es auch keinen Sinn so ein System aufzubauen.
Ich wüsste auch nicht warum man für Oldies wie Tomb Raider 2013 SLI braucht. Die alten Kamellen laufen mit einer 1080ti bereits super flüssig.

Mein nächstes System wird ein 9700K/Ryzen 2800 mit einer Touring Karte. Ich bezweifle das man zwei Touring benötigt um die Oldies aus der Liste von @Häschen flüssig in 4K zu spielen ;)
 
  • Gefällt mir
Reaktionen: derfledderer
tek9
Wenn man keine Antwort hat, sagt man, das Einen die alten Spiele nicht interessieren.
Mit der Ti bist Du in MEA 4k@HDR voll unterbesetzt.
Turing wird Das übrigens viiiel besser können als Pascal.
Da lohnt es sich Neu zu spielen.

Bzgl. TR kenne ich mich nicht so aus, weil 3.P-View ist nix für mich. Wenn Du mit der Ti 60fps@4k hast Ok.
Manche hätten halt gern 100.
btw.
Bei Vega lohnt sich jedoch ne 2. Graka.

Thread - Ende für mich.
 
@GerryB du liegst völlig falsch. Die Spiele haben mich interessiert. Ich habe sie alle durchgespielt.

Deshalb war meine Frage welche_aktuellen_spiele mit SLI gut laufen.

Da diese Frage bisher nicht beantwortet wurde, kann man davon ausgehen das diese Technologie tot ist.

Da hilft es auch nicht zu motzen.

Das sich es lohnt eine zweite Vega einzubauen wenn eine Karte nicht reicht, konnte der Artikel nicht bestätigen ;)
 
tek9
1+

Der Artikel war mit 0815 Hardware+Settings ohne Überlegung durchgezogen und ohne Hinweise zu den Games bzgl. TAA etc.. Konnte daher keine Empfehlung für mGPU sein.
Hinweise zu Limits gab es hier im Thread und wie man diese z.T. abstellen kann.

SLI braucht man nicht unbedingt, so weit man Geld für ne 2080Ti hat bis xxx Fps.
Ein vorhandenes SLI würde ich aber nicht ausser Betrieb nehmen.
dito Cf.
(AMD hat leider momentan keine echte 4k-EnthusiastGraka, da wird Cf weiter ne Rolle spielen)

Prinzipiell ist mGPU Gameabhängig und eher was für Gelegenheitsspieler, die nicht jedes Game brauchen.

Was NV-Link bringt = mal Schauen.
 
Ja klar hier ging aus auch nicht darum den Leuten ihre Investition madig zu machen. Weiter oben hatte ich daher auch folgendes geschrieben

Die Frage für mich ist halt ob es sich lohnt auf zwei Touring zu sparen wenn die Spiele der letzten Zeit nicht mehr wirklich von zwei Karten profitieren.

Meine zurückliegende Erfahrung mit einer 7950GX2 war halt das es ein Problem ist wenn zwei Chips mit gut angepassten Games 60FPS erreichen, aber rotzige Games nur auf einer Karte mit 40fps laufen :-/
 
Weil DX12 so ein Trauerspiel ist, mal Vulkan 1.1:
StrangeBrigade.jpg


Mir würde ein Light Steam-OS mit Vulkan eh besser gefallen, als das überfette W10.
Hoffentlich gehen viele Dev´s auf V1.1 und bringen mGPU.
 
Jetzt werden wir ja sehen, ob beispielsweise Battlefield 5, ein Spiel, das grafisch so anspruchsvoll ist, dass es viele Grafikkarten in die Knie zwingt, ordentlich Crossfire unterstützt.
Wenn das wieder so einen Fail gibt, wie in Battlefield 1, dann gute Nacht.
 
So wie es heute beschrieben wurde arbeitet AMD mit xGMI ja an einem Pendant zu NV-Link.
Leider wird Das erst mit den neuen Boards mit PCIe4.0 und Vega20 nutzbar.

derfledderer
Heute kann es durchaus sein, das NUR die großen Grakas in der Bandbreite + Latenz durch PCIe3.0
limitiert sind, gerade bei Dir, wo Du nur 8x hast. Da kann man auch nicht 100% erwarten , weil das Board einfach
nicht geeignet ist. (da hilft nur von 4k auf 1440p gehen, wie in den Bildern bereits gezeigt und mit dem fps-Limit probieren, wo die Streaming-Probleme anfangen.)
Bei mir sieht es mit der Kleinen 56 etwas besser aus. Vor Allem wenn TAA off ist und scheinbar 2x 16
zumindestens 1-direktional funzt. Zwei große Vorteile für mich sind ULPS, was den Takt schön über P5 hält und
die dann geringere Auslastung bei Nutzung von fps-Limit, was Energie spart, da anscheinend einige Shader geparkt werden.
Habe jetzt hier leider nur ein Bsp. mit Valley für den Nutzen von ULPS, ansonsten auf S.13 schauen wie der Verbrauch mit "geparkten Shadern" aussieht.
v-950-1632.gif



derfledderer
Für BF5-beta hat ein User bei guru3d mal seine Settings mit ner Single-LCE gepostet:
(der hat aber auch ne hoch gepimpte mit P+P und extra hohem HBM-Takt)

BFV 1440p Ultra
For this resolution, im recommending to use (SSAO or HBAO = Lighter or Darker)
1 - Med, 2 - High, 3 - Ultra
Thanks to this tweak there's no Quality Drop & i Have Stable 70FPS all the time !
(FreeSync range Solid no single drop)

GstRender.MeshQuality 2
GstRender.UndergrowthQuality 2
GstRender.ClampGpuMemory 0 (We have 16GB of Vram with HBCC [IMG]https://forums.guru3d.com/styles/default/xenforo/clear.png[/IMG])

==
File -> User.CFG in BF directory (same goes to BF1/4)
==
PerfOverlay.DrawFps 0
render.DrawScreeninfo 0
GameTime.MaxVariableFPS 70 -> Your Freesync Max
RenderDevice.RenderAheadLimit 3 -> like Flip Queue
WorldRender.MotionBlurEnable 0 -> Is OFF
thread.processorcount 12
thread.maxprocessorcount 12 -> Use this if you have 12 or 16 Threads (if 4/8 then 8 or 6)

Ob Du bei GPUMemory 1 machen musst = Probieren.


Nachtrag:
BF5.jpg

Also hier sehen die min fps bei Single rel. schwach aus ! (LCE<1070ti ?)
Würde mal im BF5-Forum nachhaken. ob Das nur am HBM-Takt lag.
Oder ein generelles Streaming-Problem vorliegt (deswegen Triplebuffer ?).

Mal z.Vgl. bei SWBF2 war die Frostbite-Engine noch deutlich besser für Vega:
SWBF2.png


Nachtrag2: bei GameGpu sehen die min fps aber besser aus:
gamegpu.png


Kann also sein, das ne Stelle mit hoher Partikellast die min fps bei anderen Reviews den Eindruck verfälscht.

Bei Guru3d sieht es auch merkwürdig aus, als ob Vega bei 1440p im CPU-Limit wäre:
BF5 1440p.png


bei 4k dann ohne Probleme:
BF5 4k.png
 
Zuletzt bearbeitet:
Eigentlich schade, hatte mal zwei GTX 960 4GB SLI, hatte meinen Spaß damit, dann kam ne 1070 und weil mich das Bastelfieber gepackt hatte aber das Budget knapp war kam dann irgendwann n ganz anderer Rechner mit 970... Nun war ich wieder am überlegen ne zweite 970 hinzuzufügen aber das scheint sich nicht wirklich zu lohnen... Egal, das Meiste läuft auch auf einer 970 noch akzeptabel!
 
Ne, also 2 970 machen jetzt wenig Sinn. Die teilen sich ja den Speicher und der wird oft limitieren.
 
Mir war SLI mit 2 660Ti's ein graus. Der Speicher noch nicht mal, aber so verdammt viele Spiele unterstuetzen SLI wenn ueberhaupt, dann schlecht. Ich hatte zwar mehr FPS im Schnitt, aber frametimes waren totaler Mist, und dann halt viele totale Inkompatibilitaeten. Nee danke.
 
Wenn ihr testet und behauptet etwas ist schlecht, sollte das auch auf fundiertem Technischen Wissen begründet sein.
Mein System:
MB: MSI X299 Pro Carbon
CPU: Intel I9 7980XE
RAM: 4x8GB DDR4 G-Skill camouflage 3600 MHz
SSD: Intel 760p 512GB PCIe3.1
Graka: 2x Sapphire R9 390 8GB GDDR5
Die beiden Grakas werkeln ohne Mikroruckler bei Crysis 3, Battlefield 1, Battlefield V , Metro Exodus und Witcher III auf den Höchsten Settings. Sie laufen bei mir auch mit 2x PCIe3x16 und liefern dabei fast gleich viele Frames wie bei meinem Kollegen mit einem brand neuem AMD Ryzen 7 3700X und seiner AMD 5700XT 8GB auf PCIe4. Wenn ihr die CF oder SLI Konfiguration auf einer CPU verbaut, wo für jede Karte nur 8 Lanes verfügbar sind dann laufen sie nicht mit voller Leistung. Vor allem bei den High-end Karten ist die Busgeschwindigkeit zur CPU entscheidend. Läuft die Graka auf 8 statt 16 Lanes muss die Leistung auch 8/16=0,5 betragen. Wenn nun das Spiel keine Multi GPU unterstützt kann man Glück haben und das System schaltet CF ab sodass die Karte mit voller x16 geschwindigkeit arbeiten kann. Wenn nicht liefert auch sie nur die Hälfte der Leistung und zwar auf nur 8 Lanes und die andere Graka dümpelt im Leerlauf vor sich hin. Bei AMD CF kommt noch hinzu, dass immer eine der beiden Grakas über den PCIe Bus als Master arbeitet und der Slave die Daten vom Master erhält. Ist die kommunikation in 8 Lanes gepresst reduziert sich dadurch die Gesamtperformance. Dabei können die NVIDIA Karten den Bottleneck vielleicht umgehen, weil die Kommunikation zwischen den beiden GPU über die SLI Bridge läuft. Somit liegt die schlechte Performance in diesem Test eher an dem unbrauchbaren Versuchsaufbau als an den Grafikkarten. Der von mir verbaute Prozessor unterstützt bis zu 40 PCIe Lanes. Das Mainboard ist ebenfalls passend gewählt. Schon als die AMD Radeon 7970HD erschien, habe ich durch CF und das passende MB fast die doppelte Leistung erhalten. Wenn ihr solche Technologien schlecht macht bitte erst die Basics betrachten!
 
Du bist etwas spät dran. :D
Der letzte Beitrag ist von 2018. ;)
Auf was beziehst du dich also?
Zudem finde ich 2xR9 nicht besonders sinnvoll, da diese ganz schön Strom fressen.
Verkauf die besser, und kaufe dir eine einzelne aktuelle GraKa, da hast du mehr davon.
 
Zumindest SLI ist seit Generationen grob schlecht und mehr und mehr engines unterstützen es einfach nicht, weil zu viele Effekte zu spät in der Renderleitung erstellt werden, um das teilen zu können.
 
SLI ist tot, CF auch. Hier haben wir wieder nur ein Exemplar, welches oben genannte Technik ohne Sinn verteidigt.

Das wird dir jede Fachzeit bestätigen können. Eigentlich Schade, denn SLI hat Mega Potential. Mein letztes SLI waren 2x 980 Ti und das lief einfach grottig, erlicherweise aber auch bei einigen wenigen Spielen sehr gut.
 
Zurück
Oben