Bericht 15 Jahre Nvidia SLI: Von der großen Bühne in die Abstellkammer

Zitterrochen

Captain
Dabei seit
März 2011
Beiträge
3.564
9800GX2 als einziger SLI Ausrutscher.
War heiß und laut aber meine erste Karte die Crysis „flüssig“ brachte.

Btw konnte nie den Sinn dahinter verstehen Mittelklasse und Performance Karten zu koppeln anstatt sich den Big Chip 1x einzubauen.
 

Danieloss

Ensign
Dabei seit
Apr. 2008
Beiträge
151
Könnte es denn nicht für zum beispiel vr brillen interessant werden ? Sodass zum beispiel jede Karte ein Auge berechnet. Man geht dann im Prinzip mit 2 HDMI kabeln an jeweils eine Karte. So könnte dann vielleicht jede GPU ein VR Display mit 4k auflösung berechnen 🤔
 

Jesterfox

Fleet Admiral
Dabei seit
März 2009
Beiträge
39.048
Alle wichtigen Spiele zu der Zeit konnten glide.
Quake (und andere Spiele auf der ID Engine) konnte nur OpenGL. Auf den 3DFX Karten lief das über diesen miniGL Treiber der das von Quake benötigte Subset an OpenGL zur Verfügung gestellt hat (aber nur das, andere Spiele mit OpenGL liefen meist nicht damit, Quake 3 auch nicht). Und die Riva 128 lieferte da mehr max FPS als die Voodoo1. Allerdings hatte sie wie gesagt auch Probleme mit "Nachladerucklern". Die Voodoo lief deutlich smoother.
 

Thomson1981

Lt. Commander
Dabei seit
Sep. 2008
Beiträge
1.231
Bin damals im Sommer 2008,genau zur Blütezeit von SLI, eingestiegen mit meinem damals neuen System Core 2 Q9550, EVGA nForce 790i ultra SLI, 4Gb DDR3 1600 RAM und der Nvidia 9800GX2 Grafikkarte.

Die Karte hatte damals zwar mehr Power als die Speerspitze GTX 280, war jedoch wegen des extrem kleinen VRAM von nur 512MB nahezu auf die Auflösung 1280x720 (720p) limitiert, was mir ziemlich auf die Nerven ging, weil ich damals schon einen 24 Zoll Monitor in 1920x1200 16:10 Auflösung hatte.

Absolut beeindruckend war es damals aber dennoch, endlich Crysis mit maximaler Grafikpracht flüssig spielen zu können und auch alle anderen Spiele auf maximaler Grafik zu geniesen.

Aber so richtig viel Spaß hatte ich dann erst mit meinem zweiten SLI System mit zwei GTX 480.
Da ich bis heute nie auf 4K/UHD Auflösung gewechselt hatte, reichten die 1536MB VRAM überaschend lange aus, um mit dem System über Jahre immer das Maximum aus jedem Spiel zu holen und ich hatte die zwei GTX 480 über 4 Jahre in Nutzung, ohne aufrüsten zu müssen.

Schließlich starb mir eine Karte genau zu dem Zeitpunkt weg, als dann sowieso dem SLI System der VRAM ausging für neue Spiele und auch die Leistung zu knapp wurde.
Seitdem habe ich seit Anfang 2015 kein SLI System mehr genutzt und das war dann irgendwie auch der Zeitpunkt, wo generell die Unterstützung für Multi GPU Technik langsam immer geringer wurde.

Probleme mit dem SLI System an sich hatte ich eigentlich fast keine, die SLI Auslastung war bei fast jedem Spiel bei etwa 60-100% und bei AAA Spielen immer bei 90-100%.

Gerade alle Spiele mit Cryengine, Frostbite Engine und Unreal Engine liefen besonders gut bei nahezu 100% Verdoppelung der FPS im Vergleich zu einer Grafikkarte.

Microruckler hatte ich bei allen SLI Systemen nur im Bereich unter 35 FPS gespürt, wo es dann meistens auch mit einer Grafikkarte unangenehm wurde, von daher hat mich das Thema Microruckler nie gestört.

Die größte Schwachstelle bei SLI waren damals Indi Titel und weniger bekannte Spiele, wo man dann manuel exe Renaming der Spieledatei betreiben mußte, um SLI in dem Spiel nutzen zu können und bei einer Hand von unbekannten Spielen lief es gar nicht.

Die zweite große Schwachstelle war damals der VRAM Mangel aller Grafikkarten, der immer irgendwann zum vorzeitigen Lebensende eines SLI Systems geführt hat, auch wenn die Leistung an sich noch gereicht hätte für neue Spiele.
Das war aber auch von den GPU Herstellern absichtlich gewollt, damit man auch den letzen Gamer zwingen kann sich eine neue Grafikkarte zu kaufen nach spätestens 4 Jahren.

Als seit 4 Jahren das Thema VRAM Mangel aus der Welt fiel, seit alle interessanten Grafikkarten schon ab der Mittelklasse mindestens 8GB VRAM haben und wo dank Windows 10 mit deutlich verbesserten technischen Möglichkeiten für SLI sogar die Microruckler- und Kompatibilitätsproblematik wegfallen würde durch individuelle Anpassung der Spiele, hätte eigendlich SLI in Zeiten von 4K Gaming und Virtual Reality einen zweiten Boom erleben sollen, was sich viele (mich eingeschloßen) auch erhofft hatten.

Aber die Realität fiel anders aus: Die GPU Hersteller wollten es einfach nicht weiter unterstützen, weil sonst wahrscheinlich sehr viele Nutzer mit zwei oder drei GTX 1080 Ti oder Radeon Vega 64 5-6 Jahre keine neue Grafikkarte gekauft hätten und die daraus einhergehenden Umsatzverluste höher wären, als die Mehrverkäufe der oft später günstiger dazugekauften zweiten Grafikkarte.
 

Palomino

Lt. Commander
Dabei seit
März 2005
Beiträge
1.826
Die gute alte 7950GX2 war meine einzige SLI Karte, und ich war immer zufrieden mit der Leistung bis sie durch eine HD 5770 Hawk ersetzt wurde.

Darüber hinaus wiederum wird es schwer, da ja Daten zwischen den Karten dann synchronisiert werden müssten, was nur über Latenzarme und schnelle Schnittstellen geht.
Mich wundert es, warum es AMD und Nvidia in 15 Jahren nicht hinbekommen haben, das Problem mit der Synchronisation von zwei oder mehr Karten richtig in den Griff zu bekommen. Bei CPUs hat man es ja auch geschafft.
Immerhin hat diese Technologie den großen Vorteil, dass selbst Mittelklasse Karten durch SLI/CF einen Leistungssprung erzielen können und damit für eine große Käuferschicht interesant wäre, nicht nur für Enthusiasten. Gerade AMD Karten mit ihrem üppigen Speicher hätten gegenüber NV hier einen Vorteil haben können.
Warum können sich die Karten den Speicher bspw. nicht teilen? Wieso rechnen die Karten separat und müssen sich untereinander anstimmen?
Immerhin hat sich in Tests doch gezeigt, dass bei Optimierten Spielen eine Leistungssteigerung von 80% möglich ist.
 

Haldi

Rear Admiral
Dabei seit
Feb. 2009
Beiträge
5.831
Könnte es denn nicht für zum beispiel vr brillen interessant werden ? Sodass zum beispiel jede Karte ein Auge berechnet. Man geht dann im Prinzip mit 2 HDMI kabeln an jeweils eine Karte. So könnte dann vielleicht jede GPU ein VR Display mit 4k auflösung berechnen 🤔
Jaein.
Einerseits wäre das schon möglich. Nur hast du dann das Problem der Asynchronität.
Wenn eine Explosion oder iwas grosses zuerst auf der rechten Seite auftaucht hast du da Framedrops wobei es links noch flüssig weiter läuft. Wie gesund das ist, oder wie starke übelkeitsgefühle sowas wohl auslöst?
 

digitalangel18

Vice Admiral
Dabei seit
Mai 2005
Beiträge
6.362
Einmal mit zwei GTX260 ausprobiert, und schnell zu dem Ergebnis gekommen, dass eine Karte (mit ggf leicht reduzierten Details) und 25-30 fps sich oft besser anfühlte, als Zwei mit stotternden 40. Danach nie wieder drum gekümmert.
 

DriveByFM

Commander
Dabei seit
Juni 2008
Beiträge
2.542
Für das Geld wäre damals ne GTX280 deutlich sinnvoller gewesen aber die Leute lernen es nie, bis sie es selbst merken, oder halt auch nicht. ^^
 

Pisaro

Admiral
Dabei seit
Aug. 2007
Beiträge
9.919
Damals konnte man sich 2 Geforce 650TI Boost zusammenschalten und für wenig Geld ein Highend Gerät bauen.
Nvidia hat erkannt, dass hierdurch die Umsätze zurückgehen und SLI auf Mittelklasse Karten verboten. Und genau das war das Ende von SLI.
SLI war aufgrund von schlechten Frametimes und gerade sehr heftigen Mikrorucklern leider schon immer bei Einsteiger- oder Mittelklassehardware sinnfrei. Das hat dann auch nicht viel mit NVidia zu tun.
 

DriveByFM

Commander
Dabei seit
Juni 2008
Beiträge
2.542

Zitterrochen

Captain
Dabei seit
März 2011
Beiträge
3.564

grind507

Cadet 2nd Year
Dabei seit
Juni 2008
Beiträge
31
Die Crossfire bzw Crossfire-X Zeit habe ich ebenso mitgemacht. Mal mehr und mal weniger erfolgreich. Angefangen hatte es mit dem wunsch nach mehr Leistung als die der vorhandenen 8800gtx. Da kam zuerst eine gtx280 in den Rechner. Voller Enttäuschung ging die zurück zum Händler und eine HD 3870X2 brachte den gewünschten Leistungssprung. Leider aber nur in Benchmarks. Damals hatte ich alles Wassergekühlt und sogar eine 2. HD3870X2 zog in den PC ein. Exorbitante 100k Punkte im 3dmark03, aber für Spiele war das einfach nicht zu gebrauchen. Wenn ich mich recht entsinne habe ich beide nacheinander verkauft und mir dann die HD4870X2(was eine riesige Karte damals) in Verbindung mit dem ersten i7 920@4ghz zugelegt. Das lang ersehnte gta 4 kam auf dem pc raus und lief mit 50-60fps durchschnittlich 1080p @Max flüssig! Im vergleich zur xbox version waren das einfach Welten!!! Leider waren auch hier Microruckler, gerade um die 35-40fps ein Thema, sowie Abwärme und Energieverbrauch. Letztlich habe ich danach nicht mehr auf dual gpu Systeme als Hauptrechner gesetzt. Mittlerweile sammel ich diese Karten und erfreue mich an ihrem bloßem Anblick.
 

Faust2011

1+1=10
Teammitglied
Dabei seit
Aug. 2011
Beiträge
10.389
Bei der Multi-GPU Zeit war ich ebenfalls an Board, un zwar von Herbst 2014 bis Herbst 2018. Im System hatte ich 2 x R9 290, beide unter Wasser gesetzt. Die konnte man sogar auf 1.200 MHz laufen lassen und hatte Leistung ohne Ende. Auch Mikroruckler waren eigentlich nicht das Problem.

Aber im Nachhinein muss ich sagen, dass der Input-Lag doch spürbar war. Zumindest fiel mir das auf, als ich im Herbst 2018 die Vega 56 eingebaut hatte. Prima Karte, übrigens, die Powercolor Vega 56 Red Dragon :daumen:

Und noch aus akutellem Anlass, nachdem gestern der Launch von AMDs Navi war mit den RX 5700 (XT) Modellen:
GPU der Radeon RX 5700 Serie unterstützt Crossfire nur im 'expliziten' Multi-GPU-Modus, wenn ein DX12- oder Vulkan-Spiel dies unterstützt. Der ältere 'implizite' Modus, genutzt von 'legacy DX9/DX11/OGL'-Spielen, wird nicht unterstützt.
(ist ein Zitat aus dem Bericht von pcgh.de)

Fazit damit aus Sicht von AMD: MultiGPU wird nicht mehr supportet. Wenn dann es jetzt wirklich ein Spielehersteller selbst richten. Die Möglichkeit dazu bietet ihm jedoch DX12 und auch Vulkan.
 
Top