Bericht 15 Jahre Nvidia SLI: Von der großen Bühne in die Abstellkammer

9800GX2 als einziger SLI Ausrutscher.
War heiß und laut aber meine erste Karte die Crysis „flüssig“ brachte.

Btw konnte nie den Sinn dahinter verstehen Mittelklasse und Performance Karten zu koppeln anstatt sich den Big Chip 1x einzubauen.
 
  • Gefällt mir
Reaktionen: SVΞN
Könnte es denn nicht für zum beispiel vr brillen interessant werden ? Sodass zum beispiel jede Karte ein Auge berechnet. Man geht dann im Prinzip mit 2 HDMI kabeln an jeweils eine Karte. So könnte dann vielleicht jede GPU ein VR Display mit 4k auflösung berechnen 🤔
 
  • Gefällt mir
Reaktionen: CMDCake
Aphelon schrieb:
Bei meinem jetzigen Board waren noch eine 2-Way und sogar eine 3-Way Bridge dabei. Der Tote scheint also noch immer zu zucken. :stock:

Ich kann dir auch ein Handy in den Sarg legen... erreichbar bist du dann trotzdem nur in der Theorie. ;)
 
  • Gefällt mir
Reaktionen: Kandalfus und fox40phil
konkretor schrieb:
Alle wichtigen Spiele zu der Zeit konnten glide.
Quake (und andere Spiele auf der ID Engine) konnte nur OpenGL. Auf den 3DFX Karten lief das über diesen miniGL Treiber der das von Quake benötigte Subset an OpenGL zur Verfügung gestellt hat (aber nur das, andere Spiele mit OpenGL liefen meist nicht damit, Quake 3 auch nicht). Und die Riva 128 lieferte da mehr max FPS als die Voodoo1. Allerdings hatte sie wie gesagt auch Probleme mit "Nachladerucklern". Die Voodoo lief deutlich smoother.
 
Bin damals im Sommer 2008,genau zur Blütezeit von SLI, eingestiegen mit meinem damals neuen System Core 2 Q9550, EVGA nForce 790i ultra SLI, 4Gb DDR3 1600 RAM und der Nvidia 9800GX2 Grafikkarte.

Die Karte hatte damals zwar mehr Power als die Speerspitze GTX 280, war jedoch wegen des extrem kleinen VRAM von nur 512MB nahezu auf die Auflösung 1280x720 (720p) limitiert, was mir ziemlich auf die Nerven ging, weil ich damals schon einen 24 Zoll Monitor in 1920x1200 16:10 Auflösung hatte.

Absolut beeindruckend war es damals aber dennoch, endlich Crysis mit maximaler Grafikpracht flüssig spielen zu können und auch alle anderen Spiele auf maximaler Grafik zu geniesen.

Aber so richtig viel Spaß hatte ich dann erst mit meinem zweiten SLI System mit zwei GTX 480.
Da ich bis heute nie auf 4K/UHD Auflösung gewechselt hatte, reichten die 1536MB VRAM überaschend lange aus, um mit dem System über Jahre immer das Maximum aus jedem Spiel zu holen und ich hatte die zwei GTX 480 über 4 Jahre in Nutzung, ohne aufrüsten zu müssen.

Schließlich starb mir eine Karte genau zu dem Zeitpunkt weg, als dann sowieso dem SLI System der VRAM ausging für neue Spiele und auch die Leistung zu knapp wurde.
Seitdem habe ich seit Anfang 2015 kein SLI System mehr genutzt und das war dann irgendwie auch der Zeitpunkt, wo generell die Unterstützung für Multi GPU Technik langsam immer geringer wurde.

Probleme mit dem SLI System an sich hatte ich eigentlich fast keine, die SLI Auslastung war bei fast jedem Spiel bei etwa 60-100% und bei AAA Spielen immer bei 90-100%.

Gerade alle Spiele mit Cryengine, Frostbite Engine und Unreal Engine liefen besonders gut bei nahezu 100% Verdoppelung der FPS im Vergleich zu einer Grafikkarte.

Microruckler hatte ich bei allen SLI Systemen nur im Bereich unter 35 FPS gespürt, wo es dann meistens auch mit einer Grafikkarte unangenehm wurde, von daher hat mich das Thema Microruckler nie gestört.

Die größte Schwachstelle bei SLI waren damals Indi Titel und weniger bekannte Spiele, wo man dann manuel exe Renaming der Spieledatei betreiben mußte, um SLI in dem Spiel nutzen zu können und bei einer Hand von unbekannten Spielen lief es gar nicht.

Die zweite große Schwachstelle war damals der VRAM Mangel aller Grafikkarten, der immer irgendwann zum vorzeitigen Lebensende eines SLI Systems geführt hat, auch wenn die Leistung an sich noch gereicht hätte für neue Spiele.
Das war aber auch von den GPU Herstellern absichtlich gewollt, damit man auch den letzen Gamer zwingen kann sich eine neue Grafikkarte zu kaufen nach spätestens 4 Jahren.

Als seit 4 Jahren das Thema VRAM Mangel aus der Welt fiel, seit alle interessanten Grafikkarten schon ab der Mittelklasse mindestens 8GB VRAM haben und wo dank Windows 10 mit deutlich verbesserten technischen Möglichkeiten für SLI sogar die Microruckler- und Kompatibilitätsproblematik wegfallen würde durch individuelle Anpassung der Spiele, hätte eigendlich SLI in Zeiten von 4K Gaming und Virtual Reality einen zweiten Boom erleben sollen, was sich viele (mich eingeschloßen) auch erhofft hatten.

Aber die Realität fiel anders aus: Die GPU Hersteller wollten es einfach nicht weiter unterstützen, weil sonst wahrscheinlich sehr viele Nutzer mit zwei oder drei GTX 1080 Ti oder Radeon Vega 64 5-6 Jahre keine neue Grafikkarte gekauft hätten und die daraus einhergehenden Umsatzverluste höher wären, als die Mehrverkäufe der oft später günstiger dazugekauften zweiten Grafikkarte.
 
  • Gefällt mir
Reaktionen: Cr@zed^
Die gute alte 7950GX2 war meine einzige SLI Karte, und ich war immer zufrieden mit der Leistung bis sie durch eine HD 5770 Hawk ersetzt wurde.

Teralios schrieb:
Darüber hinaus wiederum wird es schwer, da ja Daten zwischen den Karten dann synchronisiert werden müssten, was nur über Latenzarme und schnelle Schnittstellen geht.

Mich wundert es, warum es AMD und Nvidia in 15 Jahren nicht hinbekommen haben, das Problem mit der Synchronisation von zwei oder mehr Karten richtig in den Griff zu bekommen. Bei CPUs hat man es ja auch geschafft.
Immerhin hat diese Technologie den großen Vorteil, dass selbst Mittelklasse Karten durch SLI/CF einen Leistungssprung erzielen können und damit für eine große Käuferschicht interesant wäre, nicht nur für Enthusiasten. Gerade AMD Karten mit ihrem üppigen Speicher hätten gegenüber NV hier einen Vorteil haben können.
Warum können sich die Karten den Speicher bspw. nicht teilen? Wieso rechnen die Karten separat und müssen sich untereinander anstimmen?
Immerhin hat sich in Tests doch gezeigt, dass bei Optimierten Spielen eine Leistungssteigerung von 80% möglich ist.
 
Danieloss schrieb:
Könnte es denn nicht für zum beispiel vr brillen interessant werden ? Sodass zum beispiel jede Karte ein Auge berechnet. Man geht dann im Prinzip mit 2 HDMI kabeln an jeweils eine Karte. So könnte dann vielleicht jede GPU ein VR Display mit 4k auflösung berechnen 🤔
Jaein.
Einerseits wäre das schon möglich. Nur hast du dann das Problem der Asynchronität.
Wenn eine Explosion oder iwas grosses zuerst auf der rechten Seite auftaucht hast du da Framedrops wobei es links noch flüssig weiter läuft. Wie gesund das ist, oder wie starke übelkeitsgefühle sowas wohl auslöst?
 
Einmal mit zwei GTX260 ausprobiert, und schnell zu dem Ergebnis gekommen, dass eine Karte (mit ggf leicht reduzierten Details) und 25-30 fps sich oft besser anfühlte, als Zwei mit stotternden 40. Danach nie wieder drum gekümmert.
 
Für das Geld wäre damals ne GTX280 deutlich sinnvoller gewesen aber die Leute lernen es nie, bis sie es selbst merken, oder halt auch nicht. ^^
 
Simanova schrieb:
Damals konnte man sich 2 Geforce 650TI Boost zusammenschalten und für wenig Geld ein Highend Gerät bauen.
Nvidia hat erkannt, dass hierdurch die Umsätze zurückgehen und SLI auf Mittelklasse Karten verboten. Und genau das war das Ende von SLI.

SLI war aufgrund von schlechten Frametimes und gerade sehr heftigen Mikrorucklern leider schon immer bei Einsteiger- oder Mittelklassehardware sinnfrei. Das hat dann auch nicht viel mit NVidia zu tun.
 
Thommy-Torpedo schrieb:
9800GX2 als einziger SLI Ausrutscher.

Und dann auch noch die schlechteste die es je gab. :D VRAM Krüppel von Anfang an.

Hatte die testweise 2x für Crysis drin. Bei 4 GPUs sind die Mikroruckler damals schon heftig gewesen.
 
DriveByFM schrieb:
Naja NV halt, Mikroruckler hatte ich allerdings keine wahrnehmbaren blieb bis zur GTX580 im Rechner.
 
Die Crossfire bzw Crossfire-X Zeit habe ich ebenso mitgemacht. Mal mehr und mal weniger erfolgreich. Angefangen hatte es mit dem wunsch nach mehr Leistung als die der vorhandenen 8800gtx. Da kam zuerst eine gtx280 in den Rechner. Voller Enttäuschung ging die zurück zum Händler und eine HD 3870X2 brachte den gewünschten Leistungssprung. Leider aber nur in Benchmarks. Damals hatte ich alles Wassergekühlt und sogar eine 2. HD3870X2 zog in den PC ein. Exorbitante 100k Punkte im 3dmark03, aber für Spiele war das einfach nicht zu gebrauchen. Wenn ich mich recht entsinne habe ich beide nacheinander verkauft und mir dann die HD4870X2(was eine riesige Karte damals) in Verbindung mit dem ersten i7 920@4ghz zugelegt. Das lang ersehnte gta 4 kam auf dem pc raus und lief mit 50-60fps durchschnittlich 1080p @Max flüssig! Im vergleich zur xbox version waren das einfach Welten!!! Leider waren auch hier Microruckler, gerade um die 35-40fps ein Thema, sowie Abwärme und Energieverbrauch. Letztlich habe ich danach nicht mehr auf dual gpu Systeme als Hauptrechner gesetzt. Mittlerweile sammel ich diese Karten und erfreue mich an ihrem bloßem Anblick.
 
  • Gefällt mir
Reaktionen: CMDCake
Bei der Multi-GPU Zeit war ich ebenfalls an Board, un zwar von Herbst 2014 bis Herbst 2018. Im System hatte ich 2 x R9 290, beide unter Wasser gesetzt. Die konnte man sogar auf 1.200 MHz laufen lassen und hatte Leistung ohne Ende. Auch Mikroruckler waren eigentlich nicht das Problem.

Aber im Nachhinein muss ich sagen, dass der Input-Lag doch spürbar war. Zumindest fiel mir das auf, als ich im Herbst 2018 die Vega 56 eingebaut hatte. Prima Karte, übrigens, die Powercolor Vega 56 Red Dragon :daumen:

Und noch aus akutellem Anlass, nachdem gestern der Launch von AMDs Navi war mit den RX 5700 (XT) Modellen:
GPU der Radeon RX 5700 Serie unterstützt Crossfire nur im 'expliziten' Multi-GPU-Modus, wenn ein DX12- oder Vulkan-Spiel dies unterstützt. Der ältere 'implizite' Modus, genutzt von 'legacy DX9/DX11/OGL'-Spielen, wird nicht unterstützt.
(ist ein Zitat aus dem Bericht von pcgh.de)

Fazit damit aus Sicht von AMD: MultiGPU wird nicht mehr supportet. Wenn dann es jetzt wirklich ein Spielehersteller selbst richten. Die Möglichkeit dazu bietet ihm jedoch DX12 und auch Vulkan.
 
wuselsurfer schrieb:
Hätte man mal lieber das SLI von 3DFX verwandt.
Da gab es keine Mikroruckler.
Bitte schreibe es entweder:
3Dfx (die Voodoo1 und 2 Zeit) oder
3dfx (ab Voodoo3-Voodoo5)

Nur der Banshee hatte beides, zu Beginn noch die alte Schreibweise, um die Jahrtausendwende herum dann die Neuere.
 
xexex schrieb:
So einen "tollen" Vergleich kann ich dir auch verlinken.
Das Video ist aber schon ein ziemlich dickes Eigentor, nimm die RTX ON/OFF Labels weg und mach nen Blindtest, bei dem die Leute die Seite mit Raytracing benennen müssen: Ich prophezeie einfach Mal, dass die Trefferquote deutlich näher an 50% liegen würde, als an den 100% im Beispiel von @DJMadMax. ;)
 
@Bright0001
Ach, Leute ^^ Wenn man erstmal wieder Seitenweise zurückkurbeln muss, damit man sich noch daran erinnern kann, was man einst für einen Kernschrott verzapft hat lach

Aber ja, lustigerweise kann man nach ziemlich genau einem Jahr sogar sehr aussagekräftig Revue passieren lassen!

Was hat sich denn in dieser Zeitspanne betreffend RTX getan? Jo, genau... es steht auf der Stelle! Es gibt ein paar Spiele, in denen sind die Effekte hübsch in Szene gesetzt, es gibt ein paar Spiele, da muss man die RTX-Features im Standbild mit der Lupe suchen und es gibt eben unzählige Spiele, die es gar nicht nutzen - was natürlich nicht heißt, dass zukünftige Titel so etwas nicht schon von Haus aus z.B. in einer Standard-Engine wie der UE, Unity, Frostbite oder CryEngine mitbringen.

Ein nettes Beispiel ohne RTX ist wiederum das aktuell überall in den Himmel gelobte The Last Of Us Part 2. Ich will hier keine Diskussion über den thematischen Inhalt des Spiels oder die fragwürdigen Charakterdesigns lostreten, es geht einzig nur um den technischen Standpunkt.

Was Naughty Dog hier (zeitweise, nicht überall) aus der PS4 rausholt, ist sehr beachtlich! Auch die Reflektionen in z.B. Wasserpfützen auf den Straßen sehen fantastisch aus. Ob es sich hierbei um echtes Raytracing oder um eine abgeänderte Variante (z.B. klassisches Raycasting) handelt, kann ich nicht beurteilen.

Fakt ist jedoch:
Es zeigt, dass selbst auf 7 Jahre alter Hardware hübsche Full HD-Grafik in 30FPS möglich ist - mit fantastischen Spiegelungen.

Einfach mal im folgenden Clip ab ca. 6:45 Minuten für 10-15 Sekunden lang schauen, wenn auf das Tor zugeritten wird - die kleinen Pfützen auf dem Boden. Das zeigt schön, was auch ohne dedizierte RTX-Hardware möglich ist.
 
Zuletzt bearbeitet: (Nur Schreibfehler eingebaut :D)
  • Gefällt mir
Reaktionen: CMDCake
DJMadMax schrieb:
Was Naughty Dog hier (zeitweise, nicht überall) aus der PS4 rausholt, ist sehr beachtlich! Auch die Reflektionen in z.B. Wasserpfützen auf den Straßen sehen fantastisch aus. Ob es sich hierbei um echtes Raytracing oder um eine abgeänderte Variante (z.B. klassisches Raycasting) handelt, kann ich nicht beurteilen.

Nicht wirklich. Ist der einheitliche Fake-Reflexions-Brei alias Screen Space Reflections, den man in jedem 0815 Spiel sehen kann. Mit RT hat das nicht viel am Hut. RT auf der PS4 nutzen zu wollen, hätte wohl eher die Folge, dass aus cinematischen 30 FPS 0,5 FPS werden zur Screenshot-Aufnahme.

Hier sieht man RT im Einsatz:
 
  • Gefällt mir
Reaktionen: xexex und CMDCake
Zurück
Oben