News Gaming-Grafikkarten: Hattet ihr mal ein System mit SLI- oder CrossFire-Verbund?

Hatte damals zwei MSI 7800gtx im Sli (eine ca 1 Jahr später gebraucht nachgekauft ) zusammen mit einem Athlon FX60 auf einem Asus a8n-sli Deluxe am laufen.
War mein erster eigener Spiele Pc den ich mir von meinem Geld in der Ausbildung gekauft habe.
 
Ich hab das SLI Spielchen sogar zweimal mitgemacht, ein Verbund aus zwei 7800 GT, einer aus zwei 8800 GT und um ehrlich zu sein war beides ziemlicher Müll.

Die Steigerungen waren in der Theorie schön und die Average FPS in besonders optimierten Titeln schon nicht schlecht, aber i.d.R. waren die Steigerungen verglichen mit den Mehrkosten, Stromaufwand, Lautstärke, etc. einfach enttäuschend. Wenn es gut lief vielleicht 30% oder auch Mal im Falle, von GTA IV z.B. sogar im Multi GPU langsamer als mit einer.

Großes Problem waren einfach die Mikroruckler, also neben Kosten, Akustik und Stromverbrauch. SLI war auch bei >60 FPS einfach nicht flüssig. Dann wieder im Treiber herumspielen, welche Rendermethode verwendet werden soll (jede Karte rendert ein Bild oder beide Karten rendern zeilenweise) aber oft waren beide unzureichend. Außerdem hatte man am Ende auch nur den VRAM einer Karte, d.h. wenn der vollgelaufen ist, konnte man noch so viele Karten zusammenschalten, brachte nichts.

War eine wilde Zeit damals, ja, aber so wirklich trauere ich dem nicht nach, zumal ich mir gar nicht vorstellen will, was für ein NT ich bräuchte für z.B. zwei 4090 und damit zwei 12-Pin HPWR Stecker, die schmelzen können (scnr). Ich glaube abgesehen von Workloads, die man auf einzelne Karten unabhängig verteilen kann (Number crunching o.Ä) sind die Zeiten vorbei und das ist auch vollkommen ok.
 
Hatte ich nie weil damals gelesen mehr Probleme wie sonst was.
 
Saubere Mikrostutterfreies SLI und saubere Skalierung wäre schon geil. Man stelle sich ZWEI 4090 vor. Egal wie sinnfrei oder nicht, einfach weil es geht 😂
 
Plan war mal ne 2. HD 5850 anzuschaffen für Crossfire, das war direkt nachdem AMD den Treiber durch "FramePacing" stark verbessert hatte für CF. Dann sah ich ne billige 5970 und hab die dann gekauft, hab dann nen Tag lang die 5850 drinbehalten und 5970+5850 CF ausprobiert, mit interessanten Ergebnissen:

https://www.3dmark.com/fs/856434

Graphics score knapp unter einer GTX Titan damals und das mit 3 älteren GPUs. Danach hab ich dann die HD 5970 weiterbenutzt bis sie kaputt ging. Lief in den meisten Games problemlos und mit guter Performance, war hauptsächlich AAA gamer, u. a. Alan Wake, Tomb Raider, Crysis 3. Diablo 3 + Path of Exile liefen nicht gut mit CF, aber da war es auch nicht nötig, hatte dann quasi eine "HD 5870".

Meine Meinung zu CF/SLI ist auch simpel: es war ne nette Spielerei und im begrenzten Maße sinnvoll, aber es war eher Tech-Spielerei denn sinnvoll, da es zu viele Probleme damit gab, nicht mal unbedingt Treiber-Probleme oder Support-Probleme, sondern Dinge wie Stromverbrauch und Hitze. Das ganze war eher für Benchmark-Jäger als für normale Gamer.

Das es nun also weg ist, macht mir nichts aus, die Erinnerungen werden bleiben.
 
Zuletzt bearbeitet:
ich hatte ne crossfire HD4870 um mir für wenige euro einen bitbcoin zu minein - das waren noch zeiten. da hatte ich das system aber also ultrasilent fürs gaming geholt und dann über gewisse foren aufs mining gekommen. also ich war ganz früh dran. waren auch nciht billig die karten. waren sehr teure weil die leiseten waren. 450€ haben die als early adopter schon gekostet.
 
Zuletzt bearbeitet:
Nie SLI und co gehabt,hat ja meistens eh nicht wirklich funktioniert weil die unterstützung ja oft fehlte,daher hab ich da auch nie ein gedanken drann verschwendet.
 
Hatte mal für ein paar wenige Monate eine Kombination aus zwei 1080 ti Karten, hat sich aber nicht gelohnt, von daher wieder verkauft. Hätte ansonsten schon Bock auf ein sli gespann aus 2 4090 Karten, aber dafür sollte es mindestens 50% mehr Performance geben.
 
woran liegt das eigentlich, dass man mehrere grafikkarten nicht zusammen benutzen kann, so dass es auch super funktioniert?

im grunde sind es ja nur "rechenaufgaben" so wie es supercomputer mit hunderten grafikkarten auch tun, oder liegts an der software / am game / treiber?
 
Ich hatte vor vielen Jahren mal ein SLI-Gespann aus 2 7900GT, wo sogar beide GraKas wassergekühlt waren. War damit sogar recht weit oben in irgendeiner Benchmark-Liste.

War glaube ich aber nur ein kurzer SLI-Abstecher (weiß gar nicht mehr, wie lange ich das hatte).
 
Ich hatte alles quer durch die Bank an Crossfire und SLI.

3850X2
2x1950XT
2xRX480
2x780Ti
2x970
2x980
2x1080
2x2080Ti

Ich persönlich habe mGPU immer geliebt. Wenn es Unterstüzung gefunden hat, war es auch echt richtig gut.

SLI hat dabei fast immer besser funktioniert und skaliert als Crossfire, wobei auch Crossfire gut war.

Wenn man in einem Spiel komplett im GPU Limit hing, SLI aktiviert hat, war das wie eine Erleuchtung.

Einfach brutal viel Power. Mit der Frostbite Engine hat das in BF4 und Battlefront zu 90% skaliert. Das war schon irre.

Battlefield 4 mit einer 780Ti in 4K DSR und Ultra Preset, lief mit ca. 70FPS auf meinem 27" 144Hz Monitor.

Nachdem ich die zweite Karte installiert hatte, waren es immer 125-140FPS, ein gigantischer Unterschied. Beide GPUs wurden auch dementsprechend zu 97% ausgelastet.

Das müsste mit einem 4790K gewesen sein (meine ich).

Ich vermisse diese Bastelei sehr.
 
  • Gefällt mir
Reaktionen: FR3DI und drago-museweni
@k0ntr
Wenn die Grafikkarten unterschiedlich leistungsstark sind, stellt sich die Frage, wie man die Arbeit effizient verteilen kann, um das Maximum rauszuholen. Das Problem kann bisher nicht wirklich zufriedenstellend gelöst werden.

Bei gleichen Grafikkarten hat man zum Einen das Effizienzproblem, d. h. eine Grafikkarte wartet auf die Andere. Das führt zu schlechten Frame Pacing und Microrucklern. Und der Stromverbauch ist enorm. Wenn du heute zwei 4090 in einen Tower schiebst, muss du vielleicht ein neues Stromkabel dahinziehen, weil die Sicherung sonst vielleicht auslöst. Ok, das ist jetzt übertrieben, aber weit ist es bis dahin nicht mehr.
Das dritte Problem ist, dass Spiele das unterstützen müssen und das Rendern in passende Häppchen für jede Grafikkarte aufteilen muss. Das ist Arbeit, die für jede Grafikkarte gemacht werden muss (die sogenannten SLI-Profile). Für die 1% Enthusiasten lohnt die Arbeit nicht.
 
k0ntr schrieb:
woran liegt das eigentlich, dass man mehrere grafikkarten nicht zusammen benutzen kann, so dass es auch super funktioniert?
Ist über DirectX 12 sogar nativ umsetzbar. Das ist jedoch recht aufwändig und wird deshalb selten umgesetzt. Die Nutzung der Low-Level-API ist so schon nicht ganz ohne.
 
2x GTX 275 (eine vom Kumpel) auf dem X58 mit i7 920 für 3D Mark
Testweise eine zweite RX 480 um damit WoT und Skyrim zu spielen (i5 3570K)
Skyrim OK, WoT lief schlechter mit Crossfire als ohne :/
 
Ach das waren schöne Zeiten.

Damals zwei 6800 GT von Aopen im SLI laufen gehabt. War echt mal ne tolle Erfahrung.
 
Erster privater Kontakt zu SLI war die GTX295 mit WaKü die ich "günstig" in der Bucht geschossen hatte.

Dann kam später der Wechsel auf zwei EVGA GTX480 auf nem RampageIIExtreme und weil es mich dann überkam gabs kurzzeitig sogar ne dritte GTX480 dazu.
Alles unter Wasser in nem Osidian 800D verbaut. Wassertemperatur war des Todes und zum Schluss nur noch Probleme mit Treiber und Co. gehabt. Das war dann auch mein genereller Abschied von PC-Gaming und der Wechsel zu den Konsolen und Macintosh.

Schade das Multi-GPU Systeme nie die Probleme und Kinderkrankheiten losgeworden sind. Hatte einfach was geiles im HighEnd-System zwei oder mehr Karten verbaut zu haben.
Wenn ich mir so drei 4090er zusammen mit nem aktuellen TR vorstelle... 🤤
 
Sinush schrieb:
3dFX-Karten waren eine 3D-Ergänzung für eine 2D-Karte...da hat sich nix addiert.

Voodoo 2 SLI bedeutete insgesamt drei Grafikkarten, und das war die einzige SLI-Variante, die nicht auf spezielle Treiberunterstützung für jedes Spiel angewiesen war.

Zu der Zeit konnte man einfach jede GPU ein Bild mit halber Zeilenauflösung berechnen lassen, und hinterher beide zusammensetzen. Das Spiel musste nichts davon wissen, das "sah" einfach eine GPU mit doppelter Fillrate.

Mit T&L bzw. Vertex- und Pixelshadern funktioniert das nicht mehr. Da muss jede GPU vollen Zugriff auf alle Daten haben, und das klappt mit der lahmen Kabelverbindung nur eingeschränkt.
 
Ich hatte zwei Karten mit zwei GPUs, 3dfx Voodoo 5 5500 und Nvidia 7950 GX2, die 3dfx Karte war großartig, die Nvidia Karte bereue ich heute noch, aber ich war noch jung und dumm, ich hätte lieber eine 7900 GTX kaufen sollen.

SLI hatte ich zwei mal genutzt, ich glaube mit der 200 und der 400er Serie, was für ein Schwachsinn, bereue ich auch heute noch.

Der Murks hat sich zurecht nicht durchgesetzt bei Spielern, es war am ende nur was gutes für die Hersteller. Mikroruckler (vor allem bei denen die dahingehend empfindlicher waren/sind), bei weitem keine doppelte Leistung, der Vram hat sich nicht verdoppelt, der Stromverbrauch war hoch, die kosten haben sich generell drastisch erhöht (Netzteil, Kühlung, Gehäuse), es war Glücksache ob und wie es bei einem Spiel lief, auch die Unterstützung seitens Nvidia war bestenfalls durchwachsen.
 
Zurück
Oben