News Im Test vor 15 Jahren: SLI und CrossFire waren auch im Jahr 2011 schrecklich

SLI / Crossfire habe ich früher gerne genutzt. War nie der User der sich eine Top GPU gekauft hatte. War immer so auf GTX 260 / 460 Niveau.. und hier konnte später eine zweite Karte (für den schmalten Taler -Gebraucht halt) noch Ordentlich was raus holen. Hatte einmal ein Problem mit 2 GTX460 Cyclone die Kühler waren halt nicht so Ideal und die untere Karte hat die obere Karte Ordentlich aufgeheizt. Mit Referenzkarten hatte ich nie Probleme und war immer sehr zufrieden mit der Leistung für´s Geld.

Zudem fand ich es damals sehr schick nicht nur eine Karte im System zu haben. Heute hab ich einfach ein Tower ohne Blink Blink und ohne Fenster :D.

Dennoch würde ich ggf. in ein paar Jahren lieber eine weitere 7870 XT einbauen als eine neue GPU zu kaufen.. aber das bringt ja nix mehr :mad:
 
Wanderwisser schrieb:
Wüsste wirklich gerne, ob das ganze heute aus technischer Sicht irgendwie besser umzusetzen wäre. War da nicht mal was, dass DX 12 irgendwie eine bessere Multi GPU Unterstützung bieten sollte?
Ja, ist es, aber auch aufwändiger
Wanderwisser schrieb:
Obwohls natürlich heutzutage absolut keinen Sinn mehr machen würde. Eine 5090 verbrät ja alleine schon bald 600W, mal eben 1200W nur für die beiden Grafikkarten + die Kosten. Ja viel spaß :D
Eigentlich sind doch die fetten Nvidia GPUs das, was man vorher mit Multi GPU erreichen wollte. Also zusammen genommen ein großer DIE sowie Verbrauch wie sonst zwei GPUs. Nur ohne die Multi GPU Nachteile.

Bei den Profi GPUs zeigt Nvidia auch schon, wo die Reise hingehen könnte. Denn dort werden ja schon zwei GPUs so kompakt zusammen gebaut und ohne so einen Datenbus wie Infinity Fabric, dass sie wie ein monolithischer Chip arbeiten.
 

Anhänge

  • Screenshot_20260124-203102.ChatGPT.png
    Screenshot_20260124-203102.ChatGPT.png
    1,1 MB · Aufrufe: 33
  • Gefällt mir
Reaktionen: Wanderwisser
Das kommt wieder. Lossless Scaling kann mehrere GPUs nutzen und das scheint wohl schon ganz gut zu funktionieren.
 
High End für 250 €, das waren noch Zeiten :D
Hatte die Sapphire 6950 2 GB knapp 2 Jahre.
 
Nachdem ich 2011 AMD (ATI) den Rücken kehrte um mit zwei GTX 580 im SLi Skyrim zu zocken kann ich sagen, dass Nvidia es deutlich besser machte. Aber eigentlich nur dank der NVAPI und dem daraus entstandenen Nvidia Inspector von @Grestorn - da konnte man nämlich abseits der SLi Bits auch das prerenderlimit auf 1 stellen und ebenso ein frame limiter individuell einstellen. Dann war SLi mehr als brauchbar. Aber das ging allen Redaktionen wohl am Allerwertesten vorbei. Wir Nerds wussten es halt besser. 😁
 
SLI & CF waren für mich schon immer die Paralympics des Gamings wie mein damaliger Kollege der meinte, 60Hz 4K Gaming sei das Nonplusultra weil man eh nicht mehr sehen konnte :lol::lol::lol:
SLI hat deutlich mehr Nach als Vorteile, hat nur funktioniert wenn man eine Reaktionzeit von nem Fentanyljunkie hat, diese Mikroruckler waren wie ein Schlag in die Fresse, sowas muss man doch sehen!
 
Das Zeitalter von SLI und CrossFire war mit dieser Generation ja eh quasi schon fast zu Ende. Die HD 5870 war die letzte Karte, die ich im Dual-CrossFire-Gespann hatte. Schöne Zeit, schöne Technik, trotz kleiner Problemchen. :schluck:

Und dennoch bin ich froh, dass heutzutage vieles einfacher/simpler ist. :D

hübie schrieb:
zwei GTX 580 im SLi Skyrim zu zocken kann ich sagen, dass Nvidia es deutlich besser machte.

CrossFire hatte damals die bessere Skalierung. Zwei AMD Karten haben nahezu doppelt so viel Leistung erbracht. Das war bei SLI schlechter. Am Ende hing es dann vom Titel ab, bzw. davon, wie schnell AMD die CrossFire Profile liefern konnte, genauso wie nVidia die angepassten Treiber.
 
hübie schrieb:
Nachdem ich 2011 AMD (ATI) den Rücken kehrte um mit zwei GTX 580 im SLi Skyrim zu zocken kann ich sagen, dass Nvidia es deutlich besser machte. Aber eigentlich nur dank der NVAPI und dem daraus entstandenen Nvidia Inspector von @Grestorn - da konnte man nämlich abseits der SLi Bits auch das prerenderlimit auf 1 stellen und ebenso ein frame limiter individuell einstellen. Dann war SLi mehr als brauchbar. Aber das ging allen Redaktionen wohl am Allerwertesten vorbei. Wir Nerds wussten es halt besser. 😁
Danke für die Blumen, aber der NVidia Inspector ist nicht von mir.

Ich hatte dessen Vorgänger, den nHancer geschrieben. Aber daran können sich sicher nicht mehr viele erinnern (Du offenbar schon :) ).
 
  • Gefällt mir
Reaktionen: J0ph33, hübie und Slim.Shady
Hab noch nee Radeon hd 7990. Crossfire lief eigentlich super. Hatte damit kaum Probleme. Selbst black ops 3 lief damit einwandfrei mit fast perfekten scaling.
 
2011 war das Thema bei mir zwar schon durch, aber vorher habe ich so einige SLI-Systeme besessen und hatte ebenfalls nie die geringsten Probleme mit Microstutters, immensem Inputlag oder dergleichen. Da ich auf so etwas auch durchaus allergisch reagiere, wäre mir das auch entsprechend negativ aufgestoßen.

Die Systeme waren:
GeForce 8800 GTS 320 x2
GeForce 9600 GT 512 x2
GeForce 9800GTX+ x2

Der Vollständigkeit halber hatte (und habe immer noch ^^) auch ein 3dfx Voodoo 2 SLI-Set aus zwei Creative Labs Voodoo Blaster 3D 12 MB-Karten :)

Der Trick ist und bleibt weiterhin: VSYNC! Die Menschen werden es aber nie verstehen, dass VSYNC einfach die saubersten Frametimes liefert, egal in welcher Lebenssituation - und richtig eingestellt gibt es auch keinen spürbaren Inputlag. Wie will man Inputlag im einstelligen (!!!) Millisekundenbereich spüren? Kannste keinem erzählen.
 
  • Gefällt mir
Reaktionen: Andy_O und LETNI77
Das letzte SLI System was ich hatte bestand damals aus zwei GTX 680 (4GB Vram pro Karte) und hat schon deutlich die Performance verbessert.

War zu der Zeit mitn 32“ 2560x1600 unterwegs und Crysis 2 lief mit HD Texturen Pack alles voll aufgedreht einfach nur traumhaft.

Klar die Mikroruckler waren schon manchmal etwas störend aber bei weiten nicht so das sie den Spielspaß trübten.

Tolle Zeiten gewesen, schade das die Technik nicht aktiv weiter entwickelt wurde.
 
andi_sco schrieb:

Du hast echt zu jedem Thema starke, Bilder. Wahnsinn! :)

Ich hatte einmal ne 4870X2, von Palit, mit gefixtem Bios für 2D, aber für mich war das nix. Ich bin ja jemand,d er die Grafikqualität immer zugunsten der FPS aufdreht. Und bin echt nicht so empfindlich dann, wenn es gleichmäßige geringe FPS gibt, aber mit µRucklern ging das echt nicht. Hätte also nur etwa die gleichen Einstellungen wie mit ner Einzelkarte fahren können, das war nix. Habe dann mit der 5870 nen tollen Nachfolger gehabt(für 250.-€?) und dann erst wieder die 7870... Danach nie wieder CF. ^^
Ergänzung ()

DJMadMax schrieb:
Der Trick ist und bleibt weiterhin: VSYNC! Die Menschen werden es aber nie verstehen, dass VSYNC einfach die saubersten Frametimes liefert, egal in welcher Lebenssituation - und richtig eingestellt gibt es auch keinen spürbaren Inputlag. Wie will man Inputlag im einstelligen (!!!) Millisekundenbereich spüren? Kannste keinem erzählen.

Witzig, bin ja nicht empfindlich bei geringen FPS, aber den Inputlag von Vsync hasse ich - evtl. wegen der geringen FPS. Das stelle ich nur ein, wenn es ohne gar nicht sauber läuft, also optisch. In Zeiten von freesync aber selbst ohne (zu geringe Fps für den Monitor...) laufen die meisten modernen meist ohne zu zerreißen. :)
 
  • Gefällt mir
Reaktionen: andi_sco
angHell schrieb:
Witzig, bin ja nicht empfindlich bei geringen FPS, aber den Inputlag von Vsync hasse ich - evtl. wegen der geringen FPS. Das stelle ich nur ein, wenn es ohne gar nicht sauber läuft, also optisch.
Bei niedriger FPS braucht man sowieso kein Syncing - außer, man will die FPS auf die Hälfte oder gar ein Viertel der Monitor-Wiederholfrequenz reduzieren. Denn genau das passiert, wenn man die Ziel-FPS, die 1:1 der Hz-Zahl des Monitors entsprechen sollte, nicht erreicht.

Bei z.B. 60 Hz beträgt die Dauer des Frames exakt 16,6~ Millisekunden. Vsync würde hier aufgrund der Gleichverteilung der Frames auf die Monitorwiederholfrequenz maximal (!) 8,3~ Millisekunden hinzupacken, das ist Mathematik und Physik - mehr nicht.

Wenn du z.B. wie ich bei 100 Hz spielst, dann sind das nur noch 10 Millisekunden plus maximal 5 Millisekunden dazu - also in Summe immer noch weniger, als 60 FPS ohne Syncing.

angHell schrieb:
In Zeiten von freesync aber selbst ohne (zu geringe Fps für den Monitor...) laufen die meisten modernen meist ohne zu zerreißen.
Jede andere Form des Syncings und insbesondere, wenn Framegeneration hinzukommt, fügt einen wahnsinnigen Inputlag hinzu.


Das Video zeigt deutlich, dass VSync unter allen Syncingmethoden den geringstmöglichen Inputlag besitzt.
 
Ok, ersteres ist mir klar, bei zweiterem habe ich Zweifel. ^^ Aber gut, bin eh oft unter dem FreeSync- FPS. ^^
Ergänzung ()

Bzw: FG nutze ich natürlich auch nicht, macht für mich auch keinen Sinn...
 
SuperHeinz schrieb:
Diese Technik habe ich gekonnt an mir vorüberziehen lassen und war stets froh drum. 🙂
Bestimmt :p
SuperHeinz schrieb:
Meine wenige Freizeit habe ich lieber mit Spielen am Computer verbracht, als mit der Bastelei am Computer.
Du meinst eine 2. Grafikkarte dazuzustecken hätte viel Zeit gekostet? :stacheln:

BTT:

Spannend wie man damals 2-4 Grafikkarten bereits nach einer Generation ersetzen konnte - heute kann man mit einer 8 Jahre alten Grafikkarte noch die aktuellsten Features nutzen und hat genug Leistung für aktuelle Titel … wenn man dann noch den geringen Wertverlust die letzten Jahre mit einbezieht - früher war es einfach teurer auf 10 Jahre gesehen :)
Schmarall schrieb:
Ich bin immer wieder erstaunt, wie viele Leute hier dermaßen viel Geld verballern - sowohl damals als auch heute: "Aktuelle Topkarte? Kein Problem, nehme ich gleich 2x."
:o
„Viel Geld“ ist doch sehr relativ und sehr abhängig vom eigenen Einkommen - oder was schreibst du dann Leuten die sich Fahrzeuge für 6-stellige Beträge leisten :rolleyes:

Dazu hat bspw. eine 4090 von 2022 (4 Jahre her …) seitdem 600€+ an Wertgewinn - nicht Wertverlust - gemacht und war somit nicht einmal eine schlechte Investition …
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wilfriede
MalWiederIch schrieb:
Du meinst eine 2. Grafikkarte dazuzustecken hätte viel Zeit gekostet?
Hättest auch den 3. Satz lesen sollen: "Davon ab, hat die Anno Reihe (1404, Venedig) auch nie ein Interesse an dieser Technik befeuert." Das Spiel lief seinerzeit mit einer Mittelklasse-Karte problemlos und ist heute als History Edition bereits mit einer starken iGPU spielbar.
 
HighPerf. Gamer schrieb:
Getroffene Hunde bellen oder so. Nehme ich an.
Merkt man bei dir :lol:
Ergänzung ()

SuperHeinz schrieb:
Hättest auch den 3. Satz lesen sollen: "Davon ab, hat die Anno Reihe (1404, Venedig) auch nie ein Interesse an dieser Technik befeuert." Das Spiel lief seinerzeit mit einer Mittelklasse-Karte problemlos und ist heute als History Edition bereits mit einer starken iGPU spielbar.
Der ändert an deiner wirren Aussage davor nur wenig :rolleyes:
SuperHeinz schrieb:
Meine wenige Freizeit habe ich lieber mit Spielen am Computer verbracht, als mit der Bastelei am Computer.
Denn eine 2. Grafikkarte in 20 Sekunden dazuzustecken war selbstverständlich eher eine Budget- als eine Zeitfrage …
 
Es bestand keinerlei Notwendigkeit für einen solchen Schritt. ;-))

Windows 7 64 Ultimate, Intel Core 2 Quad Q6600, 2x 4 GB RAM, Radeon HD 5770 (1 GB VRAM).
Dir Hälfte von allem war für Anno 1404 (Venedig) empfohlen.
 
Zuletzt bearbeitet:
@SuperHeinz Ändert auch weiterhin nichts an der wirren Aussage - aber lassen wir das :)
 
Zurück
Oben