News Im Test vor 15 Jahren: SLI und CrossFire mit 2, 3 und 4 Grafikkarten

Robert

Redakteur
Teammitglied
Registriert
Feb. 2009
Beiträge
1.663
Nvidia SLI und ATi CrossFire ermöglichten mehreren Grafikkarten in einem Multi-GPU-Verbund Spiele zu rendern. Anfangs waren beide Technologien auf zwei Grafikkarten beschränkt. Doch im Test vor 15 Jahren mussten sich CrossFire und SLI von zwei bis vier GPUs behaupten – in der Praxis mit mäßigem Erfolg.

Zur News: Im Test vor 15 Jahren: SLI und CrossFire mit 2, 3 und 4 Grafikkarten
 
  • Gefällt mir
Reaktionen: flo.murr, T3ddy, hzdriver und 23 andere
Moin und Danke für die Erinnerungen zum Morgenkaffee.
Quad Crossfire raubte mir damals den letzten Nerv, aber war auch irgendwie Cool damals.

4870X2X2.JPG
 
  • Gefällt mir
Reaktionen: flo.murr, hzdriver, Ryoukou und 41 andere
Das Versprechen nach Skalierung konnte nicht gehalten werden. Ganz abgesehen von der Lautstärke und Stromverbrauch
 
  • Gefällt mir
Reaktionen: flo.murr, flying_ass, MilchKuh Trude und 4 andere
Immerhin 3D Mark skalierte perfekt 🤪 , Spiele liefen aber kaum mit 2 4870X2. Bin dann wieder auf GTX280 SLi zurück bis die HD5870 kam. Die 4870X2 war damals auch noch recht günstig.
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Wow4ikRU und NMA
Ich hatte damals immer die Hoffnung, dass die Probleme sicher gelöst sind, wenn ich irgendwann das Geld für zwei Grafikkarten übrig hätte. Vermutlich ist es besser so, wie es jetzt gekommen ist. Aber es war auch spannend sich (nur) inhaltlich damit zu beschäftigen!
 
  • Gefällt mir
Reaktionen: erzieler, TouchGameplay, lex30 und eine weitere Person
Ich fands damals toll.
Die Microruckler hatte ich nie so störend empfunden.
Ich hatte damals 2 NVidia Karten (welche weiß ich nicht mehr) der damals besten Generation mit Costum-WaKü (AquaComputer).
Furchtbar teuer, aufwändig, aber halt cool.

Heute würde ich nie wieder so viel Geld für nen PC ausgeben, obwohl ich es mir deutlich einfacher leisten kann.
 
  • Gefällt mir
Reaktionen: Palomino, SirNiffler, Fusselbart und 3 andere
Weißt jemand wie sich das mit SLI / Crossfire & Raytracing verhalten würde? Besteht die selbe Mikrorucklerproblematik wenn anders gerendert wird?

Ich hatte selber zwei Crossfire Systeme und damals fand ich es vor allem technisch interessant, incl. dem Bastelspass.

Heute fände ich vor allem asymmetrisches SLI/Crossfire stark wenn ich meine alte Karte behalten könnte, und man einfach günstiger sich die Karten nach Lust und Laune zusammen stecken könnte. Auch einfach um Geld zu sparen. Aber da gibt es neben der Hürden auch wenig Interesse der Hersteller.
 
Hatte selbst zwei 4870 und zwei 6970.


Man hatte generell damals etwas mehr "Bastelmöglichkeiten".

Ich hatte nur bei einzelnen Titeln Probleme.
Generell lief das Ganze recht smooth.

War schon ein "besonderer Moment", als ich damals die zweite ATI 4870 verbaute und kurz danach Crysis auf ULTRA spielen konnte.
Dies hatte zum Beispiel auch eine 99 % Skalierungsrate.

@Keloth

Deinen Gedankengang hatte ich auch.
Schließlich konnte man auch früher seine alte Nvidia auch im System belassen, und als reine PhysX-Karte betreiben.

Da PhysX aber echt eine ziemliche Nische war, und die Nvidia-Karten bzgl. der Stromspar-Modus der ATI-Karten ziemlich unterlegen (Lief quasi immer mit einem recht hohen Verbrauch mit), ein recht teures Unterfangen, mit recht geringen Nutzen.

Die Karten liefen dann auch relativ unabhängig voneinander- war also dann kein SLI.

Wahrscheinlich möchte man aber auch lieber, dass man zum einen eine Nvidia-Karte im Generellen kauft, und auch, wenn man mehr RT-Leistung möchte, das nächstgrößere Modell erwirbt.
Ansonsten würden sicher einige eine kleine Nvidia-Karte, wie etwa die 2060, nur für RT im System haben.

Wäre bei Raytracing echt praktischer.

Habe sogar noch eine ATI 4870 von damals.
Die läuft noch wie am ersten Tag. 🤓
 

Anhänge

  • IMG_20240224_084452.jpg
    IMG_20240224_084452.jpg
    848,9 KB · Aufrufe: 190
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C4rp3di3m, NMA, Florrr und 4 andere
Ich fand das mit 2 oder 3 Grafikkarten schon Recht cool , hab's mir aber nie leisten können/wollen. Irgendwie schade, das die Technologie immer Probleme machte.

3dfx hätte das bestimmt perfekt hinbekommen und weiterentwickelt, wie sie ja mit den Voodoo2 Karten eindrucksvoll bewiesen hatten. Nvidia hätte diese Beutetechnik und Wissen einfach übernehmen müssen und nicht ihren eigenen Müll
 
  • Gefällt mir
Reaktionen: MilchKuh Trude, Kenshin_01, AB´solut SiD und eine weitere Person
Bis auf einen hatte niemand in meinem Bekanntenkreis mehr als eine GPU im Rechner.

Und der eine hatte 2 Voodoo2 karten. Aber das lief als SLi und nicht AFR und war dann doch etwas anderes als das hier und war länger her als nir 15 Jahre.
 
SLI oder CF war für mich nie eine Option. Schade das die Technologie nie aus dem Anfangsstadium gekommen ist. Wäre sicherlich interessant geworden.

Wobei ich bei den heutigen GPU Preisen auch arge Bedenken hätte... SLI aus 2 4090 oder Kleinwagen 😆

Gruß
Holzinternet
 
War von SLI 2.0 (CF hatte ich nie) enttäuscht.
Hatte immer das Gefühl das sie die Technologie nie im Griff hatten.

Hatte zwar keine 295 , aber zwei 260²s und es hat einfach nur genervt.
Abstürze, Ruckler (obwohl der FPS Counter etwas anderes sagte), dazu natürlich höhere Lautstärke. Das war es mir damals echt nicht wert.

Und dieser Test bestätigt das auch wieder eindrücklich: Viel Geld für Hardware, viel Stromverbrauch, aber wenig Zuwachs. Ein Rohrkrepierer.

Kannte SLI noch bei Voodoo-Karten, da war es perfekt (wirklich eine Verdoppelung der Leistung, bzw. der Bonus was, das die man die Auflösung erhöhen konnte..endlich 1024x768 samt zBuffer!), aber nach den Erfahrungen mit der 260er, habe ich einen großen Abstand von SLI 2.0 genommen.

Haben diese Kombi-GPU Lösungen jemals richtig funktioniert?

Heute ist es für mich sowieso unpraktikabel.
Schaue wegen den sehr hohen Strom-/Energiepreisen auf Effizienz.
Der Fokus ist bei mir also von FPS auf FPS/Watt gerückt.

Wir haben eben kein 2008/9 mehr, als man sich solche Verschwendung noch leisten wollte.
1708760592874.png
 
  • Gefällt mir
Reaktionen: C4rp3di3m, whocares0101, wolve666 und eine weitere Person
Sollte man heute wieder einführen und dann könnte es besser laufen, Technik entwickelt sich ja weiter. Sehr praktisch für VR. Je Auge eine Grafikkarte, dann gibt es auch keine Mikrorückkehr. Heute würde man bei den Preisen sogar richtig Geld mit sparen
 
  • Gefällt mir
Reaktionen: Fyrex, Redundanz, Ezeqiel und eine weitere Person
Keloth schrieb:
Weißt jemand wie sich das mit SLI / Crossfire & Raytracing verhalten würde? Besteht die selbe Mikrorucklerproblematik wenn anders gerendert wird?
Es ist egal, ob ein "vollwertiger" RayTracer oder Rasterizer. Sobald es zu AFR (Alternate-Frame-Rendering) kommt, wird es zu bestimmten Problemen kommen - Mikroruckler - weil die Ausgabe passend synchronisiert werden muss. Da heute auch immer mehr temporale Komponenten dazu kommen, würde das sogar noch stärker werden.

SFR als Alternative bedingt immer noch einen hohen Aufwand bei der Synchronisation und bei RT sogar noch mehr, weil potenziell jedes Dreieck in der Szene für den abgesendete Strahl relevant ist. Ohne entsprechende Kommunikation geht es nicht und gewisse Daten müssen mehrfach vorhanden sein, wodurch der ursprüngliche Vorteil von SFR, dass jede Karte nur die Daten der "Kachel" benötigt, nicht mehr gegeben wäre.
 
  • Gefällt mir
Reaktionen: coxon, NMA, andi_sco und 4 andere
Crossfire, eines meiner vielen teuren Missverständnisse.
 
Hab selbst SLI verwendet. Hatte Mal zwei 7800 GT und danach zwei 8800 GT im Rechner.

Teuer, hoher Verbrauch, hohe Lautstärke, aber das Bastelspaß und eben das Testen, was so möglich ist, waren schon recht cool. Aber abgesehen von synthetischen Benchmarks wie 3DMark, die gut skaliert haben, war das Ergebnis in vielen Spielen kein Bringer.

Ich weiß noch, dass die Durchschnitts-FPS in Titeln wie Crysis, CoD 2 oder Stalker schon stark angestiegen sind, aber Mikroruckler waren ein ständiger Begleiter und oftmals einfach extrem nervig. GTA IV hat den Vogel dann abgeschossen, weil das mit zwei Graka langsamer lief als mit einer.

Als dann eine 8800 GT die Grätsche gemacht hat, bin ich wieder auf Single-GPUs umgestiegen und das war gut so.
 
  • Gefällt mir
Reaktionen: Redundanz
Irgendwie bin ich froh, dass diese Zeiten vorbei sind :)
 
  • Gefällt mir
Reaktionen: Mr. Danger und Tornavida
Leider hatte ich damals nie das Geld, aber ich hoffe ja, dass das irgendwann wieder aus der Versenkung kommt. Irgendwann sind halt die Grenzen erreicht, wo eine Leistungssteigerung über nur eine GPU allein sinnvoll realisierbar ist...

Ne RTX4090 mit bis zu 450W TDP benötigt schon extrem große Kühler und fette Netzteile... Und der GPU-Chip ist so groß, dass teure Preise das Resultat sind.
 
Einmal und nie wieder. Hatte die CF Karten binnen 14 Tagen zurück geschickt. Ich wollte nicht glauben dass die Ruckler so extrem sind. Aber mit den Mikroruckler waren das ja unspielbar. Noch dazu musste man jedes Spiel konfigurieren damit es halbwegs lief.

So bin ich danach zu meiner 1. Titan Grafikkarte gekommen.
 
  • Gefällt mir
Reaktionen: NMA
Zurück
Oben