News Im Test vor 15 Jahren: SLI und CrossFire waren auch im Jahr 2011 schrecklich

IMG_6089.jpeg
IMG_6094.jpeg



Ich war totaler Fan.
Mag wenig Sinn gehabt haben aber es war halt geil 2 oder mehr Karten im System zu haben.
Gleiches gilt für Dual CPU Systeme....

Schade das das ganze nicht noch eine Wiedergeburt erlebt hat. Eventuell hätte man die Probleme jener Zeit mit mehr Bandbreite und Technologien wie Freesync etc. Noch retten können.
 
  • Gefällt mir
Reaktionen: konkretor, Wichelmanni, Wanderwisser und 2 andere
Muss mich den Meinungen einiger Anderen hier anschließen. Hatte sehr viele Crossfire und einige SLI Konfigs und war damit meistens sehr zufrieden. Mein Trick war einen Frame Limiter einzusetzen, und dann ließ sich fast alles butterweich spielen. Zur not kurz SLI/CF deaktivieren und spielen mit einer Karte. Mit Eyefinity brauchte man die Power dann auch wirklich. Es ist bei manchen einfach ein Hobby, und früher hat man sich halt 2 Grafikkarten gekauft, und heute kaufen sich einige eine 5090 Matrix. Ich kann es auf jeden Fall nachvollziehen :D
Ein 5090 SLI wäre auch mega pervers.
Mein Bruder und ich haben damals übrigens unsere 4870X2 zusammen gesteckt und Quad Crossfire gemacht. Hauptsächlich um Benchmarks zu machen. Da musste das 1300W Tagan Netzteil schon schwitzen:-)
Geile Zeit damals.
 
  • Gefällt mir
Reaktionen: lubi7, MalWiederIch, NMA und eine weitere Person
Ich hatte weder mit meinen zwei 3dfx Voodoo II im „originalen“ SLI noch mit zwei 8800 GTX/Ultra und HD 7970 im SLI/Crossfire größer Probleme.

Ich bin da aber auch nicht so empfindlich. War halt eine ganz andere Zeit.
 
  • Gefällt mir
Reaktionen: MalWiederIch, clarkathome, NMA und 2 andere
Wüsste wirklich gerne, ob das ganze heute aus technischer Sicht irgendwie besser umzusetzen wäre. War da nicht mal was, dass DX 12 irgendwie eine bessere Multi GPU Unterstützung bieten sollte? Dazu kams ja leider nicht, weil das Thema da eigentlich schon tot war. Dazu haben wir heute natürlich viel höhere Bandbreiten, sehr schnelle CPUs, höhere Hz Zahlen an Monitoren und solche Dinge wie MFG.

Obwohls natürlich heutzutage absolut keinen Sinn mehr machen würde. Eine 5090 verbrät ja alleine schon bald 600W, mal eben 1200W nur für die beiden Grafikkarten + die Kosten. Ja viel spaß :D
 
Hatte 2x6600gt wegen technischer Interesse gekauft aber mir war die fummelei zu viel und bin dann auf 6800gt umgestiegen :freaky:
 
Ich habe mir zuende meiner 6850 von Saphhire eine Zweite gegönnt habe es evtl. ein halbes Jahr genutzt.
Dort wo es dann eine schöne Korrektur auf min 60 fps gemacht waren halt nicht allzuviele Titel.
 
Zuletzt bearbeitet: (gegönnt statt genutzt)
Duran schrieb:
Auf den guten SLI Mainboards waren 2-4 PCIe Slots verbaut, würde heute nicht mehr passen wegen der großen Kühler.
Nicht nur der Abstand zwischen den Slots wäre heute eine Hürde, sondern auch die Auswahl an Boards mit entsprechende ausgestatteten x16 Slots ist begrenzt. Die beiden vorderen Slots kann man oft noch mit x8/x8 betreiben, aber ab dem dritten Slot mit voller x16 Länge (sofern überhaupt vorhanden) ist es dann in der Regel nur noch mit x4 oder weniger beschaltet.
 
Es ist mal wieder soweit: Pandis Märchenstunde geht los! Das an einem Samstag, ich habe Thekendienst und damit Zeit. @Robert danke!
Duran schrieb:
Die CPUs waren einfach noch nicht weit genug, ansonsten gab es massive Steigerungen später. Zumindest bei AMD konntest die zweite Karte in Windows auch abschalten.
Das hat nur bedingt an der Stelle etwas mit der CPU zutun, je nach Spielen gab es immer ein CPU-Limit oder keines.

Die Probleme von SLI/CrossFire liegen hier an andere Stelle und haben weitgehend auch damit zutun, wie sich die Grafikpipeline seit DX7 - Anfänge - und DX8 geändert haben. Deswegen hat sich bei SLI und Crossfire auch weitgehend AFR (Alternate Frame Rendering) durchgesetzt, während SFR (Splitted Frame Rendering) immer irgendwo hinten anstanden.

Bei AFR agiert jede GPU für sich und berechnete ein Frame, dadurch gab es da auch kein verdoppelten VRAM. SFR wiederum hätte den "RAM" vergrößert, ist seit dem DX8 jedoch mit den Shadern kam, komplizierter geworden. Die stare Pipeline hat sich aufgelöst und damit kam es zu immer mehr Problemen.
CDLABSRadonP... schrieb:
AFR ist und bleibt eine miserable Idee.
Ja und Nein, AFR hat wie SFR spezifische Vor- und Nachteile. Wenn es um die Komplexität der Ingegration geht, ist AFR einfacher, SFR komplizierter und so weiter.
CDLABSRadonP... schrieb:
MultiGPU-AA und SFR waren hingegen beides gute Konzepte, letzteres taugte aber nicht fürs Marketing (zu kleine Zahlen) und ersteres wurde von allen Beteiligten vernachlässigt.
SFR ist ein gutes Konzept, benötigt durch die "flexibel" Pipeline mit Vertex- und Pixelshader, jedoch quasi eine sehr schnelle Verbindungen zwischen beiden GPUs, da vielleicht benötigte Ressourcen im Speicher der einen GPU liege und umgekehrt.

Das ist auch heute ein Grund, warum sich Mutli-GPU-Systeme so nicht mehr wirklich durchsetzen können, weil eine Latenz zwischen beiden Systemen dazu kommt und damit auch die maximale Leistungssteigerung begrenzt wird.
estros schrieb:
Heute ist HT (zumindest bei Intel) tot und es ist auch hier die richtige Entscheidung.:)
Deswegen führt Intel HT auch im Serverumfeld ja wieder ein. Die meisten heutigen Kerne sind in ihrer Form viel zu "Fett", als dass diese effizient mit einem Thread ausgelastet werden könnten. Wenn man einen CPU-Kern wirklich effizient nutzen will, ist HT ein sehr gutes Instrument.

Klar, die 1T Leistung sinkt etwas, am Ende ist der Output in vielen Fällen aber mit nT immer höher.
moTiv8 schrieb:
Damals zwei Voodo Karten im Sli Modus betrieben.
Im DX6 und DX7-Zeitalter hat halt die GPU am Ende hin auch nur die Polygone gerastert. die Tapete drauf gepinselt und das noch mit der Shadow- bzw. Lightmap verrechnet. Da war das echt einfach.
HighPerf. Gamer schrieb:
Wenn es so toll gewesen sein soll.... warum hat es sich nie durchgesetz ? Das beantwortet am Ende alles.
Etwas kann auch toll sein zu einer bestimmte Zeit und sich dann überholen durch die technische Entwicklung.
 
  • Gefällt mir
Reaktionen: lubi7, NMA und n8mahr
Die doppelte Voodoo2 Banshee Variante lief dann auch für mich zufriedenstellend für ein Jahr. Thema Lautstärke war da noch keines mit den eher rudimentären Kühlkörpern und sowieso immer Custom-Lüftern.
Das war dann vor 25+ Jahren.
Abgelöst wurde das ganze dann von meiner ersten GeForce4MX? im Bundle mit der 3D Revelator Brille. Das war dann für mich in Kombination mit einem sündhaft teuren gefühlt zentnerschweren 21“ Iiyama 120Hz Monitor der geilere heiße Scheiß.
Danach nie wieder mit SLI oder X-fire in Berührung gekommen aber hab da wohl auch nichts verpasst wie man ja hier in der Nachlese feststellen kann.
 
  • Gefällt mir
Reaktionen: lubi7
@DevPandi

SLI und Crossfire waren NIE toll. Das ist das Thema und über das Thema habe ich gesprochen, wieso verallgemeinerst du meine Aussage ? Getroffene Hunde bellen oder so. Nehme ich an.
 
Oh, schon vor 15 Jahren konnte man über 600W alleine durch die GPUs verballern.

Und der Witz daran, da sind keine Stecker geschmolzen :evillol:
 
  • Gefällt mir
Reaktionen: Slim.Shady, konkretor und Minensucher
HighPerf. Gamer schrieb:
SLI und Crossfire waren NIE toll
Weil SLI zum Zeitpunkt der Voodoo 2 und ebenso Voodoo 5 eben doch Toll war. Das spätere SLI wiederum war dann nicht mehr so toll.

Ansonstne vielen Dank für deine freundliche Anmerkung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DNS81, squeese, konkretor und 2 andere
Damals dachte ich "das ist einfach so dermaßen überteuert. Zwei grafikkarten kosten schlicht zuviel"
Heute geben die Leute das doppelte bis dreifache des sli-doppel-preises für nur eine Grafikkarte aus. Die Welt ist bekloppt geworden..
 
@DevPandi

Du vergleichst Äpfel mit Birnen. Zu Zeiten von 3Dfx waren die Auflösung niedrig, Pipelines fixed in ihren funktionen, kaum komplexe effekte in den engines, eine technologie mit Zeitlimit weil eben Nvidia eine ganz andere baustelle später mit SLI hatte. Denn engines entwickeln sich weiter und SLI kam unter Nvidia zu einer zeit von programmierbaren shadern hoher Auflösung und komplexen effekten und post processing. Das konnte man nicht mehr mit der version von 3Dfx umsetzen. Daher ja auch wenn es unter 3dfx besser ZU DER ZEIT mit der ENGINE technik war, ist dennoch eine schlechte technologie wenn sie nicht MIT DER ZEIT gehen kann.

Meine Aussage bleibt bestehen. SLI/ CRossfire waren schon immer schlecht. ;)
 
SLI (Scan Line Interleave) bei 3dfx war halt auch eine andere Technik als SLI (Scalable Link Interface) von Nvidia.
Bei 3dfx dürfte es auch stärker in die Architektur der Grafikchips und die Glide-API integriert gewesen sein, mit entsprechender Optimierung. Besonders da SLI für 3dfx in den späteren Voodoo-Generationen essentiell war, um mehrere Grafikchips auf einer Karte zu koppeln.

Nvidia wird schlicht der Bekanntheit wegen und durch die Übernahme der 3dfx-Reste das selbe Kürzel wiederverwendet haben.
 
Fast 70 dB Lautstärke ist echt ne Hausnummer. 10 dB Steigerung sind ca. ne verdoppelung der gefühlten Lautstärke. Das muss doch unaushaltbar gewesen sein und das sag ich als Turbinen... äähh Gaming-Laptop Besitzer.
 
Meine Definition von "schrecklich" ist eine andere!

Hatte CF ein schlechtes Preis/Leistungsverhältnis? Ja, irgendwie schon. (wobei man faktisch KEINE GPU mit der Leistung bekommen konnte, und nach oben skalieren die Preise ja immer schlecht!)
Brachte CF neue, eigene technische Probleme mit? Definitiv.
Funktionierte es reibungslos? Nein.


Das sind übrigens ALLES Punkte, die ich heute zumindest teilweise auf oberklasse GPUs, diese ganzen FSR Versionen, OLED Monitore der ersten Generation, .... etc PP übertragen könnte. Oder, um mich an meine eigene Nase zu fassen: WaKü im PC.

War CF für Tech-Nerds, Bastler? Ja. War es bei Lichte betrachtet Quatsch? Ja, ziemlich.
Aber jetzt "schrecklich" zu urteilen kann man höchstens mit einem Grinsen im Gesicht und einer Portion Selbstironie - denn wer es nie selbst versucht hat, möge einfach schweigen.
10 Jahren über Käufer einer heute 2500€ GPU stelle und herab schaue und sage: Schrecklich. Teuer. Treiber nicht immer ausgereift. Und die Leistungsaufnahme erst. Und habt ihr schon von den schmelzenden Steckern gehört? Schrecklich.
 
  • Gefällt mir
Reaktionen: clarkathome und Volvo480
Ich hatte lange Zeit ein Crossfire System aus zwei 7970. Es war ab und an etwas Treibergefrickel, lief aber insgesamt gut. Und ich finde es schade, dass CF und SLI verschwunden sind, denn mitlerweile hätte man mit Freesync eine Technologie, die bei Mikrorucklern helfen könnte. Und es sah schon geil aus, wenn man zwei GPUs in seinem System hatte.

Andererseits war CF/SLI damals genauso unsinnig, wie heute die immer extremer werdenden Wattzahlen der GPUs.
 
  • Gefällt mir
Reaktionen: Hardy_1916 und n8mahr
Irgendwie schade, dass diese absurden Halo-Systeme heutzutage nicht mehr existieren. Multi CPU und Multi GPU übten doch immer eine größere Faszination auf mich aus als ein einfaches System. Heute kaufst du einfach eine teurere Grafikkarte, aber im Endeffekt ist der Aufbau des Systems identisch zu einem Low-End PC.
Vielleicht lag es auch daran, dass es eben absurd laut, teuer war und nicht richtig funktioniert hat? Ich habe mal gehört, dass Widerstände durch "unperfekte" Produkte wohl im Marketing gezielt eingesetzt werden, damit der Mensch mehr auf das Produkt anspringt. Selbes Prinzip wie bei einer Pringles-Dose, die zu klein ist um mit der Hand hineinzugreifen. Auch wenn im Fall von Multi-GPU wahrscheinlich fehlende Verbreitung und möglicherweise unlösbare technische Hürden das Problem waren.
Das Phänomen Faszination für Multi-GPU müsste man jedenfalls mal genauer untersuchen.
 
  • Gefällt mir
Reaktionen: clarkathome
Das Bild hat mich dann doch zurückversetzt, ich hatte fast die gleiche Grafikkarte, nur halt als 6950 (mit 6970 BIOS). Da sollte sich immer eine zweite zugesellen - gut, dass ich das gelassen habe und irgendwann einfach zur R9 290 gegangen bin.
 
Zurück
Oben