News Im Test vor 15 Jahren: SLI und CrossFire waren auch im Jahr 2011 schrecklich

Die 6970 hatte ich nicht im Crossfire...
Hätte es aber wohl auch schon tun sollen^^

 
  • Gefällt mir
Reaktionen: clarkathome
Ja früher hat mich das selbst auch nie interessiert. Genau aus den im Artikel genannten gründen. Zu der Zeit war aber ein gespann aus 2x 6600GT recht verbreitet. Heute hätte ich eigentlich mal Lust aus Retro Spaß den Quatsch nachzuholen. Zusätzlich vielleicht noch eine PhysiX Karte. Naja, damals wars das Geld, heute die Zeit...
 
HighPerf. Gamer schrieb:
@DevPandi

Das konnte man nicht mehr mit der version von 3Dfx umsetzen. Daher ja auch wenn es unter 3dfx besser ZU DER ZEIT mit der ENGINE technik war, ist dennoch eine schlechte technologie wenn sie nicht MIT DER ZEIT gehen kann.

Meine Aussage bleibt bestehen. SLI/ CRossfire waren schon immer schlecht. ;)
wie kann man nur so ein verbissener stinkstiefel sein?
nur, weil etwas DIR nicht gefällt, und weil es technisch / objektiv tatsächlich nicht wirklich gut war, muss man doch leute, denen es gefällt, so ankläffen?
es war tatsächlich nicht so gut, um sich durchzusetzen, weil es sowohl hardwarebasierte probleme hatte und zugleich von softwareseite (neue DX implementationen) überholt wurde.
würde man deiner meinung nach strikt folgen, müsste alles, was irgendwann ersetzt wurde, schlecht sein. 3dfx, EAX, dx2-9, physix, ... etx pp.
viele dieser Technologien leben in anderer Form ja noch weiter in aktuellen Produkten.
also: chill mal :smokin:
 
  • Gefällt mir
Reaktionen: clarkathome, DNS81, Slim.Shady und eine weitere Person
Hatte 2x 570er im SLI - lief gut bei CoD aber weniger gut (Ruckeln) bei anderen Titeln - war halt so ne "Naja" Erfahrung ...
 
Shririnovski schrieb:
schade, dass CF und SLI verschwunden sind, denn mitlerweile hätte man mit Freesync eine Technologie, die bei Mikrorucklern helfen könnte.
ich glaube nicht, dass FreeSync da viel helfen würde. bzw würde dann möglicherweise die Latenz zu hoch.
CF war vom prinzip er einfach nicht gut genug vernetzt; das war so, als würde man zwei Rennautos auf zwei parallelen Renntstrecken mit festgeklemmten Gaspedal starten lassen - und dazwischen ein Holzbrett durch das Fahrer- bzw Beifahrerfenster legen, damit die nicht ungleichmäßig schnell fahren...
:D Da kann man mit FS auch nicht mehr viel retten, weil das Grundprinzip einfach zu anfällig ist.

Und auch das Ansprechen der Grafikkarten hat sich mit neueren DX Versionen verändert. Früher haben die Treiber viel mehr mitgeredet, heute ist vieles in DX implementiert.

Ich schätze, wenn mGPU irgendwann zurück kehrt, dann im Chiplet-Design
 
@n8mahr
Ich kläffe wenn man mir die Wörter im Mund dreht, das mag ich einfach nicht. Sollte sich jeder mal selbst an die Nase fassen wieso man Worte umdreht nur um was gesagt zu haben.

Aber mal zum Topic was ich ausgelassen habe. Warum AUCH 3dfx SLI einfach nicht gut war. Kostenpunkt: Man brauchte 2 identische Karten nicht wie später mit SLI und Crossfire, 2 unterschiedliche Karten auch möglich waren, dabei auch nur meist maximal 50% Leistungszuwachs.

Massive hitzeprobleme mit denen man sich auch noch rumschlagen musste.

Speicher wurde nicht verdoppelt was auch schon damals mist war. Man benötigte noch zusätzlich oft eine 2D karte was den Kostenpunkt weiter nach oben schraubte. Bildqaulität unter Desktop leidete unter Ghosting und Unschärfe. Massive Abhängigkeiten von Spiel und Treiber. Das VGA kabelsalatchaos mit umschaltproblemen > freezing oder schwarzer Bildschirm.
Flackeranfälligkeiten kam auch noch hinzu. Absolut nicht mainstreamtauglich nur für absolute minderheiten die gerne basteln und zuviel Geld hatten.

Im totalen Kontrast dazu steht heute eine Technolgie wie DLSS was mit der ersten Version absolut schlecht und zu Recht mit der ersten Version massiv in Kritik stand. Machte aber mit der Zeit massive Fortschritte. Heute ist DLSS bei vielen zu Recht standardmäßig eingeschaltet weils einfach FPS Booster ist ohne echte Nachteile.

Stinkstiefel Ende.
 
SLI hatte ich nur einmal in Form von der 7950 GX2. Aber nach erscheinen der 8800er Karten, wurden wohl die Treiber für die Karte nicht mehr so gepflegt. Kann mich noch erinnern dass manche Games tatsächlich nur noch auf einem Chip liefen trotz SLI Profil.
 
HighPerf. Gamer schrieb:
SLI und Crossfire waren IMMER schrecklich, es war nie gut. Einige Leute die das hatten mussten ihre dumme Entscheidung irgendwie Rechtfertigen wie es schon immer war, viele können sich nicht eingestehen das ihre Entscheidung nicht gut war und das Geld das ausgegeben wurde, woanders besser gewesen wäre. Kann mich noch an die ganzen Diskussionen im Forum erinnern von den Leuten die ihre SLI/Crossfire Kombi vehement verteidigten... einfach zum lachen.

Wenn es so toll gewesen sein soll.... warum hat es sich nie durchgesetz ? Das beantwortet am Ende alles.
Es gab mal eine Zeit wo das Stromsparen angesagt war ausser dem überflüssigen microeucklergebashe...
Dann sorgten noch einige www-Nörgelblasen mit vielen ruckelposts dafür das Letztendlich Nvidia und AMD keine Manpower(koset Geld und bindet Personal) in Treiberupdates stecken wollten und beerdigten somit SLI/CF...
Und nun ~10Jahre später nutzen alle die die genug Geld haben 5090er suchen nach Netzteilen die jenseits von 1kW liefern und beschäftigen sich lieber mit hochmodernen Schmorsteckern an ihren NVidia Gebilden...
Lass mich kurz überlegen... wenn ich wählen könnte zwischen microrucklern und Schmorsteckern - pfff -
Ich nehm die microruckler! Preiswerter war das auch. Sah gut aus im PC und kostete nicht mal die Hälfte von so einer hochmodernen NVidia Rauchgranate für Hochleistungs-Gamer... Die ja nicht nur kW verbraucht sondern auch kiloweise € in Vorhand benötigt. Evtl. kauft sich der Nvidia Krokodillederjacken Verkäufer ja mal eine mit Brillis drauf? :heilig:
 
@shadowrid0r
Na wenn du glaubst das heute deswegen die GPU's günstiger sein würden dann hast du was nicht verstanden

Und der Schmorstecker hat jetzt was mit SLI zu tun ? Vergleich mit Äpfeln und Backteinen
 
Einhörnchen schrieb:
An dieser Stelle sei an den engagierten Tombman von 3dcenter erinnert, der mit seiner Hingabe maßgeblich zur Identifikation und Messbarkeit von Microrucklern beigetragen hat:
An Tombman musste ich beim lesen des Artikels tatsächlich auch denken. Muss unbedingt mal seine alten Posts nochmal nachlesen.
 
  • Gefällt mir
Reaktionen: Slim.Shady
Die Backplates von damals waren echt schick.
 
  • Gefällt mir
Reaktionen: Slim.Shady und Wanderwisser
Moderner, Neuer, Besser, Weiter muss nicht zwingen ´Besser´ sein. Aber , OK, so ein 1,6kW NVidia Bolide wie neulich in den cb-News ruckelt nicht mehr. Aber er kann unter Vollast das Qualmen anfangen. Warum auch immer.
 
@shadowrid0r Kollege, dann kauf dir eine AMD Karte die hat den Schmorstecker nicht eine Mittelkklasse Karte verbraucht auch keine 600 Watt. Trotzdem hast du moderne Upscaling Technologie die wie SLI/Crossfire das Ziel hat FPS zu boosten und sogar flexibel ist im Gegensatz zu SLI/Crossfire. Du Kannst bei DLSS und AMD's Pendant entscheiden ob dir Bildqualität oder reine Leistung wichtiger sind. NulL Nachteile maximal individuell einstellbar oder sogar austellbar wie jeder möchte. Absolut Überlegen zu SLI und Crossfire wenns um FPS boosting geht. ja in dem Fall ist moderner BESSER ! rein objektiv betrachtet. Wenn euch die Nostalgie kickt und euer Herz brennt bei solchen news weils damals halt der "geile shit" war, sei es euch doch geschenkt. Ich mache hier rein rationale Aussagen.
 
mibbio schrieb:
SLI (Scan Line Interleave) bei 3dfx war halt auch eine andere Technik als SLI (Scalable Link Interface) von Nvidia.
Ja und Nein zur gleichen Zeit. Es ist "kompliziert".

3dfx SLI basiert darauf, dass der Treiber das Bild in die geraden und ungerade Zeilen teilt und GPU-1 die Gerade und GPU 2 die ungeraden Zeilen berechnet. In dem Fall ist SLI eine Technik, die man unter dem Begriff Splitted Frame Rendering zusammenfassen kann. SLI bezeichnete also einmal eine Technik in SFR und dann einmal auch die Technik zur Kommunikation von zwei GPUs.
mibbio schrieb:
Bei 3dfx dürfte es auch stärker in die Architektur der Grafikchips und die Glide-API integriert gewesen sein, mit entsprechender Optimierung.
In dem Fall war es bei 3dfx auf Treiberebene und war auch in DX6 möglich, also nicht explizit auf Glide beschränkt.

Zu der damaligen Zeit war es auch weit einfacher, die Berechnungen zwischen mehrere GPUs aufzuteilen, weil die GPUs weitgehend noch Fixed-Function-Units waren. Das hatte ich auch gerade grob beschrieben.
mibbio schrieb:
Besonders da SLI für 3dfx in den späteren Voodoo-Generationen essentiell war, um mehrere Grafikchips auf einer Karte zu koppeln.
Und ist einer der Gründe, warum Voodoo 4 und Voodoo 5 eigentlich nur DX6-Grafikkarten waren und keine DX7. Bei Voodoo 1 - 5 hat die CPU die Geometrie- und Beleuchtungsrechnung durchgführt, die GPU hat dann nur die fertigen Polygone gerastert, die Textur darauf geklebt und dann mit bestehenden Shadow- und Lightmaps verrechnet.

Mit DX7 kamen dann die ersten "dynamischen" Geometrie (Transform) und Lichtberechnungen hinzu, DX7 "kompatiblität" bei 3dfx-Karten wurde dadurch erreicht, dass man diese Berechnungen auf die CPU ausgelagert hat.

Die CPU/Treiber hat bei DX6 und DX7 soweit alles berechnte, dass nur noch das fertige Bild, das gerastert werden muss, auf den GPUs aufgeteilt wurde.

Bei DX 8 mit den nun flexiblen Vertex- und Pixelshadern wäre das ursprüngliche SLI vollendens an die Grenzen geraten und hätte nicht mehr funktioniert.

Entsprechend hatte 3dfx für ihre erste DX8-Karte eine "Multi-Chip-GPU" in Entwicklung: Sage als Geometrie-Prozessor, der die T&L-Einheiten nach DX7 sowie die Vertex-Shader und ein Teil der Pixel-Shader enthalten hätte, während dann der Rampage-Chip die ROPs, TMU und Pixel-Shader nach DX8 enthälten hätte.

Sage hätte dann das Bild soweit berechnete, dass dann die Rampage mit den ROPs, TMU und den Pixel-Shadern hätten übernehmen können. 3dfx hätte jedoch spätesten bei DX9 und DX10 wieder Probleme mit dem ursprünglichen SLI bekommen, weil sich die stare Pipeline mit DX9 und DX10 final quasi in Luft aufgelöst hat.

3dfx SLI funktionierte so gut, weil es nur einen kleinen Teil der damligen Pipeline ausgemacht hat und quasi nur 3 Berechnungen am Ende vor der Bildausgabe hatte:

Das Polygon für den Pixel bestimmen, die Texel für den Pixel bestimmten und dann mit dem Lichtwert verrechnen.
 
  • Gefällt mir
Reaktionen: Qyxes, Wanderwisser, n8mahr und eine weitere Person
Snoopmore schrieb:
Damals dachte ich "das ist einfach so dermaßen überteuert. Zwei grafikkarten kosten schlicht zuviel"
Heute geben die Leute das doppelte bis dreifache des sli-doppel-preises für nur eine Grafikkarte aus. Die Welt ist bekloppt geworden..
Du machst einen Denkfehler. Man kann heutzutage die Karten usw. sooo lange behalten. Es ist eigentlich eher günstiger als früher.
 
  • Gefällt mir
Reaktionen: Slim.Shady und HighPerf. Gamer
Bei diesen Bildern kickt die Nostalgie definitiv bei mir 😅
1000047874.jpg
1000047875.jpg
 
  • Gefällt mir
Reaktionen: angHell, DNS81, Hardy_1916 und 3 andere
n8mahr schrieb:
viele dieser Technologien leben in anderer Form ja noch weiter in aktuellen Produkten.
Wenn es um SLI/Crossfire geht, kommt an der Stelle ja nicht umsonst auch immer wieder der Vergleich mit dem von 3dfx genutzen SLI bei Voodoo 1 - 5 auf, und dass das "ursprüngliche" SLI sogar sehr gut funktioniert hatte und eine tolle Sache damals war.

Das ursprüngliche SLI war "einfach" und zu seiner damaligen Zeit eine tolle Sache. Mit der Voodoo 1 und Voodoo 2 konnte man die Auflösung erhöhen und gleichzeitig auch die Leistung. Bei der Voodoo 5 wurde auch die Leistung erhöhunt und SSAA konnte auch eingesetzt werden.- Es gab in der Form keine Mikroruckler und Co. Das ursprüngliche SLI ist eine Form für SFR.

Durch die technologische Entwicklung - DX7, DX8 - ist aus der damals tollen Technik aber etwas geworden, was nicht mehr funktionierte. Und genau in dem Kontext habe ich ja auch meine Aussage getroffen. Das, was SLI/Crossfire geboten haben, hat im DX6 Zeitalter toll funktioniert, mit DX7 und DX8 ging es nicht mehr, also musste man eine neue Lösung suchen, die allerdings dann eben nicht mehr so toll funktionierte, bis es durch weitere technische Entwicklung gar nicht funktionierte.

Und genau das sollte meine Aussage da auch ausdrücken, dass die ursprüngliche Idee und Technik toll funktioniert hat, durch den Fortschritt aber eben überholt wurde und dann nicht mehr funktionierte.
 
  • Gefällt mir
Reaktionen: Slim.Shady und Qyxes
@DevPandi ich glaube, da ist dir (wie mir) ein zitierfehler unterlaufen. bin ja deiner meinung, aber der kollege nicht ^^
 
n8mahr schrieb:
ich glaube, da ist dir (wie mir) ein zitierfehler unterlaufen. bin ja deiner meinung, aber der kollege nicht
Nein, mir ist da kein Fehler unterlaufen, ich habe sogar - sehr dankbar - registriert, das du versucht hast meine Aussage aufzugreifen und an der Stelle auch zu erläutern. Du hattest an der Stelle nur keine richtig passende Stelle, die man hätte zitieren können und die passte am Besten um darauf einzusteigen.
 
  • Gefällt mir
Reaktionen: n8mahr
Können wir kurz die 180 Watt idle festhalten? Quasi Standheizung :D
 
  • Gefällt mir
Reaktionen: Mills97 und HighPerf. Gamer
Zurück
Oben