News Im Test vor 15 Jahren: ATi CrossFire X gegen Nvidia Quad-SLI im Schlagabtausch

Quad-SLI hat zwar nicht toll skaliert, aber immerhin bessere Latenz aufgrund "AFR of SFR). Hat nur damals keinen interessiert, selbst heute fällt keinem auf dass 3 extra Frames Prerendering (4-Way AFR) vielleicht toll skaliert, aber Input Lag nicht so der Bringer ist.
 
FR3DI schrieb:
Und heutzutage läuft mit einer Karte alles besser?
Ja, ich finde schon.

Wenn man heute die maximale Leistung möchte, greift man halt zu einer 4090 und fertig.
FR3DI schrieb:
Ich würde mir ein Multi-GPU System heutzutage noch antun und wenn es nur zwecks Nostalgie und Nische wäre,
Multi-GPU in Spielen hat ja schon immer nur mit den High-End-GPUs wirklich Sinn gemacht und zwei 4090 für 4.000 Euro sind dann doch ein wenig drüber.

Zumal die FPS nur in Ausnahmefällen wirklich 1:1 oder auch nur nahezu skaliert haben.

Stromverbrauch, Abwärme, Mikroruckler … heute würde mich nichts mehr zu Multi-GPU zurückbringen.
 
  • Gefällt mir
Reaktionen: Zarlak
Wo wohl eine 4090 im Vergleich zur GeForce 9800 GX2 SLI stehen würde?
 
@wickedgonewild sowas? :daumen:

Gainward 8800 Rampage 700 HD 4870X2.JPG
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR, Hexxxer76, wickedgonewild und eine weitere Person
das was früher ganze CF X oder Q SLI Systeme gezogen haben, zieht nun eine Graka :D
muss man sich mal zu Gemüte führen.
 
ridde schrieb:
määähhh zu teuer... mähhh wer soll das bezahlen.. määhhhhh 500€ für die beste Grafikkarte auf dem markt... mähhhh wo kommen wir da hin? rumheul
Naja, und, wo hat es uns hingebracht?
 
  • Gefällt mir
Reaktionen: Jethro, Redundanz und FR3DI
SVΞN schrieb:
und zwei 4090 für 4.000 Euro sind dann doch ein wenig drüber.
Haben doch zwei "TITAN X Pascal" gerade mal etwas über die hälfte gekostet. Versteh mich nicht falsch. Hier gab es "Native" leistung. Kein Kerosin, kein NOS, kein DLSS.

SVΞN schrieb:
Zumal die FPS nur in Ausnahmefällen wirklich 1:1 oder auch nur nahezu skaliert haben.
Stimmt soweit. Es gab nur wenige Spiele die tatsächlich darauf Optimiert waren. Für mich waren es aber auch jene Spiele die ich gespielt hatte.

SVΞN schrieb:
Stromverbrauch, Abwärme, Mikroruckler … heute würde mich nichts mehr zu Multi-GPU zurückbringen.
Ersteres und zweites genanntes haben wir auch heute. Mikroruckler haben mich weniger gestört. Einzig Tearing was sich durch "Vsync schnell" und oder durch einen Monitor mit mehr Hz behoben lassen hat, störte mich hingegen wirklich. Aber gut, ein anders Problem das gewesen ist.

Gruß Fred.
 
Danke für den tollen Retro-Artikel zum Wochenende, schöne Lektüre. Hat mich wieder an meine zwei relativ sorgenfreien SLI-Systeme (7800GTX und GTX280) erinnert. Mikroruckler waren da eigentlich nur dann ein Thema wenn es a) kein passendes Treiberprofil gab oder b) alles auf Anschlag lief. Da hat sich zu heute meiner Meinung nach nichts wesentliches daran geändert. Skaliert hat das damals in besten Fall bis 85, 90%, das waren aber eher die Ausnahmen. Auch wenn Multi-GPU heute ein totes Pferd ist möchte ich keine Wetten darauf abschließen das es so bleibt.

@wickedgonewild : sehr schöner build, gelungen!
 
  • Gefällt mir
Reaktionen: wickedgonewild und FR3DI
drago-museweni schrieb:
Ich finde es immer noch schade das es kein Multi GPU mehr gibt, es müsste doch technisch möglich sein sowas zu machen ohne die Mikroruckler etz.
Die Mikroruckler kamen bei diesen Systemen durch das Verfahren zustande, weil Bilder unterschiedliche Lasten erzeugen und daher unterschiedlich schnell ausgeben werden. Man kann es synchronisieren, dann verschlechtert sich jedoch die Latenz. Dazu kommt, dass die Ausgabe auch entsprechenc verwaltet werden müssen.

Andere Verfahren - Splitted Frame Rendering - bieten sich hier an, benötigen aber auch entsprechende Synchronistation der GPUs und ebenso auch entsprechende Bandbreite und niedrige Latenzen.

Egal ob jetzt AFR oder SFR, ab einem gewissen Punkt stellen die Latenzen für die FPS hier eine unüberwindbare Barriere da und die Signalewege sind hier entscheidend.
Fighter1993 schrieb:
Leider nein. War nicht das unlösbare Problem das der Weg zwischen den beiden Chips immer ein Delay hervorruft?
Richtig, das ist hier der Hauptpunkt. Bis "DX6" - als die GPUs nur Polygone mit Texturen versehten, vorberechnete Lichtwerte drauf setzten und dann das Bild ausgeben haben, war es relativ einfach ein Bild in x-beliebige Happen zu zerlegen, weil quasi keine "Synchronistation" notwendig war, außer die fertigen Zeilen zu übergeben.

Seit DX7 wird die Geometrie und die Beleuchtung auch in Hardware berechnet und entsprechend ist das, was 3dfx mit SLI gemacht hat, nicht mehr so einfach möglich gewesen. Mit DX8 und später verstärkt mit DX9 und den Shadern kamen dann noch weitere Möglichkeiten hinzu, so dass man erst in den Framebuffer schreibt, von dort ausließt und Co. Daher ging man als "einfache" Lösung zu AFR über, dass jede Grafikkarte ein Bild berechnet. Hier muss "primär" die Bildausgabe synchronisiert werden und die Frames in der richtigen Reihenfolge übermittelt werden.

SFR wiederum benötigt es, dass ganze Bildaten über die Chips synchron gehalten werden, es ist also ein aufwendiges hin und her an Daten notwendig und entsprechend mit den Latenzen verbunden. Diese Latenzen bilden dann auch die unüberwindbare Mauer für die FPS da "mehr" geht dann nicht.

Dazu kommt dass mit "jeder" zusätzlichen GPU auch der Verwaltungsaufwand steigt und auch immer mehr Frames im Voraus berechnet werden müssen, was dann auch die Latenz des Spieles ansteigen lässt. Man hat zwar dann am Ende "mehr" FPS, aber teilweise keine bessere Latenz, weil eben x-Frames im Voraus an die GPU weiter geben werden - AFR - oder man benötigt entsprechende Bandbreite bei SFR und eben die Latenz.
 
  • Gefällt mir
Reaktionen: Fighter1993, drago-museweni und konkretor
SLI und CF habe ich beide nicht eingesetzt, schon gar nicht als Vierfach-Gespann. Das hatte technisch was von Pferdekutschen: Vier Pferde sind nicht viermal so schnell wie eines, man braucht aber viermal so viel Futter. Technisch eher ein Experiment als die Zukunft.

Ich glaube heutzutage gibt es auch gar keinen Bedarf mehr für so etwas, weil die Hardware nicht mehr den Spielen hinterherläuft. Es gibt ja kaum eine Grafikkarte mehr auf dem Markt, jünger als fünf oder sechs Jahre, die nicht jedes Spiel darstellen könnte. Das war früher schon im High End Bereich gelegentlich knapp oder gar technisch unmöglich.
 
Nie quad Sli oder crossfire x gehabt.
Aber damals eine 7950gx2 auf Ebay geschossen, kurz benutzt, und teurer verkauft, damit dann eine 3870 geholt.

Aus fun für einen 3dmark Bench zwei 4850 drinne gehabt. Hier fande ich das es sich gelohnt hat. Eine hatte einen Accelero S1 drauf und war deswegen nicht so laut. Und ich glaube soviel haben die auch nicht gezogen.

Allein schon nur wegen der Optik hatte ich gerne 3870x2, habe mir auch deswegen ne gtx260 gekauft. 😂
 
CDLABSRadonP... schrieb:
Die Frames müssen dem Auge synchron präsentiert werden, die Graka, die mit ihrem Bild schneller fertig wird, muss also auf das Niveau derjenigen gebremst werden, die mit ihrem Bild langsamer fertig wird.
(klassisches Beispiel: Explosion am linken Blickfeldrand)
Was soll das Beispiel genau Aussagen?
 
  • Gefällt mir
Reaktionen: FR3DI
In Sachen[...]Leistungsaufnahme[...]stellten die Systeme mit vier GPUs neue Negativrekorde auf. In der Praxis bedeutete das[...]bis zu 600 Watt Leistungsaufnahme im Spielbetrieb.
wenn man den verlust im NT rausrechnet landet man bei ~500W-530W für die hardware. kann man mittlerweile durch ne einzelne graka jagen:D:freak: der leerlaufverbrauch, auch mit nur einer karte, ist dagegen nach heutigen maßstäben echt brutal.


hatte selber nie multi-GPU im system und das wird sich, von multi-GPU im sinne von CF/SLI ausgehend, wohl auch nicht ändern.
 
Zuletzt bearbeitet:
Damals habe ich drauf verzichtet, weil meine Kinder noch klein waren (Familie geht vor Hobby) und außerdem mag ich keine Mikroruckler, auch nicht am Anschlag.
Heute würde ich es nicht machen weil es unsinnig ist. Aber gibt es ja eh nur noch selten.
 
FR3DI schrieb:
Hier gab es "Native" leistung. Kein Kerosin, kein NOS, kein DLSS.
Das hast du bei einer 4090 doch auch heute und das ganz ohne DLSS & Co.

Die 4090 ist doch mit weitem Abstand das Schnellste was man sich gönnen kann.

Es ist doch niemand gezwungen DLSS zu nutzen. Es gibt allerdings schon heute Szenarien, da sieht DLSS besser aus als nativ.
FR3DI schrieb:
Ersteres und zweites genanntes haben wir auch heute.
Eine 4090 bei 300-350 Watt ist effizienter als alles was vorher jemals da war und das mit großem Abstand.

Die heutigen Kühler haben auch null Probleme damit, das sehr leise abzuführen.
 
SVΞN schrieb:
Die 4090 ist doch mit weitem Abstand das Schnellste was man sich gönnen kann.
Der Fortschritt macht es möglich?

SVΞN schrieb:
Es gibt allerdings schon heute Szenarien, da sieht DLSS besser aus als nativ.
Wie soll das Funktionieren? Verlustbehaftet bleibt eben genau das, egal ob per KI hochgerechnet. Du darfst mich aber ruhig eines anderen überzeugen.

SVΞN schrieb:
Eine 4090 bei 300-350 Watt ist effizienter als alles was vorher jemals da war und das mit großem Abstand.
Mit händischem eingriff wird das stimmen, aber "OC" bleibt eben OC auch bei UV! Und wie reagiert so mancher Hersteller darauf? Mit Garantieverlust.

Gruß Fred.
 
SVΞN schrieb:
Eine 4090 bei 300-350 Watt ist effizienter als alles was vorher jemals da war und das mit großem Abstand.
Wobei ich die Einheit "fps/Watt" ohne Framelimiter sinnfrei finde. 200fps bei 350Watt sind extrem ineffizient, wenn man nur 60 oder 100fps für ein flüssiges Spiel braucht. Meine Kombi zieht grob ~200 Watt mit RT und Framelimit 60fps. Meistens sogar weit darunter, wenn die Spiele älter sind.

Aber ja: Effizienter als die alten Karten ist es allemal.
 
@Normenn12596702

Bin hierbei nicht mehr im Thema wie G-Sync genau funktioniert. Spiele seit Jahren nicht mehr aus zeit gründen. Aber kann sein, das es genau das macht um die Bilder mehrerer GPU in einen regelmäßigen Abstand zu bringen. Aber wie Ein_Freund schon anmerkt wird es wohl zu viel Zeit verschlingen.
 
@FR3DI Nein, wegen den tausend Lüftern, die quasi an jede freie Seite vom Gehäuse geklebt wurden.
 
Zurück
Oben