News Im Test vor 15 Jahren: ATi CrossFire brauchte zwei verschiedene Grafikkarten

@Gradenkov also mein Netzteil kann 4 GPUs mit 2x8-Pin versorgen :D
 
Kommt halt drauf an was du machst. Ich würde mich über multi GPU Support in Spielen freuen. Die heutigen Brücken sind auch ganz anders als der Kram früher. Das muss eigentlich gut sein mit entsprechender Optimierung. Thema VR kam ja auch schon auf. Wer weiß ob es da ein Comeback gibt. Vielleicht auch erst Wenn es auch bei GPUs Chiplets gibt die gut skalieren.
 
@Gradenkov

Ist die GPU, mit der AiO standardmäßig so ausgeliefert worden?

@PCIe
Grundlegend genügt jeweils zwei mal 6Pin, entsprechend überbrückt (Pin 6/7), um 2X 8 Pin zu gewährleisten.
(Roman Hartung hat dazu einen Bericht / Video veröffentlicht).
 
@Gradenkov

Höchst interessant!
Das Produkt ging bisher an mir vorbei.
Ist bekannt, ob auch AiO's von Asetek damit kompatibel sind?
Ich muss mal schauen, ob auch eine RX5700 rev damit kompatibel ist.

Edit:
Die NZXT Kraken G10 ist mit der 5700er Serie (rev) und Asetek kompatibel.
 
Zuletzt bearbeitet: (Ergänzung)
In der Theorie fand ich es immer interessant, praktisch hätte ich es aber nie umgesetzt.
 
DiamondDog schrieb:
du wirst es nicht glauben - ich hab echt nach einer 2. GTX 970 geschaut :pcangry:

Also, wenn man die Unterstützung bei den games hat, war die Performance wohl ganz gut, wenn man den youtu.be Reviews dazu glauben kann. Als die grakas so teuer geworden sind, wegen des minings, hab ich auch mit dem Gedanken gespielt, die 970 waren gebraucht ziemlich günstig. Problem ist halt die mangelnde Unterstützung.

Psy
 
andi_sco schrieb:
Kometenhafter Aufstieg mit Voodoo 2 und Voodoo 5 SLI und tiefer Fall mit Crossfire und nv SLI
Was aber auch nicht verwundert.

Man vergleicht hier sehr starre GPUs, die primär nur die Bildsynthese durch führten, mit GPUs, die fast alles selbstständig berechneten, was das Bild anging.

Geometrie, Beleuchtung, Schatten und Co wurden bei Voodoo2 und Voodoo5 von der CPU berechnet und alle wichtige Daten lagen vor. Die Voodoos haben anschließend nur noch die Polygone genommen, Texturen darauf geklatscht, die Lichtwerte verrechnet und das ganze dann an den Monitor gesendet.

Seit DX7 und verstärkt DX8 wurden Geometrie, Beleuchtung, Schatten und Co auf der GPU berechnet und genau das war damals auch das "primäre" Problem, warum man sich in den meisten Fällen für AFR (Alternate Frame Rendering) entschieden hat, statt SFR (Splitted Frame Rendering). 3dFX nutzte SFR - Zeilenweise - und konnte so entsprechend Leistung herauskitzeln.

Nur muss für SFR beiden Karten die gleichen Daten an Geometrie, Beleuchtung und Co vorliegen und dann hätten die Daten entsprechend schnell synchronisiert werden müssen. Bei 3dFX war das kein Problem damals: Die Daten von der CPU gingen zur gleichen Zeit an die gleiche Karte.

Hier hat einfach die immer flexiblere GPU-Pipeline einen Strich durch die Rechnung gemacht. Und AFR wurde während der DX9 Zeit immer mehr ein Strich durch die Rechnung gemacht, in dem in den Rendertechniken auch auf Daten vorheriger Frames zurückgegriffen wurde.


Pry_T800 schrieb:
Vielleicht wäre Multi GPU jetzt noch am Start, wenn die Hersteller einem die Wahl gelassen hätten, in welchem Modi man diese Karten miteinander betreibt?!
Nein, wäre es in dem Fall nicht, weil die Hardware - bestimmte Aspekte - nicht mit der Entwicklung der Software hat Schritt halten können.

SLI von 3dFX war spätestens mit DX7 Geschichte - siehe T&L. Klar hatte 3dFX dafür eine Lösung bei Rampage parat, aber dort hätte es SLI eben nur auf der einen Karte geben. Ein Geometrie-Prozessor, der 1 - 4 Shader-Prozessoren versorgt. Klar, geht noch als SLI durch, aber eben nicht mehr beliebig skalierbar.

Der Untergang von SLI/CF war aber auch bereits kurz nach dessen eigentlichen Start schon wieder besiegelt, als die Rohleistung der Karte stieg und die Entwickler entdeckten, dass sie wichtige Informationen aus vorherigen Frames und deren Einzelschritten für den aktuellen Frame extrapolieren können.

Schon war die Bandbreite als auch die Latenz zwischen den Karten ein entscheidender Faktor. Klar für das einzelne fertige Bild reichte die Bandbreite oft aus, aber spätestens, wenn noch Einzelschritte mit mussten wegen bestimmten Effekten, war die Bandbreite schnell auch ein limitierender Faktor.

SV3N schrieb:
Bis auf 3dfx konnte mich niemand von Multi-GPU überzeugen. Mit CrossFire durfte ich in all den Jahren gar keine Erfahrungen sammeln.
War halt noch die gute alte prä-DX7-Zeit. Da berechnete die GPU das Bild und hat es an beide Grafikkarten gesendet.

[wege]mini schrieb:
Voodoo hatte halt einen anderen Ansatz. Da wurden 2 3D Beschleuniger, gleichen Typs und gleicher Geschwindigkeit (die waren auch zickig, selbst bei unterschiedlichen Herstellern) , mit einem 2D Beschleuniger verbunden, der die Konfiguration übernommen hat und daher auch keine Microrukler möglich waren.
Aber sowas von Falsch!

Der Ansatz von 3dFX nannte sich Scan Line Interleave und funktionierte so gut, weil damals die eigentlichen Grundberechnungen für das Bild noch von der CPU genommen wurden. Die fertigen Bilddaten wurden dann anschließend vom Treiber an beide Voodoo²-Karten im System geschickt und Karte A berechnete die ungeraden Zeilen, Karte B die geraden Zeilen. Karte A hat dann ihre fertigen Zeilen Karte B geschickt und von Karte B gings dann an den Monitor.

Das hatte überhaupt nichts mit den damals üblichen 2d-Beschleunigern zu tun gehabt. Das ist im übrigen auch der Grund, warum man sowohl bei Voodoo², Voodoo³ und den Voodoo 4 und Voodoo 5 Karten gut von stärkeren CPUs profitiert hat. Bei 3dFX war eine schnelle CPU quasi Pflicht um die massive Rohleistung seiner Karten auch nur im Ansatz nutzen zu können.

...
 
  • Gefällt mir
Reaktionen: Pry_T800, andi_sco und SVΞN
@Teralios und @SV3N
Hier hat einfach die immer flexiblere GPU-Pipeline einen Strich durch die Rechnung gemacht. Und AFR wurde während der DX9 Zeit immer mehr ein Strich durch die Rechnung gemacht, in dem in den Rendertechniken auch auf Daten vorheriger Frames zurückgegriffen wurde.

Da würde mich mal interessieren, wie gut das 4x SLI der Radeon 9700 funktioniert hat.
 
andi_sco schrieb:
Da würde mich mal interessieren, wie gut das 4x SLI der Radeon 9700 funktioniert hat.
Kommt immer darauf an, wie die Engine arbeitete und welche Effekte implementiert wurden.

Es war ja im Endeffekt ein schleichender Prozess, der langsam zum Sterben von SLI und CF geführt hat. Gerade Spiele der DX8-Ära (Mindestanforderung DX7 als Fallback) sowie der DX9-Ära bis ca. 2010 rum, funktionierten in der Regel sehr gut. Gleichzeitig gab es damals schon Spiele, die durchaus zeigten, dass SLI/CF an seine Grenzen stößt. Es hat einen Grund, warum gerade Cysis recht lange mit SLI/CF Probleme hatte und nicht wirklich anständig lief und soweit ich weiß, sind die Probleme auch nie wirklich gelöst worden.

Crysis war - neben UT3 - eines der ersten Spiele, bei dem viele Effekte umgesetzt wurden, die zum Teil den Framebuffer benötigten, aber auch auf Einzelschritte der vorherigen Frames angewiesen waren, damit diese Grafikpracht auf den Monitor gezaubert werden konnte.

Das Betraf damals aber wenige Spiele, da gerade in DX9 diese Effekte zwar möglich waren, aber sehr umständlich programmiert werden mussten. Als dann DX10 und DX11 viele Effekte durch Vereinfachung generell zugänglich machten und so vermehrt implementiert wurden durch Entwickler, fing dann der schleichende Abstieg von CF/SLI an und ist auch eng Verbunden mit den Mikrorucklern. Je nach Masse der "modernen" Effekte und wie sauber/unsauber die Programmiert wurden, um so stärker neigte ein Spiel bei SLI/CF zu Mikrorucklern.

Man kann hier - stark vereinfacht also sagen: Je einfacher man aufwendige Effekte durch DX in die Engines implementieren konnte, umso stärker traten die Schwachstellen von CF/SLI hervor.
 
  • Gefällt mir
Reaktionen: andi_sco
Zurück
Oben