News Im Test vor 15 Jahren: ATi CrossFire hatte anfangs obskure Limitierungen

Microsoft schrieb:
Komisch, hier ist wieder der Stromverbrauch des Gesamtsystems obwohl es millionen von verschiedenen PC-konfigurationen gibt.

Ich will auch bei der "Ampere" Generation eine Gesamtsystemleistungsaufnahme
Da ist nichts komisch, früher hatte man einfach ein Messgerät zwischen Steckdose und Netzteil gehängt
z.B.: https://pics.computerbase.de/5/6/7/2/5/7-1260.4005252752.jpg

Heute misst man direkt an den Karten.
 
  • Gefällt mir
Reaktionen: NMA
konkretor schrieb:
(...) SLI von 3dfx war das besser System. (...)
Ich kenne mich da zu wenig aus, aber Spielegrafik ist mit der Zeit ja auch immer komplexer geworden, daher war das damals vielleicht einfacher umzusetzen.
Wenn das System von 3dfx so einfach auf modernere Technik anzuwenden wäre, hätte das Nvidia sicher gemacht.
 
Da werden echt Erinnerungen geweckt. Hatte schon sehr viele Grafikkarten sowohl mit Chips von 3dfx und ATI/AMD als auch Nvidia in meinen PCs. Einmal hatte ich auch ein Crossfire-System mit 2x HD6970. Das war schnell&heiß(stromhungrig&laut). Und irgendwann (ich glaub wegen der deaktivierten OpenCL Funktion in den CatalystTreibern) bin ich dann wieder zurück zu SingleGPU. Danke für diese Retrospektiven hier auf CB.
 
2x 7970er MSI Lightning waren mein letztes Multi GPU System.
Schon ne Weile her.
 

Anhänge

  • xSB75883.jpg
    xSB75883.jpg
    222,8 KB · Aufrufe: 374
  • Gefällt mir
Reaktionen: Cr@zed^, kryzs, Herdware und 2 andere
Spattel schrieb:
...Zeit ja auch immer komplexer geworden...

Jupp, mit den Shadern wurde es wohl komplizierter, nur einzelne Bildzeilen zu rendern
 
  • Gefällt mir
Reaktionen: NMA
Die Karten sahen schon geil aus. Leider hatte ich zu der Zeit kaum Geld...
Ich will in die Vergangenheit reisen!:king:
 
  • Gefällt mir
Reaktionen: NMA
Schön zusehen was noch aktiv in Betrieb ist (war)! 👍🏻
 
  • Gefällt mir
Reaktionen: konkretor
@holdes
Waren die Flammen auf dem Kühlkörper ein "Warnhinweis"? ^^

@Raucherdackel!
Cooooool!
Ein 939er System im max Out Zustand, wie geil! ^^

@Topic
Ich kann mich gut daran erinnern, welche Erwartungen von uns und anderen mit dieser Technik / Verfahren geschührt und generiert wurden.
Nichts davon hatte sich dann bewahrheitet, doch die benchmark Balken haaben so manches mal zur "Blutträne" geführt, nicht nur obliegend der theoretisch Verfügbaren Leistung.

Die Zeit fand ich richtig cool und beinahe schion ein wenig "trashig", aber der Markt war gefühlt noch aufgewühler und belebter und weniger "Steriel", wie aktuell (wobei dieses Jahr auch, wiedereinmal ein sehr spannendes Hardwarejahr ist).

Gab's bei SLI oder Crossfire nicht auch bei einigen Board's, SO-DIMM Ähnliche Steckkarten, diese auf dem Mainboard dann umgedreht, je nach Konfig in den dafür vorgesehenen Slot eingesteckt werden mussten?
 
@NMA
https://www.asrock.com/mb/NVIDIA/K10N780SLIX3-WiFi/index.asp
Das war so eins. Hatte ich auch gehabt. War aber eine schlechte idee. Weil kumpel hatte das kleinere mit dem nforce 750 gehabt und bei ihm lief zb nfs undercover einwandfrei, während es bei mir ständig abschmierte und grafikfehler hatte.
Die karten haben nur dafür gesorgt das man entweder 1x16 hat oder 2x8 wenn ich mich richtig erinner.
 
  • Gefällt mir
Reaktionen: NMA und kryzs
Die ersten Crossfiregenerationen waren schon ein wenig kurios. Die späte Markteinführung, die speziellen Masterkarten und Treiberprobleme deuten daraufhin, dass ATI den Trend damals ordentlich verpennt hat und in kurzer Zeit etwas auf die Beine stellen musste.
Als die X850 Master endlich verfügbar war kam wenige Wochen später schon die X1800er Serie. Deren Masterkarte kam dann ebenfalls viel zu spät und nur knapp vor der X1900 auf den Markt.
 
  • Gefällt mir
Reaktionen: kryzs
Ich vermisse Crossfire und SLI schon ein wenig, insbesondere wenn die Technik noch weiter Feintuning erfahren hätte wäre es eine sehr interessante Alternative im unteren Segment mal eben eine zweite Karte rein zu stecken.

Bei den Enthusiast Monstern muss das dagegen echt nicht sein, wenn man sich mal so eine 3090 anschaut.
Aber so zwei 3070 wären doch was feines gewesen, wenn die Technik funktioniert.
Finde das schon schade.
 
Hab Crossfire mit den RX580ern getestet als ich meine mining Rigs in einzelteilen Verkaufte. War auch nach x Jahren Weiterentwicklung unbrauchbar 🤷‍♂️ 😂
 
  • Gefällt mir
Reaktionen: NMA
Also mein CF System von damals eine HD3070+HD3850. 😉

Mein SLi System danach GF770 plus GF8600 als Physik GPU.
 
Da werden Erinnerungen wach. Jahrelang hab ich von einem sli/cx System geträumt aber nie das nötige Kleingeld dafür gehabt.

Sehr spät hab ich mich dann an die Thematik gewagt - mit zwei gtx550 im sli zusammen mit einem q9550. Die Leistung hat gestimmt, aber die Mikroruckler haben mich wahnsinnig gemacht. Kurze Zeit später wurden die beiden von einer gtx670 abgelöst, danach kam nichts mehr.

Schade, dass die Technik nicht mehr weiter verfolgt wird, mehrere Gpus rendern lassen ist ja abseits vom Gaming doch nicht unüblich.
 
Faust2011 schrieb:
Zum Flimmern @n8mahr : Kann es sein, dass das mit TXAA als Antialiasing bei Dir war? Sowas war nämlich der Tod von Crossfire, weil hier die Bilder nicht mehr unabhängig berechnet werden konnte. Hintergrund ist die temporale (also zeitliche) Komponente für dieses AA, was natürlich super für den Effekt war, aber eben auf die Infos des vorhergehenden Frame zurückgreifen musste. Damit wurde Crossfire ausgebremst, bis auf die die Performance von nur noch genau 1 Grafikkarte.
1+
Jo, im Zugriff auf das vorhergehende Frame liegt das Problem, was durch die Defered Engine bei Game XYZ
besteht, wohl auch oft genutzt bei indirekten Schatten. Man kann im Einzelfall nur bei den Licht+Schatten probieren zu reduzieren. Und statt TAA 2x halt lieber 1800p statt 1440p und dafür TAA off, ggf. mal per Reshade SMAA testen. TAA 1x geht in einigen Games. (wird aber net in jedem Game angeboten)
Das ist auch das Problem bei den letzten mGPU-Reviews, das Keiner versucht hat die "Grafikoptionen" auf
das defered-Problem anzupassen.(würde ein 24/7-User nie mit TAA 2x und max. Light/Shadows spielen)

Vermutlich würde mGPU noch immer funzen bei richtigen Forward Engines.(leider von Id-Tech net bei W2 im Angebot, gabs ja vorher noch bei Doom@OGL) oder ala Timespy.
Interessant ist auf jeden Fall die Modderszene bei SLi, die z.Bsp. bei Metro und Anthem noch gute Ergebnisse hatten.
(da ist man als Cf-Nutzer quasi aussen vor, weil die Community sowas net macht/kann/darf)
Gerade auch für RDR2 würde ich mir mGPU@Vulkan wünschen, was "nur" bei NV geht!?
Ansonsten bleibt einem halt nix anderes übrig als bei Game XYZ den Vorgänger zu spielen, wie RoTR statt SoTR,
D statt D2, Hitman statt H2 etc.

Theoretisch wäre ein mGPU mit 2x 2070s@NV-Link ideal >2080Ti(3080?), aber da NV auch net mehr will ab 2021, net mehr soo interessant. Mit NV-Link hätte man net so die Board-Limitierung weil 2x 8-fach reicht.
Nvidia's RTX 2070 Super supports NVLink for multi-gpu - Hardware Info
Warum auf meinem uralten Board sogar Steckplatz 4 auf 16-fach läuft = k.A., normalerweise brauchts halt teure Boards.(was Cf meist uninteressant macht)

btw.
Mit UVen+Fps-Limit ist Cf/SLi net groß ineffizienter als ne Singlegraka.(man läuft näher am Sweetspot)
z.Bsp. mal eff. GPU-Clock ungefähr so schnell wie die RX56@Stock in den CB-Reviews
und den HBM mit dem MemTweaker(Timings geä.) ca. 20%oced.
Erscheint mir als effizienteste Lösung für 24/7 an meinem Moni mit 1800p@50Hz-Chill=47-50fps.
Habe daher auf h2o verzichten können-2x Blower reichen für die paar W.
(1800p ist ungefähr 4k@Trixxboost85% oder 4k@DLSS1.0 von der Quali her)
 

Anhänge

  • 1602-960-W.png
    1602-960-W.png
    9,8 MB · Aufrufe: 295
  • 1602-960-D.png
    1602-960-D.png
    2,5 MB · Aufrufe: 332
  • PCIE-Test.png
    PCIE-Test.png
    96,8 KB · Aufrufe: 274
  • 2070s@NV-Link.png
    2070s@NV-Link.png
    133,9 KB · Aufrufe: 282
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und Faust2011
konkretor schrieb:
Jetzt will ich Bilder sehen von alten SLI Systemen
Ergänzung ()

Hatsune_Miku schrieb:
Hatte mehrere SLI Systeme, einfach aus neugier, fand es damals einfach geil anszusehen wenn das gehäuse auch mal komplett gefüllt war
Naja, volles Gehäuse ist auch eine frage der Gehäusegrösse.
 

Anhänge

  • 16005954971385191034151904050019.jpg
    16005954971385191034151904050019.jpg
    4,9 MB · Aufrufe: 309
  • 16005955241131069162866173150890.jpg
    16005955241131069162866173150890.jpg
    1,5 MB · Aufrufe: 293
  • 16005956984667601323121248114616.jpg
    16005956984667601323121248114616.jpg
    1,4 MB · Aufrufe: 297
  • Gefällt mir
Reaktionen: deo, PietVanOwl, Cr@zed^ und eine weitere Person
Zurück
Oben