News Im Test vor 15 Jahren: PCIe x8 gegen PCIe x16 für Multi-GPU-Systeme

Microruckler sind eher ein Problem der Settings gewesen, sobald Traffic zw. den Grakas erf. war.
I.d.R. deswegen TAA2x off und stattdessen SMAA1x per Reshade und beim Defered Lighting halt auf low.

Es wäre nice, wenn NOOBs ohne Kennung sich Ihren Comment aufsparen für andere Threads.

btw.
 
Zuletzt bearbeitet:
Mikroruckler hat es nie gegeben.
Alle Games liefen immer sofort mit doppelter Leistung.

Made my day.

Jetzt kommt gleich die Aussage das man den VRAM addieren kann.

Euch viel Spaß in dem Thread.
 
borizb schrieb:
PCIe ist für mich auch immer noch nicht so richtig greifbar. So gefühlt jedes
mal wenn PCIe ne Version hochgeht oder sich die Lanes verdoppeln, scheint
das aktuelle Grafikkarten absolut Null zu beeindrucken. Hört sich immer geil
an mit doppelter Bandbreite, aber effektives Leistungsplus geht gegen Null.

Ist halt auch immer ein Henne / Ei-Problem: Es macht wenig Sinn, Hardware zu bauen und Software zu schreiben, die letztendlich vom PCIe-Bus geflaschenhalst wird. Deswegen wird der neue Standard auch meistens erst dann richtig ausgereizt, wenn er schon bei den Käufern verbreitet ist.

Das selbe Spielchen haben wir ja jetzt auch wieder mit dem VRAM gewisser NVidia Grafikkarten gehabt: Spiele werden für die Hardware entwickelt, die vorhanden ist, und das ist seit 5 Jahren 6 bis 10 GB für alles unterhalb vom Prosumer. Diese 6 bis 10 GB werden erst dann nicht mehr ausreichen, wenn Grafikkarten mit 12 bis 16 GB einen nennenswerten Marktanteil haben.
 
Wie immer, schoene Erinnerungen heraus gekramt.

man koennte ja mal mein aktuelles System in die Vitrine stellen (P35/45/55), oder noch zu "neu"?
...wie ich grad sehe, hat ueber mir Palomino auch einen schmuckem i870 mit P55 (ich habe das AsRock P55 Extreme4), und ist auch schon 100 Jahre bei CB, sogar 1 Monat laenger als ich, GRATS ;)
Er wird im aehnlichen Alter sein... *g
 
Crossfire war stets besser als sein Ruf.
GerryB schrieb:
Microruckler sind eher ein Problem der Settings gewesen
Ja. Damals, zu DirectX 9.0c Zeiten, war Vsync on Pflicht. Einfach die Framerate auf 60fps/60Hz beschränkt, und 90 % der Mikroruckler waren weg. Die restlichen 10% war die Engine schuld.
 
  • Gefällt mir
Reaktionen: [wege]mini
wickedgonewild schrieb:
SLI ist seinerzeit völlig an mir vorbei gegangen, letztlich auch, weil mir das Geld fehlte.

Just diese Woche habe ich die 2. GTX 690 gekauft und ein Quad SLI fähiges Board. Mal schauen was draus wird und ob es überhaupt was wird. Über Sinn und Unsinn dieser Aktion braucht man freilich nicht reden.

Anhang anzeigen 1074258


Ansonsten hab ich noch eine 7950 GX2 verbaut, da funktioniert SLI aus dem Stand.

Zwei 6800 GT PCI-E liegen hier auch noch mit SLI Brücke, mangels Board konnte ich die aber bisher nie zusammen testen.

Über SLI habe ich viel Schlechtes gehört, über Crossfire aber nicht. War letzteres weniger verbreitet oder tatsächlich die bessere Option? Ein Crossfire fähiges Board habe ich hier nämlich auch noch :D.

Hey,

solche Projekte kenn' ich auch, dann mal viel Spaß beim Zusammenbauen.

CU
 
  • Gefällt mir
Reaktionen: wickedgonewild
Eine sehr geile Serie von Computerbase.

Ich warte nur noch darauf, dass mein jetziger Computeraufbau (zusammengebastelt im Jahre 2012) auch hier in der Retro-Ecke vorkommt :D
 
lowrider20 schrieb:
Genutzt wird es einfach nicht, weil es schlecht skaliert. Die meisten erhofften sich eben eine Verdoppelung der Frames bei gleicher Einstellung. Daß aber auch Daten transportiert werden müssen bzw. ein Abgleich als Overhead abgezogen werden muß, interessierte niemand. Und mit dem Thema Mikroruckler (welche ich bis heute noch nicht erkannte) wurde es ins Grab gelegt.
Wollte auch damals auf SLI setzen hatte sogar das A8N32 SLI Delux gehabt. Aber als ich mich informierte wie das alles funktioniert dachte ich erstmal hmm ob ich das wirklich mit 2x GeForce 7600gs machen will. Und als ich dann gesehen habe was maximal möglich ist mit zwei Karten und was es dann kostet. War SLI/Crossfire für mich gestorben. Außer für absolute Enthusiasten hat sich das nur selten gelohnt. Vor allem wenn man schon eine Karte hatte und die zweite dazu stecken wollte um nach 2-3 Jahren mehr Performance haben wollte. Da lohnte sich ein Upgrade auf die neue Generation.
 
Raucherdackel! schrieb:
Ja. Damals, zu DirectX 9.0c Zeiten, war Vsync on Pflicht. Einfach die Framerate auf 60fps/60Hz beschränkt, und 90 % der Mikroruckler waren weg.

60Hz-Müll kam mir schon damals nicht ins Haus. 85 Hz (oder 120 Hz und reduzierte Auflösung für Quake 3) waren angesagt. Auf dem Röhrenbildschirm hätten 60 Hz fürchterlich geflimmert, und 85 fps konnte kaum ein Spiel dauerhaft halten.

Dazu kam noch der Input Lag, so dass Vsync off in der Regel das geringere Übel war.

Zum Glück bin ich nie auf das Fake-SLI reingefallen, nur das 3Dfx-Original war gut.
 
Ich hatte 2017 ein SLI aus 2 x GTX 1070 und auch keine Probleme mit Mikrorucklern. Gerade in den Tomb Raider Teilen ist die Skalierung annähernd perfekt, wie schon jemand geschrieben hatte. Damals war mein Ryzen 1700x aber auch hier und da (Ghost Recon Wildlands) ein Flaschenhals. Naja, hatte irgendwann die zweite Karte verkauft, weil unter Luft die Temperaturen schon heftig waren. Heute und unter Wasser wünschte ich mir die Karte gerne wieder zurück.

Interessant am Thema multi GPU ist immer wieder, dass es überwiegend von Leuten madig geredet wird, die selbst nie ein solches Setup besessen und keinerlei Erfahrung haben. Das verwundert mich doch sehr, dabei macht es durchaus Spaß und sich damit zu beschäftigen erst recht. 🙂
 
  • Gefällt mir
Reaktionen: Hawk1980 und Hardy_1916
Ich hatte Anfang 2006 einen neuen PC gebaut mit Asus A8N-SLI Premium. Den PC habe ich noch. Aber schon länger nicht mehr in Nutzung.

Für SLI fehlte mir damals das Geld, und hatte auch nie SLI betrieben.
Mir war ein sehr gutes Mainboard sehr wichtig (ist es auch immer noch)
Hatte aber leider an der CPU gespart, und im ersten Jahr nur eine Single-Core CPU von AMD. Mir ist entfallen wie die CPU hieß. Damals hieß es noch, das kaum Spiele Dual Core unterstützen.

Ende 2006 dann doch auf DualCore gewechselt.
 
Buggi85 schrieb:
Die Hardware Zeit damals war viel cooler als heute. Da hatten auch die Hersteller noch mehr individuelle Möglichkeiten.
Das heute niemand mehr multi GPU nutzt liegt aber auch daran, dass die Karten nach unten hin um den NVLink beschnitten wurden. Natürlich Preise etc. spielen auch mit rein.
Ja, findest du das da mehr Freiheiten waren ? 🤔 Ich meine das die Grafikkarten sich nur an den unterschiedlichen Aufklebern vom Hersteller unterscheiden. Heute empfinde ich da mehr Vielfalt zwischen den Hersteller.
 
Bitte?
Die Gigabyte ist zwar eine Radeon X1600 Pro, aber das Gefprce Gegenstück hatte das selbe Kühlsystem:
CB Hitzewelle.JPG


Der Rest ist die 7600 GT:
IMG_20210814_194819.jpg


IMG_20211124_211139.jpg


IMG20220212233435.jpg
 
Zurück
Oben