News Im Test vor 15 Jahren: SLI und CrossFire waren auch im Jahr 2011 schrecklich

DJMadMax schrieb:
Jede andere Form des Syncings und insbesondere, wenn Framegeneration hinzukommt, fügt einen wahnsinnigen Inputlag hinzu.
Das kann ich definitiv nicht bestätigen. Gerade auch mit FG nicht – zumindest nicht bei NVidia.

Was bei NVidia nie passieren darf, ist, dass Du an das Limit der Wiederholfrequenz des Monitors stößt (mit oder ohne FG), dann hast Du entweder Tearing (ohne VSync) oder Input Lag (mit VSync), und zwar deutlich.

Und das gilt, ob man nun VRR nutzt oder nicht.

Wenn man die Framerate im Treiber(!!!! nicht im Spiel) auf eine Framerate so 10% unterhalb der max. Monitor-Frequenz begrenzt, ist man eigentlich immer save mit VRR und auch egal, ob und welche FG-Stufe man einstellt. Das Framepacing wird von NVidia immer sauber aufgeteilt, sodass der Flow smooth bleibt. Wenn die Basis-Framerate hoch genug ist, bleibt die Latenz im Rahmen und steigt auch nicht fühlbar durch FG. Eine höhere FG-Stufe hat dann tatsächlich nur einen Effekt: Sie spart mehr oder weniger Power (Stromaufnahme).
 
MalWiederIch schrieb:
Denn eine 2. Grafikkarte in 20 Sekunden dazuzustecken war selbstverständlich eher eine Budget- als eine Zeitfrage
In erster Linie ist so etwas immer eine Frage der Bedarfsanalyse und des Verwendungszwecks, leider wird aber genau das von den meisten immer wieder vergessen wenn es um irgendwelche Empfehlungen für Hardware geht.
 
Ich freue mich schon auf den Test den i7 4790k oder i7 4770k.
SLI/Crossfire habe ich nie genutzt statt 2 Grafikkarten zu nutzen kaufte ich lieber das nächst größere Modell.
Bei Grafikkarten kaufe ich inzwischen die 60er Serie und wechsel lieber alle 3-4 Jahre die Karte.
Ist günstiger als jeweils die 90er zu kaufen.
GPU wechsel bekomme ich im Gegensatz zur CPU auch noch alleine hin trotz gesundheitlicher Probleme.
Was mich störte an SLI war doppelter RAM der aber nicht genutzt werden konnte,
hätten 2 Karten auch wirklich 8 GB RAM gehabt wäre es interessant gewesen, dann der 200% Stormverbrauch und ich glaub nur im besten Fall 150-180% Leistung also 20-50% Verlust. Das machte für mich nie Sinn.

Liebe Grüße.
Ergänzung ()

coxon schrieb:
Ein Glück, habe ich diesen CF/SLi Quatsch nie mitgemacht. ^^
War mir auch immer zu teuer für 50 % Mehrleistung aber der VRAM war identisch.
 
Wenn man bedenkt, dass SLI abseits von Gaming gar keinen Mehrwert hatte, war das für die Hersteller das perfekte Upselling-Instrument. Ich glaube, über die zehn (?) Jahre, in denen SLI/CF ernsthaft beworben wurde, hat man keinen einzigen der Nachteile beheben wollen oder können.
 
  • Gefällt mir
Reaktionen: wagga
KCX schrieb:
SLI war zwar unvernünftig aber leider geil 😅 Kann mich noch erinnern, wie man die zweite Karte auch als PhysX Beschleuniger auswählen konnte.

Das geht auch heute noch, dafür brauchst du kein SLI.
Ergänzung ()

Einhörnchen schrieb:
An dieser Stelle sei an den engagierten Tombman von 3dcenter erinnert, der mit seiner Hingabe maßgeblich zur Identifikation und Messbarkeit von Microrucklern beigetragen hat: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844

RIP 🕊️
 
  • Gefällt mir
Reaktionen: KCX
KCX schrieb:
Kann mich noch erinnern, wie man die zweite Karte auch als PhysX Beschleuniger auswählen konnte.
PhysX-Beschleunigung hat nichts mit SLI zu tun, sondern ist eine komplett eigentständige Baustelle. SLI dient dazu, dass das Rendering (also die Grafik) auf zwei (oder mehr) Karten aufgeteilt und untereinander koordiert wird.

Eine "PhysX-Karte" interessiert sich aber im Grund gar nicht dafür, was die Hauptkarte macht und die Karte überhaupt aus der selben Architektur-Generation ist. Man könnte sogar eine Radeon als Hauptkarte nehmen und dann für PhysX eine kleine Nvidia-Karte dazu stecken. Zumindest, bis Nvidia das treiberseitig gesperrt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex
Zurück
Oben