News Sieben Jahre Nvidia SLI

Ich finde schon, dass Electric Steam in gewisser Weise Recht hat. Irgendwo muss die ganze Leistung ja auch hin, wenn man nicht grad drei Monitore hat. Fairerweise muss man aber auch sagen, dass es praktisch keine DX10/11 SGSSAA-Bits gibt.

Das Umbenennen der Exe bei CF empfand ich persönlich schon immer als eine "schmutzige" Lösung. War/ist es nicht auch so, dass das mit Steam bzw. manchem Kopierschutz Probleme bereiten kann?
 
7 Jahre und immernoch die gleichen Fehler und Bugs bravo Nvidia, respekt ^^

Wieso nur Nvidia? ATI hat genau die gleichen Fehler gehabt und haben Sie immer noch. Einfach Nvidia schlächt reden, was ? :D
 
@boxleitnerb

ja dem ist leider(teilweise) wohl noch so.

Das Profilproblem hat sich mir allerdings noch nicht in dem Maße so gestellt, da ich kein "Release Day" Käufer bin. Viel zu teuer :p

AMD hat aber die CF Profile vom Treiber separiert, womit die Profile recht zügig nachgeliefert werden.

Edit und ja: AMD Karten können kein SGSSAA under DirectX 10/11. Das hat mit Multi-GPU allerdings nur bedingt zu tun.

Viele Grüße
 
Zuletzt bearbeitet:
Ich muss leider auch sagen das hier ne Menge Blödsinn erzählt wird.
SLI und Crossfire sind vom technischen Stand etwa gleich auf. Die Techniken sind bereits sehr ausgereift. Wer von Fehlern in der Technik spricht hat sich mit dem Funktionsprinzip wohl nie befasst...

Seitdem ich selbst bereits SLI und Crossfire getestet habe bin ich aber trotzdem eher abgeneigt. Das Problem ist einfach das beides nur mit Unterstützung des Treibers funktioniert. Zumindest früher kamen die entsprechenden Updates dort aber oftmals erst Tage nach dem Spielrelease :( So hat man dann also immer nur eine GPU zur Verfügung und muss im Spiel eventuell die Grafik herunterstellen oder bekommt Ruckler.
Heutzutage bemühen sich die Hersteller mehr die Multi-GPU Unterstützung so schnell wie möglich bereitzustellen, aber trotzdem würde ich eine Single-GPU Lösung immer vorziehen wenn sich nicht gerade ein super Angebot auftut oder man halt einfach genug Geld übrig hat.
 
Soll man da Glückwunsch sagen oder eher doch das es eine Peinlichkeit ist.
Denn leider hat nvidia es nicht geschafft die SLI Technology seitens 3DFx für Ihre Karten umzusetzen. Wie auch... die Technik ist halt eine andere. Microruckler etc. habs beim realen SLI nicht.

3DFx SLI = Scan-Line Interleave
nVidia SLI = Scalable Link Interface

Klingt zwar komisch ist aber so...

Warum das nvidia nicht ändern will, ist mir schleierhaft...
 
GaBBa-Gandalf schrieb:
Soll man da Glückwunsch sagen oder eher doch das es eine Peinlichkeit ist.
Denn leider hat nvidia es nicht geschafft die SLI Technology seitens 3DFx für Ihre Karten umzusetzen. Wie auch... die Technik ist halt eine andere. Microruckler etc. habs beim realen SLI nicht.

3DFx SLI = Scan-Line Interleave
nVidia SLI = Scalable Link Interface

Klingt zwar komisch ist aber so...

Tatsächlich, dafür gibt es heute Postprocessing, was mit der 3dfx Technik nicht so ohne weiteres machbar gewesen wäre. Und genau DAS dürfte der Grund sein, warum sie das nicht ändern.

Zum Thema MR habe ich schon oft genug was geschrieben.

Viele Grüße
 
Zuletzt bearbeitet:
Naja Probleme sind nicht wirklich weg, aber es hat sich schon einiges Verbesser was Mirkroruckler angeht ect. Genutzt wird es ja trotzdem auch wenn es wenige sind. Aber die Umfragen zeigen es, so wie von Herstellern von Software bei Präsentation oder andren Test ect.
 
marcelino1703 schrieb:
Wieso nur Nvidia? ATI hat genau die gleichen Fehler gehabt und haben Sie immer noch. Einfach Nvidia schlächt reden, was ? :D

dann korrigiere ich halt ^^, zwei Hersteller mit nahezu der gleichen Technik und beide hinken auf dem Stand von vor 7 Jahren und wenn mir jetzt einer kommt und sagt dass es eig. gut wäre dann soll er sich mal das SLI von den Voodo Karten anschauen, die skalieren ersten besser und haben keine Mikroruckler, dafür dass diese Technik noch ein paar Jahre älter als Nvidias SLI ist sollte man sich ernsthaft an den Kopf fassen und gedanken machen, warum Technik wie es sie vor 10 Jahren gab besser arbeitet als die von Heute :rolleyes:
 
aivazi schrieb:
dann korrigiere ich halt ^^, zwei Hersteller mit nahezu der gleichen Technik und beide hinken auf dem Stand von vor 7 Jahren und wenn mir jetzt einer kommt und sagt dass es eig. gut wäre dann soll er sich mal das SLI von den Voodo Karten anschauen, die skalieren ersten besser und haben keine Mikroruckler, dafür dass diese Technik noch ein paar Jahre älter als Nvidias SLI ist sollte man sich ernsthaft an den Kopf fassen und gedanken machen, warum Technik wie es sie vor 10 Jahren gab besser arbeitet als die von Heute :rolleyes:

Von wegen an den Kopf fassen und so ...:o
 
laryllan, Dich scheint das Thema sehr "redebedürftig" zu machen :)

Schreib zu dieser Thematik doch mal ein schönen Bericht...

Würden sich bestimmt einige (inkl. mir) freuen ;)
 
Was alle immer mit Mikrorucklern haben. Ich habe weder bei SLI bisher, noch bei CF auch nur irgendeine Art von irgendwelchen Mikrorucklern feststellen können. Selbst in angeblichen Beweisvideos, wo es ach so doll zu sehen sein soll, nicht.
 
@GaBBa-Gandalf

Nein, mir gehen nur Leute auf den Keks die eine "Technik" beurteilen wollen, die sie nicht verstehen. Wenn ich nicht weiß wovon ich schreibe, prahle ich damit nicht auch noch herum (das sollte sich eigentlich von selbst verstehen, aber nö) ;)

Und da ich grad ein wenig Zeit hab, geb ich meinen Unmut eben kund. :cool_alt:

@Gabbermafia: Doch es gibt sie, selbst im sehr hohen Framebereich sind sie messbar (dort allerdings meist nicht wahrnehmbar) und genauso wie sie da sind, lassen sie sich eliminieren.

Viele Grüße
 
Zuletzt bearbeitet:
Ich hatte sowohl CF als auch SLI und ich muss sagen meine nächstes Graka Update wird mit Sicherheit Single GPU werden. Die Leistung ist gut, MR sehe ich sehr sehr selten

ABER die Treiber sind nach wie vor schlecht. Ich kaufe mir Spiele gern am Release Day und das ist als MGPU User richtig anstregend. Die meiste Zeit funktionierts einfach nicht richtig und man muss Tage bzw. Wochen (gibts schon ein neues Profil für The Witcher 2?) warten um wirklich etwas davon zu haben.
 
Das stimmt. Aktuelles Beispiel: Crysis 2. Der Nanovision SLI Flackerbug ist erst mit Patch 1.9 gefixt. Vorher sehr unschön.

Was die Mikroruckler angeht, hätte ich mal gerne einen ausführlichen Test. CB hat das mal in einen Artikel aufgenommen, aber das waren imo zu wenig Spiele, um wirklich eine allgemeingültigere Aussage treffen zu können, wer denn da nun die Nase vorn hat (rein von den Frametimes her).

Was mir immer im Gedächtnis bleiben wird ist die Aussage Nvidias, man habe einen Puffer in den Treiber eingebaut, als man nach den MR fragte in einem Interview. AMD hat auf dieselbe Frage (irgendein Interview bei PCGH, glaub der Themenabend) 08/15 Floskeln gebracht, Marketinggewäsch vom Feinsten. Klar, rein subjektiv und man kann nicht wirklich was davon ableiten, aber interessant fand ich es shcon.
 
7 Jahre Bildfehler in den Schatten
7 Jahre warten auf den nächsten Treiber mit funktionierendem SLI-Profil
7 Jahre Flackern bei neuen Anwendungen
7 Jahre die gleiche Diskussion in den Foren ob sich SLI lohnt
7 Jahre "es gibt keine Probleme mit SLI" von den Usern

:-)

Ich hab auch 3 gescheiterte Anläufe hinter mir. Ich finde die Probleme immer^^

Ein Glück gibt es User die sich damit beschäftigen und Lösungen bereitstellen. Sei es in Form von SLI-Bits oder den Link zu einem Frame-Limiter.

Plug and Play war es allerdings nie, und wird es wahrscheinlich auch nie werden. Wer gerne bastelt soll glücklich damit werden :-)
 
Zuletzt bearbeitet:
Wie auch immer...
Happy Birthday SLI :)
 
ABER: Die Wirkung eines SLI Gespanns auf den E-Penis von den meisten Nutzern ist aber unumstritten.
Oder wenn einige mit ihren ACH SO TOLLEN 3D Mark Benches sich ein 2. Loch in den A*sch freuen...

Oh...da bin ich wohl etwas ausfallend geworden.

Aber mal so nebenbei, es gibt ne Menge Leute die Spass mit ihrem SLI/Crossfire haben, wenn die Profile vernünftig im Treiber eingepflegt werden, ist das keine schlechte Sache....für Auflösungen um 2K.....

Nicht zu vergessen die CPU die auch ordentlich dimensioniert sein muss für sowas ;-)
 
Wers braucht, sowohl der Stromverbrauch als auch die Bugs lassen mich seit jeher zurueckschrecken, allerdings gibt es fuer mich bei einem Spiel auch nichts unwichtigeres als die Grafik.
 
Zurück
Oben