News Im Test vor 15 Jahren: SLI-Premiere mit Nvidia GeForce 6600 und 6800

da_reini schrieb:
Damals hatte ich eine 6800 LE. Alle Pixel-Pipelines und Vertex Shaders mit Rivatuner freigeschaltet und übertaktet. Damit hatte ich ca das Niveau einer 6800 GT, also 50-60% schneller.

DAS war noch Overclocking :) Und nicht die 5% mehr für gefühlt 100W Mehrverbrauch.

ja, genau :). Hatte eine 6800GTO (Dell-OEM). Arctic-Kühler draufgepackt, PP-unlock und ordentlich Takt drauf, fertig war die 6800GTX.
 
  • Gefällt mir
Reaktionen: da_reini
@captain kirk, wie meinen? Ich wüsste nicht, dass es gelöst wurde. Die sekundäre Karte hatte meist derb höhere Frametimes - dadurch spielte sich alles ziemlich unrund.
Das fiel vielleicht bei 90+ FPS nicht mehr auf, aber 50 FPS spielten sich wie wackelige 30.

Mit VSync war das ganze noch übler. Zuweilen wurde der Frame der Primärkarte doppelt angezeigt während der Frame der Sekundärkarte wegen der hohen Frametimes nur einmal angezeigt wurde.
1-1-2-3-3-4-5-5 ... die gesnappten Intervalle passten nicht mehr mit der Darstellung überein.
 
aber nicht zu 3dfx Zeiten als SLI noch AFR nutzte , der Nachteil war dort die schlechtere Skalierung, aber nicht die Microruckler

Die handelte man sich erst ein ,als man mit SLI auf SFR Basis weiter machte, weil die Kunden auf längere FPS Balken scharf waren

Am Anfang von NVIDIAS SLI Lösung war das Problem nicht mal bekannt , und wurde erst durch Tombman (RIP) aus dem 3D Center , so richtig present
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor und BLACKDIAMONT
SFR war damals noch möglich weil die Shader noch viel einfacher waren und AA über einen Fullscreen-Filter erreicht wurde.

Mit modernen Unified Shadern, die auch temporal, spatial, haste-nicht-gesehen arbeiten, sind AFR und SFR lange nicht mehr so einfach umzusetzen.
 
Oh ja, damals für über 500 Ocken ne 6800 Ultra gekauft, unter Wasser gesetzt aber das Zeug war da so kurzlebig, 1 Jahr später gabs doppelt so schnelle Karten uns gleiche Geld
 
  • Gefällt mir
Reaktionen: DonGeilo33 und so_oder_so
Sehr schöner Artikel, mich hat das Thema SLI damals komplett angefixt und deshalb bin ich dann auch ins grüne Lager übergelaufen weil AMD mit CF einfach nicht in die Pötte kam.
Mein erstes SLI waren zwei 7800GTX. In 1200x1024 mit einem FX60 als CPU hatten die aber deutlich mehr prozentualen Zuwachs in DOOM 3 als 60%, ich meine mich da an über 80% erinnern zu können.
Leider schreibt ihr nicht auf welchem Unterbau die Tests damals gemacht wurden.
Mit Erscheinen der GTX580 war dann bei mir Schluss mit SLI, zu laut, zu teuer, 2 Boards bei denen der nForce-4-SLI-Chipsatz abgeraucht war.
Das Thema Mikroruckler war bei mir nie eines, entweder ich kann sie nicht wahrnehmen oder ich hatte immer genug fps, keine Ahnung.

Ob das Thema auch in Zukunft tot bleibt oder ob AMD bei den GPU so was wie bei Ryzen 3000 anschiebt? Spannend.
 
SLI hätte so alternativlos wie eine Mehrkern-CPU werden müssen. Dann hätte es sich auch im Mainstream durchgesetzt.
Aber man wollte es als exklusives Feature teurer verkaufen. Damit war das Ende schon in die Wiege gelegt.
Bei den Monitoren sieht man es ja, dass sich Freesync durchsetzt, weil sich die teurere G-Sync Technik nicht in der Breite durchsetzen kann, auch wenn sie subventioniert wird. Irgendwann gibt jeder Hersteller auf, macht, was die Konkurrenz macht, oder geht Pleite oder wird geschluckt, wenn er für seine "grandiose" Technik nur noch draufzahlt, um sie in den Markt zu drücken.
So, wie VGA, DVI und andere alte Schnittstellen, werden CF und SLI fähige Mainboards verschwinden. Nvidia kann ja bezahlen, wenn SLI weiter unterstützt werden soll. Die Mainboardhersteller und letztendlich die Kunden haben sich dafür lange genug melken lassen.
 
Auch wenn es am Anfang frickelig war und man die Profile umbenennen musste. Ich war immer ein SLI Befürworter.

Ich hatte damals so einen 1600x1200 Monitor und eine Leadtek Winfast 6800Ultra. Ich habe mir damals extra ein neues Netzteil geholt für die zweite Karte. Das war schon geil. Je nach Spiel war der Zugewinn absolut massiv.

Meine beste SLI Erfahrung hatte ich mit 2x GTX780 und (oh Wunder) 2x GTX970. Das lief gerade in Battlefield 4 absolut mega.

Die Ruckler kamen erst mit niedrigen FPS zum Vorschein. Die Karten hatten aber so viel Power, dass ich da nie hingekommen bin.
 
  • Gefällt mir
Reaktionen: Leon_FR
deo schrieb:
SLI hätte so alternativlos wie eine Mehrkern-CPU werden müssen. Dann hätte es sich auch im Mainstream durchgesetzt.
Aber man wollte es als exklusives Feature teurer verkaufen. Damit war das Ende schon in die Wiege gelegt.

das Ende war nicht die Exklusivität , sondern die nicht lösbaren Rattenschwänze, die die Techniken nach sich zogen u immer noch ziehen

Nicht mehr nicht weniger

Das eine hatte immer mit Microstutter zu kämpfen wie blöde, das andere lieferte generell ne grottige Performance von maximal 30% - 50% + pro zugeschalteter Karte

Und allen beiden Techniken zu eigen war , das es erst Profile benötigte , das die wenigen supporteten Spiele daraus einen fragwürdigen Vorteil ziehen konnten
 
Zuletzt bearbeitet:
captain kirk schrieb:
Das eine hatte immer mit Microstutter zu kämpfen wie blöde, das andere lieferte ne grottige Performance von maximal 30% - 50% +

Und allen beiden Techniken zu eigen war , das es erst Profile benötigte , das die Spiele daraus einen fragwürdigen Vorteil ziehen konnten

Framelimiter an und sich auf die MinFPS konzentrieren statt auf die AVG FPS = glatte Frametimes. Später gabs dann auch Framepacing.

Zu SLI und Crossfire Hochzeiten, war der Profilsupport sehr gut. Die Skalierung lag häufig zwischen 70% und 90%.

Das Problem bei SLI und CF war eher der Ruf. Und für den sorgte die sogenannte, teils uninformierte, Fachpresse und die Forendampfplauderer...

Dazu musste man sich schon ein wenig mit der Hardware und dem Systemaufbau beschäftigen. Installieren und fertig führte da nicht immer zum Ziel.
 
QUAD SLI :)

IMG_20190428_185811.jpg


und ja i know, die Bridge fehlt auf dem Bild
 
  • Gefällt mir
Reaktionen: Poati, Hexxxer76, ITX-Fan und 3 andere
Der Paule schrieb:
Das Problem bei SLI und CF war eher der Ruf. Und für den sorgte die sogenannte, teils uninformierte, Fachpresse und die Forendampfplauderer...
fand ich nicht , ich hatte auch viele viele Jahre Sli, triple SLI , bis hin zu Quad SLI , und wenn man ehrlich zu sich selbst war, kam man irgendwann im Reifeprozess zu dem Konsens, das es das alles nicht wert ist die Frickelei

Ich glaub @HisN kann da auch n Liedchen von singen:daumen: und Tombman sicherlich auch , wenn er noch bei uns wäre😞

da brauchte es keine außenstehenden Hater, die SLI nur verdammten , weil sie sich das nicht leisten wollten oder konnten, so wie heutzutage mit RTX/Raytracing der Fall

Der Paule schrieb:
Zu SLI und Crossfire Hochzeiten, war der Profilsupport sehr gut. Die Skalierung lag häufig zwischen 70% und 90%.

die 30%-50% waren auf AFR gemünzt , das skaliert nicht besser , 50% ist da eher schon absoluter best Case
 
Zuletzt bearbeitet:
"Vor 15 Jahren im Test konnte SLI noch teilweise überzeugen "
Kann ich nicht mal im Ansatz nachvollziehen, die Aussage. Bei idR 10% Mehrleistung gegenüber einer Einzelkarte ist das doch Humbug. Ein absolut illegitimer Wahnsinn, eine solche Anschaffung.
 
Ganz nütern betrachtet waren SLI und Crossfire von Anfang an nicht mehr als eine Technikdemo für Enthusiasten und Personen mit Drang zum Geltungskonsum.
Technisch gab es keine Argumente die Stichhaltig waren. Die Mikroruckler konnten nie beseitigt werden. Damit sie nicht auffielen, waren 60+ fps nötig, aber dann hatte eine einzelne Highend-Karte oft auch 40+ fps und war flott genug. Das Koppeln von Mittelklasse-Karten war sowieso völlig sinnlos. Fürs gleiche Geld gab es unkompliziert bessere Performance vom Top-Modell.
Auch skalierten nur wenige Games ordentlich. Bei einem fps-Zuwachs von 20-30% konnte gerade die Mikrorucklerproblematik behoben werden. +50% fps war die Ausnahme, oft war die Performance mit SLI sogar geringer als mit einer einzelnen Karte. Dazu musste ständig mit Profilen hantiert werden.
Und ein Jahr später war auch ein High-End-SLI-Gespann performance-technisch nur noch zweite Riege, aber die technischen Probleme blieben. Dazu der exorbitante Stromverbrauch und die resultierende Lautstärke.
Das Geld für SLI hat man lieber ein Jahr später für die nächste Generation aufgespart.
 
Ich verstehe das Gebashe gegen SLI nicht. Es hat damals sehr wohl funktioniert und es war und ist leider bis heute die EINZIGE Technologe, mit der man benötige Grafikleistung skalieren kann. Ich war auch ab 7800 GTX bis zur GTX 580 sogar im Triple mit dabei. Hintergrund war einmal 3D Vision und später ein 30" mit 2560x1600, das man mit einer Single-Karte gar nicht ausreichend befeuern konnte. Für 3D Vision und höhe Auflösungen war SLI meiner Meinung nach ein Segen. Aber es war laut und erforderte fette Netzteile, und später kam das durch Tombman entdeckte Mikroruckeln dazu, seit der GTX 980 verzichte ich auch wieder auf SLI. Ganz einfach auch deshalb weil mir heute die übliche Leistung fast immer ausreicht.

Problematisch wirds wieder für Leute, die mit 240 oder mehr FPS spielen wollen, siehe auch die Ankündigung des 280 Hz Monitors. Ich finde es ehrlich gesagt schade, daß SLI nicht mehr entsprechend weiterentwickelt wird, oder wenigstens eine Alternative kommt. Für BigData und DeepLearning, Videobearbeitung und Rendering bleibt SLI dennoch erhalten, anders kann man gar nicht GPU-Leistungs skalieren.

Update: Es gibt Neuigkeiten um NVLink
https://www.tweaktown.com/news/6890...dering-appears-new-geforce-drivers/index.html
Und es gibt sogar schon einen CFR Test vom Blaire aus dem 3D-Center
https://www.3dcenter.org/news/nvidia-wiederbelebt-multigpu-rendering-mittels-neuem-cfr-modus
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0
Ich hätte SLI wieder gerne für VR Brillen. Jede Karte für ein Display / Auge. Bei der Reverb reicht noch nicht mal meine 2080Ti.
Für „normales“ Gaming würde ich auch kein SLI mehr benutzen. Hatte davor jede Generation SLI, bis ich bei GTX980 damit aufgehört habe.
 
Es wäre interessant, so ein altes SLI- oder CF-Gespann mal gründlich mit modernen Methoden zu testen, besonders was die Frametimes angeht. Unoptimiertes Dual-GPU in Kombination mit knappem Videospeicher dürfte für ziemlich extreme Ergebnisse sorgen. :evillol:

Und dann gab es ja eine Zeit lang noch Versuche von Nvidia und AMD mit unsymetrischem Multi-GPU, wo z.B. Chipsatzgrafik und eine wesentlich schnellere dedizierte Grafikkarte zusammen gearbeitet haben.
Spätestens mit so einem Gespann ist es auch damals ohne Frametime-Messungen jedem sofort aufgefallen, warum as keine gute Idee war und deshalb schnell wieder vom Markt verschwunden ist.
 
Die Spiele die ich spielte skalierten wirklich gut mit SLI bzw. Crossfire und ich hatte immer Spaß an den Systemen, ob jetzt mit 2 Karten oder mit einer Dual.
 
  • Gefällt mir
Reaktionen: PHuV
Zurück
Oben