Bericht 15 Jahre Nvidia SLI: Von der großen Bühne in die Abstellkammer

Alle wichtigen Spiele zu der Zeit konnten glide. Die Riva Dinger habe ich lange weg gelassen. Gerade die ersten Riva 128 und zx etc sahen bei UT etc kein Licht. Irgendwann gab es mal ne Riva TNT aber glücklich war ich nicht damit. Flog wieder raus. Als dann 3dfx platt war und die Treiber nicht besser wurden habe ich dann zwangsweise gewechselt.
 
Jup bezüglich Multi-GPU Chiplet Design - fragt doch mal bei AMD nach eine Interview an...
Das verschieben in diese Ebene hätte auch den Vorteil das keine Profile etc. benötigt werden würden. Das müsste alles der Treiber bereits liefern...
 
Ich finde es extrem schade habe auch gern MGPU genutzt angefangen habe ich mit der GTX580 im SLI bis hin zu einem versuch mit 4*HD7970 welches eigentlich nur mit BF3 damals ordentlich lief sonst leider mangels Unterstützung ehr schlecht lief.
Aktuell fahre ich eine 2080 Ti nach dem ich nach etwas Vaterschaftspause raus war und mein Kumpel immer häufiger über sein TitanX SLI Setup motze weil immer mehr Titel kein SLI mehr unterstützen viel dann die Wahl einfach auf die Leistungsfähigsten Karte am Markt da man in 4K kaum eine Wahl hatte.
Würde SLI und Crossfire heute noch voll unterstützt werden hätte ich mich auf Grund der 16GB für 2 Radeon 7 entschieden 2*Titan 24GB wären mir da viel zu teuer gewesen und die 11GB einer 2080Ti einfach zu wenig auf längere Sicht.
Ich habe bei CF und SLI immer einen FPS limiter genutzt für die jeweilige Monitor frequenz und es immer so eingestellt das ich nahe zu nie(59)FPS unter die Frequenz gekommen bin von den FPS Sprich zum Beispiel 4 K 60HZ 59 FPS so lief das immer tuti frame verlauf Anzeige zeig nahe 0 Aufschläge so hab ich es auch mit einer Karte konfiguriert da ich aktuell auf einem AF8 Oled spiele under kein freesync oder Vs Gsync hat.
Da ich die Single-player nun seit SLI CF eh mit Controller zocke habe ich da keine Probleme mit microrucklern für mich wahrgenommen.
So ein FPS limiter senkt den Stromverbrauch auch immens so das ich auch hier nicht meckern könnte.
Der Bildablauf war mit gefixten FPS auf 59 immer besser als der einer Single Karte bei um die 40-50FPS.
 
Zuletzt bearbeitet:
robosaurus schrieb:
Ich hatte damals 2 Voodoo 2 12MB, 2 Geforce 8600gt, 2 Radeon HD4850 und 2 Radeon HD 7770. Die Voodoos liefen am besten. Alles andere war besten Falls ein netter Spass.
Ich kann das nur bestätigen. Nach meinem Voodoo2-SLI-Gespann habe ich ebenfalls mit der 8000er Serie wieder mit Multi-GPU-Systemen experimentiert. Bei mir waren es zwei 8800 GTS 320, danach zwei 9600 GT, danach zwei 9800 GTX+. Wie du schon sagtest, das waren alles nette Spielereien und natürlich hat man - besonders damals - in dafür optimierten Spielen noch massiven Leistungszuwachs von teilweise nahezu 100% erreichen können. Wohl vor allem auch deswegen, weil das CPU-Limit bei entsprechendem Prozessor und Übertaktung noch weit in der Ferne lag. Dennoch War das alles mit den Voodoo2-Karten unproblematischer und hier mussten, aufgrund des grundlegend anderen Verfahrens der "Rechenverteilung" der zwei Grafikkarten auch keine Treiberanpassungen vorgenommenwerden. Eine Grafikkarte rechnet die geradezahligen horizontalen Linien, die andere Grafikkarte rechnet die ungeraden horizontalen Linien -> Scanline Interleaving.

Hinzu kommt noch eine große Sache, die es so meines Wissens bei späteren Multi-GPU-Systemen nicht mehr gab: die Auflösung konnte auch MIT aktiviertem Z-Buffer auf für damalige Verhältnisse in Spielen wahnwitzige 1024x768 geschraubt werden.

[wege]mini schrieb:
vergessen wir mal nicht den preis....
Ja, du hast recht, die Voodoo2-Karten, vor Allem mit 12 MB Vollausbau, waren anfangs sehr teuer. Ich erinnere mich noch, dass ich meine erste Creative Labs Voodoo2 12 MB für irrwitzige 570 DM gekauft habe - also kurz nach ihrer Vorstellung. Die zweite folgte jedoch nur wenige Monate später für ca. 250 DM, noch lange, bevor das Ende von 3Dfx abzusehen war.

Du hast aber auch wirklich Leistung pur bekommen. Das ist nicht wie heute, wo man für eine neue Grafikkartengeneration ohne große Sprünge der Technik wieder 600-800 Euro auf den Tisch legen darf, wenn man ganz oben mitspielen will (oder gar noch mehr wie aktuell für die 2080 Ti). Als die Voodoo1 damals auf den Markt kam, war der Impact noch um ein Vielfaches größer, als er es beispielsweise bei der 8800 GTX oder der GTX 1080 war. Einen solchen Leistungsanwuchs in nur einem einzelnen Generationswechsel gab es eigentlich nie wieder. Von ehemals ruckeligem 2D-Pixelbrei spielte man plötzlich in 640x480 (damals gängige Auflösung in Spielen) mit geschmeidigen 60, 70, 80 - ja teilweise sogar über 100 FPS in den ersten 3Dfx-unterstützenden Spielen. Die Voodoo2 ermöglichte dann bereits flüssiges Spielen aller (wirklich aller) damals auf dem Markt befindlichen 3D-Spiele auf 800x600, selbst mit der Direct3D-Schnittstelle und natürlich auf höchsten Detaileinstellungen. So etwas gab es seither nicht mehr. Selbst eine 2080 Ti streckt die Segel, wenn sie auf der heute "gängigen" 4K High-End-Auflösung aktuelle Spiele auf maximalen Details mit zusätzlichem AntiAliasing in 60 FPS spielen soll.

Was viele sowohl damals, als auch heute noch nicht wahrhaben woll(t)en: zwei Voodoo2 12 MB im SLI waren in gleichen Einstellungen immer schneller, als eine Voodoo3 3000 bzw. 3500, bzw. TNT, bzw. TNT2 - vorausgesetzt, das Spiel nutzte nicht Direct3D, sondern die 3Dfx-eigene Glide-API. In Direct3D (also z.B. Half Life) war eine TNT2 (Ultra) dann etwa 10%-20% schneller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666
Ich hoffe das war jetzt nicht der "Vor 15 Jahren Artikel" für heute. Vermisse den schon. :D
zum Thema Mikroruckler:
Ich hatte kein Spiel bei dem ich unter 50-60 FPS kam, schon gar nicht die ominösen 30 FPS. Daher hat das wohl eher die Setups aus kleinen Karten betroffen. ...
 
Btw @RYZ3N
Evtl solltest du noch was erwähnen über nVidia FCAT. Das wurde schliesslich entwickelt um FPS/Framtimes zu messen so wie sie auf dem Bildschirm ankommen und nicht so wie sie aus gesendet werden. Also perfekt um Mikroruckler festzustellen.

revan. schrieb:
Und ach ja, es war lange Zeit auch so das der Stromverbrauch selbst im Idle doch recht hoch war je nachdem wie viele Monitore man dran gehängt hat. Wurde zwar besser später mit den Taktraten.
Könnte man auch noch erwähnen, wann amd ZeroCore (hiess es glaub's?) Eingeführt hat das die zweite Graka in den Standby modus versetzt wo sie so gut wie kein Strom verbraucht.
 
  • Gefällt mir
Reaktionen: revan.
Ich hab hier noch ein Notebook herumstehen mit SLI Gt755 Gespann :D Was ein Fehlkauf, aber damals war ich halt nicht so gut informiert über die Thematik..

Müsste das IdeaPad Y510p sein wenn ich mich recht erinnere, heiß wie eine Herdplatte und zu schwach für Dead by Daylight :D
 
DJMadMax schrieb:
Du hast aber auch wirklich Leistung pur bekommen. Das ist nicht wie heute, wo man für eine neue Grafikkartengeneration ohne große Sprünge der Technik wieder 600-800 Euro auf den Tisch legen darf, wenn man ganz oben mitspielen will
..
Als die Voodoo1 damals auf den Markt kam, war der Impact noch um ein Vielfaches größer, als er es beispielsweise bei der 8800 GTX oder der GTX 1080 war. Einen solchen Leistungsanwuchs in nur einem einzelnen Generationswechsel gab es eigentlich nie wieder

Wenn du es etwas genauer nimmst, hast du den selben Effekt heute mit Raytracing. Ist halt Softwarerendering gegen Hardwarerendering.
795517
 
@xexex
Ich verstehe durchaus was du meinst, aber glaub mir: das ist kein Vergleich.

Heute stellst du z.B. Battlefield 5 im Splitscreen hin, links mit, rechts ohne Raytracing und du denkst dir "Hey, die Reflektionen sind schon krass - für 20% weniger Performance kann man das in Kauf nehmen".

Als die erste Voodoo-Karte auf dem Markt erhältlich war, sah das eher so aus:
795532


Es brauchte schon einen damals relativ potenten PC, um Quake im Software-Modus auf 30 FPS zu spielen, selbst in einer solch niedrigen Auflösung wie 320x200 (DooM 1+2-Auflösung).

Eine Voodoo-Karte in den PC gesteckt, die Glide-API für Quake installiert und schon sah das ganze wie rechts aus - mehr als die vierfache Auflösung, 256x (!) so viele Farben, bessere Lichteffekte (alles noch in den Kinderschuhen), mindestens gleiche Performance.

Früher ist dir die Kinnlade runtergekippt und du hattest dich gefühlt, wie in einer Zeitreise-Episode in Star Trek. Ist das bei der jetzt aktuellen Raytracing-Geschichte auch so? Ich weiß nicht, mir kommt es jedenfalls nicht so vor und ich hab beides miterlebt.
 
  • Gefällt mir
Reaktionen: Bright0001, Bob1337, wickedgonewild und 6 andere
whiskascat schrieb:
Zum Glück habe ich mir die Benchmarks angeschaut, bevor ich eine zweite GTX 1080ti bestellt habe.

Zwei GTX 1080ti (SLI ) sind bei UHD entweder langsamer als eine GTX 1080ti,
oder bringen nur sehr wenig Leistung, weil die meisten Spiele SLI nicht unterstützen.

Ich denke die gleiche Geschichte wird man auch bei zwei RTX 2080ti sehen.
Für mich ist wichtig 60 FPS bei 3840x2160 mit V-sync stabil zu halten



Sowas sagen eben Leute die keine Ahnung haben.

1. Sieht man das ja schon am Setup, 8700 K ....
2. Ist bei Spielen wie z.B. Shadow of Tombraider, BF 5, Ghost Recon etc. dort wo ein SLI skaliert immer schneller als eine Grafikkarte und wenn es nicht skaliert bzw. nicht funktioniert dann eben so schnell wie eine Grafikkarte.


Nachtrag zm Thema Mikroruckler;

Mikrorucker hat übrigens jede Grafikkarte, denn keine Grafikkarte hat eine konstante Framerate oder besser gemessen in Zeit pro Bildberechnung. Beim SLI ist diese Abweichung von Minima und Maxima zwar etwas größer, wir reden hier aber von eine Delta-Zeit innerhalb von 10 Millisekunden und das kann man als Mensch gar nicht wahrnehmen. Schlimmer wird es bei einem SLI natürlich im Low FPS Bereich < 60. Ab dann sind es teilweise 30 - 40 Millisekunden. Aber im Low FPS Bereich kann man diese auch schon bei einer einzelnen Grafikkarte wahrnemen.
Darum gilt die Devise: 60 FPS mit einem Limiter, dann ist das Thema Mikrorucker < 15 Millisekunden, Geschichte. 40 FPS fühlen sich auch mit nur einer Graffikkarte alles andere als flüssig an.

Wie so oft das Problem sitzt immer vor dem Bildschirm und nicht dahinter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaniLt, Haldi und Cr@zed^
Ich hatte SLI eigentlich immer ignoriert. Aber angesichts der Grafikkartenpreise der aktuellen Generation hab ich mal einen Blick auf den Gebrauchtmarkt geworfen und mir eine zweite GTX 970 geholt - Ich dachte mir warum nicht mal ausprobieren. War eine günstige Option (120 Euro) potentiell ein wenig mehr Leistung zu bekommen und da mal reinzuschnuppern.

Ich persönlich muss sagen: Ich war sehr skeptisch, aber es hat sich für mich durchaus gelohnt! Viele Spiele die gerade so flüssig liefen (oder grade so nicht) laufen jetzt deutlich besser. Mit Mikrorucklern hab ich eigentlich so gut wie garnicht zu kämpfen. Ich bin tatsächlich positiv überrasch und werde das Setup mindestens bis zur nächsten Generation weiter betreiben.

Aufgrund der hohen Kosten bei neuer Hardware find ich das jetzt als Neukauf eher uninteressant. Aber als "Lebensverlängernde Maßnahme" hat sich im Moment absolut gelohnt. Ich bin froh das ausporbiert zu haben.

Das erste mal wars aber eigentlich tatsächlich nicht, ich hatte vor vielen Jahren mal fast geschenkt eine 7950GX2 bekommen und hatte die mal kurz angetestet - furchtbar. Laut, heiß und so richtig gut hat das mit SLI nicht geklappt.

Naja, ich fänds ok, wenns das weiterhin gibt, die Idee finde ich durchaus interessant und für eine zweite Karte später, wenn man die günstig gebraucht bekommt ists eigentlich nett.
 
  • Gefällt mir
Reaktionen: Cr@zed^
ich hab nochne 660ti und ne 960 im keller. wär doch schön wenn man die noch im 2 slot ( es gibt ja gar keine mainboards mehr mit nur einem pci-express ) und die irgendwas machen könnte. vielleicht nicht in spielen, aber
rendern etc etc etc. und ich denke wenn die sich mehr mühe geben würden, würde auch ein sli verbund mit 2 verschiedenen grafikkarten ohne mikroruckler funktionieren.
 
DJMadMax schrieb:
Als die erste Voodoo-Karte auf dem Markt erhältlich war, sah das eher so aus:

So einen "tollen" Vergleich kann ich dir auch verlinken.

DJMadMax schrieb:
Früher ist dir die Kinnlade runtergekippt und du hattest dich gefühlt, wie in einer Zeitreise-Episode in Star Trek.

Das dir das heute nicht mehr passiert, liegt nicht daran, dass RT nicht einen riesigen Unterschied ausmacht, sondern weil 3D Spiele auch ohne Raytracing heute eine sehr gute Qualität bieten. Der Unterschied zwischen damaligen CPU "gerenderten" Spielen und den durch 3Dfx beschleunigten ist trotzdem nicht wirklich grösser.

Mir ist die Kinnlade früher auch heruntergeklappt, als ich die ersten Amiga Raytracing Bilder gesehen hab, heute kann ich bei sowas trotzdem nur müde lächeln, obwohl sowas nun mittlerweile in Echtzeit möglich ist.
795577


Aber darum ging es bei meiner Aussage auch nicht, sondern um die Tatsache, dass mit den RTX Karten nun gut 10x so viel Leistung für Raytracing zur Verfügung steht wie bisher und das dürfte irgendwo in dem Bereich liegen, die durch die 3Dfx Karten plötzlich für 3D zur Verfügung stand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
Ist Crossfire eigentlich genauso tot wie SLI?

Hab meinem Bruder meine alte R9 380 4GB gegeben, der hat nun 2x R9 380 4GB im CF und erfreut sich an fast doppelten FPS in Tomb Raider und Nier: Automata.
 
wuselsurfer schrieb:
Hätte man mal lieber das SLI von 3DFX verwandt.
Da gab es keine Mikroruckler.

Das konnte nur funktionieren, solange es noch keine Geometrieprozessoren und keine Pixelshader gab. Die CPU hat die Geometrie berechnet, und beide Voodoo2-Karten konnten völlig unabhängig voneinander je ein Bild mit geraden und eins mit ungeraden Zeilen berechnen, und hinterher beide zusammensetzen.

Heutzutage berechnet die GPU die Geometrie, und diese Arbeit ist nicht so einfach aufzuteilen. Außerdem brauchen beide GPUs hinterher alle Geometriedaten, so dass erst hin- und herkopiert werden müsste. Dazu gibt es noch jede Menge Shadereffekte, die während der Berechnung Zugriff auf das gesamte Bild haben müssen, und nicht nur auf die Hälfte der Zeilen.

Herdware schrieb:
Früher war man glücklich, wenn man halbwegs spielbare Frameraten erreicht hat. Framerate-Einbrüche (z.B. durch V-Sync), Nachladeruckler (zu kanppes VRAM) usw. gabs eh immer.

Heutzutage sind uns Gamern längst selbst stabile 60FPS nicht mehr genug, kleinste Ruckler werden nicht toleriert und mit FreeSync/G-Sync bekämpft, die Grafikkarte muss außerdem flüsterleise sein usw.

Das ganze hat mich schon zu Voodoo-Zeiten genervt, weil ich es schon vom C64 besser kannte. Bei 2D-Shootern sind die Frametimes sehr viel vorhersehbarer, deshalb liefen diese Spiele üblicherweise mit stabilen 50/60 fps (PAL/NTSC) und Vsync.

Seit der Voodoo 2 waren 60 fps zwar zu erreichen, aber nie dauerhaft zu halten, weil die nötigen Einbußen bei der Bildqualität zu groß waren. Als Alternativen gab es nur Tearing, oder Stolpern bei Vsync und fps<Hz.

Später verschärfte sich das Problem sogar, weil die tollen neuen Flachbildschirme die röhrenüblichen 85+ Hz nicht mehr annahmen. Und bei 60 Hz sieht Tearing deutlich schlimmer aus. Dazu häuften sich schlampig programmierte Spiele, bei denen Vsync völlig unbrauchbar war (schlagartige 30/60 fps-Wechsel). Das fiel zu Voodoo-Zeiten zumindest nicht auf, weil man im 3Dfx-Treiber Triple Buffering einfach global erzwingen konnte.

Meinen Röhrenmonitor hat erst der Samsung 2233RZ (120 Hz) abgelöst, und mit G-Sync hatte ich noch später endlich die alte C64-Qualität wieder zurück.
 
xexex schrieb:
So einen "tollen" Vergleich kann ich dir auch verlinken.



Das dir das heute nicht mehr passiert, liegt nicht daran, dass RT nicht einen riesigen Unterschied ausmacht, sondern weil 3D Spiele auch ohne Raytracing heute eine sehr gute Qualität bieten. Der Unterschied zwischen damaligen CPU "gerenderten" Spielen und den durch 3Dfx beschleunigten ist trotzdem nicht wirklich grösser.

Mir ist die Kinnlade früher auch heruntergeklappt, als ich die ersten Amiga Raytracing Bilder gesehen hab, heute kann ich bei sowas trotzdem nur müde lächeln, obwohl sowas nun mittlerweile in Echtzeit möglich ist.
Anhang anzeigen 795577

Aber darum ging es bei meiner Aussage auch nicht, sondern um die Tatsache, dass mit den RTX Karten nun gut 10x so viel Leistung für Raytracing zur Verfügung steht wie bisher und das dürfte irgendwo in dem Bereich liegen, die durch die 3Dfx Karten plötzlich für 3D zur Verfügung stand.

Bist du Wissenschaftler oder Ingenieur und trägst hier von einem Podium aus für irgendwelche Investoren trockene Zahlen vor?

Unterm Strich geht's doch einzig und allein nur darum, was ich am Ende auf dem Bildschirm betrachten kann und nicht darum, was vielleicht möglich wäre, wenn alle Planeten des Sonnensystems in einer Reihe stehen und die Tage plötzlich rückwärts laufen.

Fakt ist und bleibt: Voodoo hatte seinen Namen zurecht! Da wurde etwas auf den Bildschirm "gezaubert", was man als Nutzer (und auch vielerorts als Entwickler, nVidia hat's mit der NV1 ja auch nicht geschafft) zu dieser Zeit niemals für möglich gehalten hätte.

Was RTX mit Mod-Support für Quake 2 angeht? Was die zwar hübsche, aber nicht bahnbrechende Implementierung in neueren Spielen wie z.B. Battlefield 5 angeht? Ich finds ganz nett, aber ein solch bombastischer Sprung verbirgt sich da für mich als Endverbraucher nicht.

Das ist wie mit den ganzen aktuellen VR-Headsets. Es ist schön, dass Schritt für Schritt die Auflösung angehoben wird (wobei wiederum die aktuellen Grafikkarten einfach nicht leistungsfähig genug dafür sind - auch eine 2080ti nicht). Aber von solch einem Sprung, dass man keine Pixel mehr erkennt (so, wie es bei Handydisplays schon seit Jahren der Fall ist), sind wir einfach meilenweit entfernt.

Versteh mich bitte nicht falsch, ich will dir deinen eventuell vorhandenen Spaß am Raytracing nicht vermiesen, aber mich holt der Zug an dieser Station einfach nicht ab und man muss auch auf dem Boden der Tatsachen bleiben - die Entwicklung geht mit der Zeit, aber hier wurde nichts Bahnbrechendes erreicht.
 
  • Gefällt mir
Reaktionen: wolve666
xexex schrieb:
Aber darum ging es bei meiner Aussage auch nicht, sondern um die Tatsache, dass mit den RTX Karten nun gut 10x so viel Leistung für Raytracing zur Verfügung steht wie bisher und das dürfte irgendwo in dem Bereich liegen, die durch die 3Dfx Karten plötzlich für 3D zur Verfügung stand.

10x Leistung ist aber sehr sportlich ausgedrückt.
Waren es real nicht knapp 1,5 - 4 fache Leistung bei 1080ti vs 2080ti in den 3 Games mit RT wobei Metro am meisten profitierte.

@DJMadMax
Weiß auch noch wie man bei manchen Spielen 3dfx Glide aktivierte und einem die Augen bald aus dem Kopp gefallen sind :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax und SVΞN
konkretor schrieb:
Ich schau immer mal wieder in den Karton wo ich meine 2 3dfx Voodoo2 Karten eingelagert habe ob sie auch noch da sind.


UT /Quake etc sahen einfach nur bombastisch damit aus und liefen rund :-)
Da gabs keine Micro Ruckler, das lief sauber.

Das andere geschlonze von ATI und NVIDIA hab ich aus gelassen

Ich bin so bei Dir....
 
  • Gefällt mir
Reaktionen: konkretor
Quake? - Ich sage nur Rendition Vérité, Schade dass die nicht weitermachen konnten :(
QDI_V2200.jpg
 
  • Gefällt mir
Reaktionen: SVΞN und konkretor
Ohja im Retro Bilder Thread habe ich auch eine von denen schon gepostet. War nen Spannender Chip. Leider fand er wenig Beachtung
 
  • Gefällt mir
Reaktionen: SVΞN und Cr@zed^
Zurück
Oben