News Multi-GPU: Nvidia entwickelt ab 2021 keine neuen SLI-Profile mehr

Duke711 schrieb:
Ja versuche das mal heute bei aktuellen Titel, viel Spaß dabei. 1996 waren die Spiele eben noch sehr einfach gestrickt.
Die Spiele waren für ihre damalige Zeit schon sehr komplex. Nur waren da eben zu Zeiten von 3dfx noch Röhrenmonitore aktuell und wie solch einer funktioniert sollte? man wissen. Und das Gespann hat dann einfach aufgeteilt zwischen gerader & ungerader Zeile (genauere Erklärung hier).

Maxxx800 schrieb:
Ich kann mich noch gut erinnern als ich vor vielen vielen Jahren meine zwei Creative Labs 3D Blaster voodoo 2 eingebaut hatte. Man war das damals ein Preformance Plus 🙂
Hab so ein Gespann in meinem Retrorechner stecken. Sogar die Luxusvariante mit 12MB Grafikspeicher (und heut ^^
 
  • Gefällt mir
Reaktionen: konkretor und Swiffer25
VikingGe schrieb:
Der Vorteil von den neuen APIs ist eben, dass man eben effizienteren Datenaustausch und Synchronisationsmechanismen hat, sofern hardwareseitig unterstützt, aber dafür braucht man auch wieder zumindest gleichartige GPUs, die z.B. Bilddaten auf dieselbe Art und Weise interpretieren.

Nicht zwingend, was eben den Vorteil einer "richtigen" Multi GPU Lösung bringt.
1600479257318.png


Man kann die Berechnungen für einen einzelnen Frame auf mehrere Grafikkarten aufteilen und so sogar theoretisch Sachen wie Raytracing auf eine zweite GPU auslagern.
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12-part-2

Aber wie schon gesagt, davon werden wir in der Zukunft viel mehr in professionellen Lösungen in der Cloud sehen und nicht in PCs zuhause. Hier hat man ja bis heute es nicht mal wirklich geschafft, bei Notebooks die iGPU und die dGPU sinnvoll gleichzeitig zu nutzen, der Einsatz von mehreren Grafikkarten und zukünftige GPU Monster-PCs mit 2000W Stromaufnahme sind schlichtweg unrealistisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid, JeanLegi, konkretor und eine weitere Person
Häschen schrieb:
nvidia kann SLI nativ umsetzen ohne Einfluss durch Software [...]
Das ist/war so leider nicht richtig.

xexex schrieb:
Eine 3090 hat vielleicht 15-20% mehr Leistung als eine 3080, also theoretisch würde ich sehr gerne zwei 3080 nutzen wollen, das würde dann nicht 20% sondern 100'% mehr Leistung ergeben und noch immer weniger kosten als eine einzelne 3090.
Je nach Szenario könnten sogar über 100% mehr Leistung drin sein - je nach Queueing des Workloads und entsprechender Auslastung der Ressourcen (FP/Int-RTX3xxx). Das muss dann aber ein ganz einfaches Szenario sein! :p

Kenshin_01 schrieb:
Die Spiele waren für ihre damalige Zeit schon sehr komplex. Nur waren da eben zu Zeiten von 3dfx noch Röhrenmonitore aktuell und wie solch einer funktioniert sollte? man wissen. Und das Gespann hat dann einfach aufgeteilt zwischen gerader & ungerader Zeile (genauere Erklärung hier).
Das hatte aber nichts mit Röhrenmonitoren zu tun.
Auch 3dfx-SLI-ScanLines landeten in einem einzelnen Buffer und wurde erst von dort an den D/A-Wandler übergeben.

xexex schrieb:
Aber wie schon gesagt, davon werden wir in der Zukunft viel mehr in professionellen Lösungen in der Cloud sehen und nicht in PCs zuhause. Hier hat man ja bis heute es nicht mal wirklich geschafft, bei Notebooks die iGPU und die dGPU sinnvoll gleichzeitig zu nutzen, der Einsatz von mehreren Grafikkarten und zukünftige GPU Monster-PCs mit 2000W Stromaufnahme sind schlichtweg unrealistisch.
Das ganze Know-How von Cloud-mGPU-Berechnung lässt sich dann auch für den privaten Bereich nutzen. Denke aber auch, dass die Big Players da erstmal viel Geld lassen müssen. Cloud-Gaming könnte für uns alle dann noch der Heilsbringer werden! :freak:
Die Frage ist in wie weit man z.B. Frostbite/id Tech/CryEngine etc. fördern kann.

RTX-/Tensor-/Cuda-Kerne kann man ja auch gut und gerne für Raytracing/Physik/Sound nutzen. Machbar ist da noch vieles! Ich freu mich!
 
MeisterOek schrieb:
Absolut nein. 4K-Gaming ist noch lange nicht gut spielbar. Bei der 3080 nicht, bei der 90 wohl auch nicht in jeder Lebenslage. Wir haben doch alle die Benchmarks gesehen oder nicht?
Mit nvlink 2x 3090 wäre es wirklich gut spielbar. Wozu gibt's 4K@120 TVs oder 4K@144 Monitore.

Wie viele haben einen 4k 120/144hz Monitor? 1%? Ok ich habe einen LG TV 49 Zoll mit VRR und 4k 120hz, aber das dürfte wohl eher die Ausnahme sein. Und davon abgesehen, der wird aktuell mit einer rx 5700 befeuert, was gar nicht mal so übel funktioniert (Dank FreeSync ist es dann auch nicht so schlimm wenn es mal 50 oder 55 fps sind). Ich hatte vor 2 Monaten noch eine RTX 2080TI und mit DLSS 2.0 war dort 4k schon sehr gut spielbar. Bei der RTX 3080 wird man fast immer über 60fps kommen, eher Richtung 90fps. Vieleicht stellt man 1-2 Grafikoptionen um, um für marginal weniger Qualität 10-20% mehr FPS zu erhalten. Bei Rennspielen und Spielen wie Fortnite dürften 100fps+ in 4k relativ leicht zu erreichen sein.

Davon abgesehen, die Anzahl der Personen die zwei 3090 nur fürs Gaming in 4k 120/144 fps nutzen wollen, dürfte sich wohl im Bereich 0,1% und weniger bewegen. Da lohnt es sich einfach nicht diverse Entwickler mit hohen Arbeitslöhnen für die Programmierung von SLI Profilen abzustellen.

Im professionellen Bereich macht SLI ja sinn, aber Gaming? Also immer aus wirtschaftlicher Sicht gesehen.

Ein weiterer Aspekt, 2x 350 Watt + CPU usw.? Ohne Klimaanlage im Sommer dürfte das auch keine spaß mehr machen. (Ok, bei mir lief auch schon der Monoblock, wo draußen 35 Grad waren ;) )

Ein anderer Ansatz, vielleicht gelingt es AMD und Nvidia das Chipletdesign gut umzusetzen. Dann wären vielleicht auch Grafikkarten mit doppelter Leistung möglich (bei 500 Watt und 3000€+ Preisen) - aber ohne die aufwendige Software Anpassung.
 
Zuletzt bearbeitet:
nvidia hätte damals einfach die geklaute sli technologie von 3dfx weiterentwickeln müssen, anstatt nur bisschen abzukupfern. wollten sie halt nicht eingestehen, das es die viel bessere lösung war (keine mikroruckler)
 
  • Gefällt mir
Reaktionen: Aquilid
Ich fand auch das 3DFX als Add on noch einen echten Gewinn brachte und als damals Physikkarten kamen war noch was zu erkennen was die Bildquali verbesserte (Wirbelnde Blätter, wehende Mäntel, realitische Explosionen) Ich hatte selbst mal eine Version von SLI (2x 8800 GT). Ich habe zwar keine Mikroruckler gesehen aber der Leistungsgewinn stand in keinen Verhältnis zu Preis und Aufwand).
Ich weine SLI keine Träne nach
 
Don Sanchez schrieb:
Aber nur in deinen Träumen... eine zweite Grafikkarte bedeutet nicht +100% FPS. Eher +50% - bei doppeltem Stromverbrauch und doppelter Hitze, also extrem ineffizient. Und dann ist da noch das Problem der Mikroruckler, was sich zwar verbessert hat, aber immer noch da ist, wodurch das Spiel noch schlechter läuft.

Ach ja,

da muss (nicht nur) ich mich 2011 - 2015 ständig vermessen haben. Unterstützte Spiele, und in diesem Zeitraum waren das recht viele, insbesondere die AAAs, skalierten i.d.R. im Schnitt mit 80% und von einem doppelten Stromverbrauch und Hitze konnte man mit dem richtigen Ansatz weit und breit auch nichts sehen.

SLI und CF waren alles andere als perfekt. Was man allerdings darüber alles so an Negatives las (und auch hier immer noch liest), hatte mit der Realität meist auch nicht viel zu tun.

Das NVidia nun diesen Schritt konsequent weiter geht ist nur logisch. Wenn ich einem Patienten über Jahre die Medikamente drastisch reduziere und am Ende sogar ganz weg nehme, muss ich mich nicht wundern, dass er am Ende stirbt. Dazu kommt noch die notorische Faulheit der Entwickler bzw. deren Geldgebern.

Für NVidia macht es ohnehin keinen Unterschied. Früher kaufte sich der Enthusiast zwei 400 - 500 Euro GPUs. Heute "freut" sich der Konsument, wenn eine Mittelklasse Karte "nur" 400 oder 500 Euro kostet und eine 3080 mit 700 Tacken wird sogar Preisbrecher bezeichnet. Der Mensch ist eben ein Gewohnheitstier, voller Erfolg.
 
Ich hatte ja eine Zeit lang mal die Hoffnung, auch aus Unwissenheit, das man Crossfire /SLI mal für Raytracing verwenden könnte. Also eine Karte macht RT, die andere macht Dan normalen Teil. Wäre cool gewesen 😄
 
Nvidia hat es in der Hand gehabt. Wenn sie gewollt hätten, hätten sie es schon auch weiter etabliert. Aus technologischer Sicht kann SLI kein unüberwindbares Mauerwerk darstellen, in Sachen Weiterentwicklung.
 
HaZweiOh schrieb:
Ehrlicher wäre, wenn sie einfach die Wahrheit sagen würden: SLI ist tot
Haben sie quasi damit auch gesagt. Um ehrlich zu sein macht es heute auch wirklich keinen Sinn mehr.
 
Maxxx800 schrieb:
Ich hatte ja eine Zeit lang mal die Hoffnung, auch aus Unwissenheit, das man Crossfire /SLI mal für Raytracing verwenden könnte. Also eine Karte macht RT, die andere macht Dan normalen Teil. Wäre cool gewesen

Das wäre und ist möglich gewesen, man hätte dafür aber den Ansatz anders auslegen sollen. Wer weiß wenn der Weg in Richtung Full Scene Raytracing geht, ob man es nicht mit DXR5.0 wieder aufleben lässt. Trotzdem werden sich die Leute nicht mehrere 300-400W Karten in die PCs bauen, sondern es wird eine Cloudlösung werden.
 
Kenshin_01 schrieb:
Die Spiele waren für ihre damalige Zeit schon sehr komplex. Nur waren da eben zu Zeiten von 3dfx noch Röhrenmonitore aktuell und wie solch einer funktioniert sollte? man wissen. Und das Gespann hat dann einfach aufgeteilt zwischen gerader & ungerader Zeile (genauere Erklärung hier).

Was ist das für eine Logik?
SLI hat doch nichts mit dem Ausgabegerät zu tun. Anstatt Zeile für Zeile kann SLI auch Pixel für Pixel abwechselnd aufbauen. Nur das funktioniert aber mit den ganzen Lichteffekten und co. nicht mehr. Und die damaligen Spiele waren alles andere als komplex, also von der grafischen Seite aus gesehen. Kein Vergleich zu heute.
 
Ich finds schade, das im allgemeinen Multi-GPU für Spiele so vernächlässigt wird. Gut, wenn der Hersteller es direkt gut machen kann, ist es ok. Trotzdem waren SLI wie Crossfire gute Lösungen, wenn man ein Spiel von unspielbar auf besser spielbar hieven konnte. Und ich wünsche mir sehr wohl bis heute eine einfache Möglichkeit, skalierbar die Leistung eines Systems zu erweitern. Genau das ist doch der Grund, warum eine PC-Plattform immer attraktiver sein wird als eine Konsole. Aktuell fällt mir der MS FS2020 ein, der sehr wohl eine gute Skalierung bei hohen Auflösungen vertragen könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid
Ein Glück dass das hardwarefressende Civ VI noch unterstützt wird!
:D
 
Schade, 2 x 3090 in einem System... das wäre spannend geworden. Bei der neuen "Effizienz".
 
Würde das nicht bedeuten das SLI vor allem deshalb tot ist weil der Multi GPU Support über die API herstellerübergreifend agieren kann?
Ergänzung ()

Beitrag schrieb:
Blenders Cycles Engine sowie viele andere 3D-Rendersoftware nutzt ja reines Raytracing mit Tile-based Rendering.

Vielleicht lebt SLI / Crossfire dann ja irgendwann in einigen Jahren wieder auf, wenn man wirklich Echtzeit-Raytracing kann. Sofern es dann nicht plötzlich wieder neue Probleme damiot gibt. ^^
Genau das sehe ich auch als die größte Chance vom Raytracing.
Es können mehrere GPUs an unterschiedlichen Bereichen des gleichen Bild rechnen weil die Last sich leichter verteilen läßt und am Ende wird es dann von der primären Grafikkarte zusammengesetzt und ausgegeben.
Dann wären auch wieder reine Beschleunigerkarten wie seinerzeit bei Voodoo 2 und Co. interessant.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Aquilid
Duke711 schrieb:
SLI hat doch nichts mit dem Ausgabegerät zu tun. Anstatt Zeile für Zeile kann SLI auch Pixel für Pixel abwechselnd aufbauen. Nur das funktioniert aber mit den ganzen Lichteffekten und co. nicht mehr.
Wenn man sich das Prinzip anschaut, das 3dxf verwendet und in welcher Zeit das war dann lassen sich durchaus solche Rückschlüsse ziehen.

Duke711 schrieb:
Und die damaligen Spiele waren alles andere als komplex, also von der grafischen Seite aus gesehen. Kein Vergleich zu heute.
Damals wurde auch aus der Hardware rausgeholt was ging. Und was man noch so zaubern konnte haben uns ja damals Spiele wie Unreal, Half-Life und diverse andere Spiele die Glide unterstützt haben gezeigt, der "Wow!"-Effekt war häufig größer als heute. Und damals waren auch solche Sachen wie eine ordentliche und lange Kampange wichtiger.
Multiplayer war zu Voodoo's Zeiten mehr auf LAN als Internet gelegt. Heute zählt (zumindest kommt mir persönlich das häufig so vor) mehr Multiplayer und Bombastgrafik anstatt ordentliche Spieltiefe....
 
  • Gefällt mir
Reaktionen: Aquilid
Duke711 schrieb:
Und die damaligen Spiele waren alles andere als komplex, also von der grafischen Seite aus gesehen. Kein Vergleich zu heute.
Das hat weniger mit der Komplexität der Spiele zu tun, sondern das der Renderprozess damals ganz anders war als heute. Damals hatten die Renderschritte eine feste Reihenfolge auf die man die SLI Technik abstimmen konnte. Heutzutage kann jedes Spiel die Schritte aber in fast beliebiger Reihenfolge nutzen und die wechselwirken auch unterschiedlich miteinander. Da kann man einzelne Bilder nicht mehr ohne weiteres von mehreren Karten berechnen lassen. Da kann man im Prinzip die Karten nur abwechselnd ganze Bilder von Anfang bis Ende berechnen lassen, wofür aber alle Karten auch immer alle Daten haben müssen, was am Ende weniger effizient is. Und dann kommen auch noch so Techniken wie "Temporal Anti-Aliasing" dazu, wo alle Karten dann immer x vorherige Bilder kennen müssen (auch die von den anderen Karten), was zusätzlich Overhead erzeugt.
 
  • Gefällt mir
Reaktionen: Aquilid, Kenshin_01 und floTTes
Zurück
Oben