News Nvidia SLI: 3 oder 4 Karten geht bei Pascal nur für Benchmarks

Völlig egal, diejenigen die es betrifft kann man an einer Hand abzählen, wobei man grundsätzlich an der Sinnhaftigkeit von CF/SLI zweifeln darf. Evtl gibts ja einen Mehrwert noch bei VR ansonsten eher nicht.
 
Es sollte trotzdem vom hersteller nicht beschränkt werden. Wäre ja genauso toll wenn jeder Autohersteller sagt nur noch 200 PS den Rest müssen Tuningfirmen etc machen. Bullshit!
 
Wer weiß...bei Nvidia würde es mich nicht wundern, wenn die das machen um die Kunden zu zwingen, für maximale Leistung statt 4xGTX1080 für je 800€, 2x den Nachfolger der Titan X für je 2000€ kaufen zu müssen. Wären schlanke 800 Flocken mehr Cash in de Tash! Wobei die neue Titan bei Erscheinen ja vermutlich noch weitaus teurer sein wird...
 
Vllt sparen sie es sich ja für die titan y? Auf, zum einmaligen Schnäppchenpreis von nur 2000$ pro karte...
 
tL;Dr: unser altes SLI-Interface packt einfach nicht mehr, ausserdem sparen wir uns den Optimierungskram für mehr als two-way-SLI.

Zugegeben, der Markt für Quad-SLI war, vor allem durch die diminishing returns, sehr klein. Insofern kann ich die Entscheidung nachvollziehen. Aber wenn nVidia doch nur einmal ehrlich sein könnte...
 
Hat für nVidia auch den Vorteil, dass man bei Problemen auf den Spieleprogrammierer verweisen kann. Nach dem Motto: "Von uns gab es eh keine SLI-Unterstützung, das ist die Engine Schuld"
 
Dai6oro schrieb:
Völlig egal, diejenigen die es betrifft kann man an einer Hand abzählen, wobei man grundsätzlich an der Sinnhaftigkeit von CF/SLI zweifeln darf. Evtl gibts ja einen Mehrwert noch bei VR ansonsten eher nicht.

Mehrwert von Multi-GPU ist: mehr Leistung wenn eine GPU nicht reicht.

Spiel mal in 4k stabil über 60 FPS - das geht nur mit zwei Titan X/980Ti oder 1080. Die Fury ist durch den Speicher leider etwas... kurios manchmal.
Enthusiasten gibt es z.B. im Bereich der Renn- und Flugsimulationen, mit passendem Stuhl und Multimonitorsetup. Da wird es bei WQHD schon ruckeln mit nur einer GPU. Und wer die Auflösung mal zu schätzen gelernt hat, möchte nicht zurück, also drei UHD-Monitore sind für die Jungs definitiv kein Hindernis. Allein, es fehlen die GPUs dafür.

UHD ist wie 120Hz/144Hz (+adaptive sync) - klingt erstmal als braucht man das nicht. Wer es aber erlebt und zurück an seinen 1080p/60Hz-Monitor geht, fühlt sich wie in der Steinzeit. Quasi wie ein 5" smartphone mit VGA-Auflösung.
Oder wenn man den gamecube an den 65"-flatscreen anschliesst. Pro Tip: Mach das nie mit einem NES. Da siehst Du sogar die Fluktuationen im analogen Ausgang der Kiste xD
 
Bei den meisten Beiträgen hier kann man sich wirklich nur an den Kopf fassen. Schon SLI mit nur 2 Karten ist nicht empfehlenswert, bei mehr wird der Inputlag und die Mikroruckler sogar noch schlimmer. Die Unterstützung durch Spiele wird immer schlechter und selbst dann treten noch oft genug Grafikfehler auf. Wer sich 3 oder 4 Grafikkarten kauft, hat entweder keine Ahnung und/oder will nur Benchmark-Rekorde knacken. Der Markt ist eine Nische und den Aufwand von Grafikkarten-Herstellern und Spiele-Entwicklern nicht wert. Mag sein dass sich das mit DirectX 12 etwas ändert, aber da würde ich doch lieber erstmal abwarten und Tee trinken.
 
@hroesler @milchwagen
Ihr könnt euer 4er sli ja weiter laufen lassen. Alles was nvidia sagt ist das es keine Treiber Optimierung mehr fur Spiele bei 3/4 way sli gibt. Das ist also was ihr also Entmündung oder Einschränkung anseht? Die Möglichkeit bleibt euch, nur keine Unterstützung für eine total ineffizient skalierende Technik.

Der Mehraufwand um 4 way sli zu unterstützen in relation zum Nutzen steht im totalen Widerspruch zur Vernunft.

Ich glaube aber das es euch rein ums Prinzip geht.

Edit: Würdet ihr es eigentlich nicht eh für sinnvoller halten an einzelne Spiel Entwickler mit eurer 3/4 way sli Optimierung zu treten?
 
Zuletzt bearbeitet:
Der Mehraufwand um einen Bugatti Veyron/Chiron schneller als alles andere zu machen steht auch außer Frage. Trotzdem gibt es Leute die für diese paar Prozente Geld ausgeben um das schnellstmögliche System zu haben.

Hier gibt es gar keine Möglichkeit NV zu verteidigen. Besonders werden wir uns dann nochmal sprechen wenn es mit der Titan wieder geht bzw. die Profile wieder "implementiert" werden.

Aber vielleicht brauchen sie die Kapazitäten um Ihren Treiber endlich wieder in den Griff zu bekommen.
Desweiteren sollte eine Firma wie NV, die den Kunden ausbeutet genug Geld haben um Kapazitäten für die Treiberentwicklung zu schaffen.
Alles nur faule Ausreden.
 
Zuletzt bearbeitet:
Ist doch Quatsch. Ich hab seit Jahren einen 30" 2560x1600, den musste ich zwingend mit GTX580 im SLI betreiben um spielbare FPS zu erreichen, ohne auf Minimalqualität zu schalten.
Und danach mit 970er im SLI (natürlich bevor bekannt war, dass die Drecksteile nur 3,5GB VRAM haben). Es wird also IMMER Anwendungen geben für SLI. Nur weil DU es nicht brauchst, heisst das nicht dass es keinen Mehrwert hat.
 
Für die paar Freaks die mehr als 2 Grafikkarten nutzen habe ich offen gesagt wenig Mitleid. Meist sind das generell nur manischen Overclocker oder Hardware Webseiten die solches als Spektakel aufziehen.
Zwei Karten lassen sich doch lt. Bericht koppeln - was soll also für den Otto Normalverbraucher die Aufregung?

Dass eine solche Optimierung gerade für eine solche Nische oft unnötig Zeit und Geld kostet ist klar, und deshalb will man die Freigaben eben nur kontrolliert auf bestimmte Szenarien loslassen, womit man irgendwelche negativen Showtests schon mal vermeidet.
Somit können viele Minikartenbesitzer die von Mutter oder der Oma eine zweite gleichartige Karte noch dazu bekommen haben aufatmen.
 
moquai schrieb:
Enthusiast Key, Enthusiast hier, Enthusiast da. Für mich schon jetzt das Unwort des Jahres.

Feature toppt das^^
Ich halte es für unnötig mehr wie zwei GPU´s...
aaaaaber, es gibt auch Leute, die können mit 4 etwas anfangen.
Und da dann wieder extra Geld ausgeben?!
 
Pict schrieb:

Persönlich würd ich mir nicht mal ein 2-Way-SLI oder Crossfire einbauen weil die Nachteile viel zu groß sind.

Aber wenn ich der Meinung bin mir 4 x 1080 zuzulegen weil ich vor Kohle nur so stinke und anschließend vor lauter Microrucklern nicht mehr aus dem Kotzen rauskomme ist das meine Entscheidung.

Und wenn du mich schon zitierst, dann lass doch nicht den entscheidenden Absatz weg:
Was sich Nvidia allerdings seit ca. 2 Jahren gegenüber seinen Kunden einbildet und herausnimmt kann und will ich nicht mehr unterstützen.
Denn es sind viele kleine Tropfen die das Fass letztendlich zum Überlaufen bringen (wobei der Speicherbetrug der 970 schon ein gehöriger Platzregen war).

Hier mal ein paar Beispiele die mir auf die Schnelle einfallen:
- Unterbinden von AMD/Nvidia Grafikkartengespannen zur Nutzung der Nvidia-Karte als PhysX-Beschleiniger (vor mehr als 2 Jahren)
- nach Ablöse der GTX 5xx-Reihe Einführung des Mittelklassechips als High-End (um Kohle zu machen). Davor waren die GTX x70 und GTX x80 immer die Big-Chips
- Einführung der Prestige-Marke Titan um Preise nach oben zu korrigieren
- nicht offener GSync-Standart
- GSync Monitore sind teurer
- Speicherbetrug der GTX 970

Ich war seit der Riva TNT Nvidia Jünger und habe früher bei Lan-Partys über Leute gelacht die sich mit den ATI-Treibern ihrer Radeons rumschlagen mussten oder unter Grafikfehlern zu leiden hatten.

Mit großen Bauchschmerzen hab ich meine GTX 770 2GB gegen eine R9 390 ausgetauscht ... und was ist passiert? Nichts! Alles läuft bestens.

Alleine vom Preis/Leistungs Verhältnis sind AMD-Karten im Moment für mich die vernünftigeren Karten.
 
@xamoel
SLI wird weiter unterstützt, jetzt sogar fokussiert....

@milchwagen
Bitte mal beim spezifischen Thema bleiben. Analogien machen nur Sinn wenn der Vergleich auch angebracht ist:
Quad sli ist so ziemlich das equivalent von 8 reifen an einem Sportwagen, sicher, in der Theorie bessere Traktion in Kurven. Jedoch ist die allgemein höhere Reibung ein neues Attribut das es im gesamten ineffizient macht.

Der Vergleich passt nicht? Vielleicht passt dir dieser besser :
Nvidia baut immernoch den Wagen nach deinen PS wünschen. Jetzt sagt nvidia aber das du dazu verantwortlich bist die Straßen zu finden auf denen du die PS auch ausfahren kannst.

Und die Leute die wirklich ernsthaft ein Quad Sli betreiben helfen sich in der Zukunft wahrscheinlich mit custom treibern aus. Genau wie es jetzt eh schon mit custom bits im nvidia inspector läuft? Was meinst du dazu?

Edit: Khalinor, zitat zwecks Thema relevanz. Der rest hatte nichts mit dem thema 3/4 way sli zu tun. Sorry das ich beim Thema bleiben will.
 
Zuletzt bearbeitet:
AMD hat zuletzt mit GCN eine komplett neue Architektur gebracht.
Nvidia hat zuletzt mit G80 (Geforce 8800) eine komplett neue Architektur gebracht, alles nachkommende, ist einfach eine Evolution daraus.

Und am SLI Interface haben sie anscheinend seit nV40 nix mehr getan und das rächt sich jetzt halt ein wenig...


Und so langsam hat man auch einige gute Argumente gegen nVidia, die wirklich nicht wegzureden sind:
Der Preis der GTX 1080 sowie die Sache mit der GTX 970...
 
"3 oder 4 Karten geht bei Pascal nur für Benchmarks"

Kauf ich sofort wenns geht! Aber wie können die GPUs gehen? Haben die Füße?
 
Edit: Würdet ihr es eigentlich nicht eh für sinnvoller halten an einzelne Spiel Entwickler mit eurer 3/4 way sli Optimierung zu treten?
Wenn NVIDIA die internas ihrer Grafikkarten bzw. der Treiber offen legt und somit die Spielentwickler in die Lage versetzt ähnlich effiziente Optimierungen durchzuführen...

greetz
​hroessler
 
Was ja im Bereich gameworks schon gemacht wird. Sogar das nvidia aktiv entwickler unterstützt sofern es diese anfragen. Das selbe ist bestimmt denkbar um fur 3/4 way sli in einem ähnlichen Rahmen angewendet zu werden.
 
Pict schrieb:
@milchwagen
Der Vergleich passt nicht? Vielleicht passt dir dieser besser :
Nvidia baut immernoch den Wagen nach deinen PS wünschen. Jetzt sagt nvidia aber das du dazu verantwortlich bist die Straßen zu finden auf denen du die PS auch ausfahren kannst.
Stimmt so nicht ganz. NVIDIA sagt dir genau auf welchen Straßen du nicht fahren kannst. Die Wahl ist dem Kunden somit abgenommen.

greetz
​hroessler
 
Zurück
Oben