News Nvidia Pascal: Berichte über Leistungsverlust bei G‑Sync mit SLI

@PHuV habe ich mir schon gedacht, hier geht auch eher weniger um die Technik an sich sondern eher um die Probleme aktuellen Realisierung. Wünschenswert wäre es natürlich wie bei Bioshock Infinite oder Witcher 3 mit nahe zu 100% Skalierung, aber das ist Wunschdenken. NVLink ist kein wirkliches Heilmittel, sieht man ja an den Benchmarks wenn SLI schlichtweg nicht unterstützt wird und mit Wegfall des Konnektors der RTX 2070 hat nvidia da klar gemacht wo die Reise hingehen soll. Auch das die NVLinks von 2080 und 2080Ti verschiedene Bandbreiten haben ist mir nicht ganz schlüssig, hört sich für mich nach aktiver Ausbremsung an.
 
Ich kann dazu nur eins sagen:
Einmal SLI ----> Nie wieder
Einmal G-Sync ----> Nie wieder
Einmal Nvidia ----> Nie wieder

AMD? Gerne doch! Immer her damit!
 
Da kann ich Dir überhaupt nicht zustimmen.

SLI war damals wirklich ok, bis auf die Lautstärke und die Wärmeentwicklung
G-Sync verwende ich heute ebenso und ist nach wie vor bei mir ungeschlagen super
Ebenso habe überwiegend Nvidia und teils AMD, und kann so nichts schlechtes über Nvidia sagen
AMD (R9 390 8GB) hatte ich bis vor kurzen noch beim KinderPC, und habe das durch eine wesentlich leisere GTX 1060 6 GB ersetzt. AMD Karten waren fast immer lauter, heißer, und verbrauchten deutlich mehr. Daher kann ich Dein sehr vereinfachtes Statement überhaupt nicht bestätigen.
Botcruscher schrieb:
MultiGPU ist halt tot. Akzeptiert es endlich.
Warum? Mit RT kann es sehr wohl wieder interessant werden. Es gibt keinen Grund, warum GPUs nicht wie CPUs skalierbar sein sollen. Bei den Großrechnern gehts doch auch. ;)
 
  • Gefällt mir
Reaktionen: FCK-THIS
Ich muss es ja wissen siehe SIG. Es läuft einfach alles Rotzig mit SLI+Gsync.
Ergänzung ()

Ich kann noch eins dazu sagen und zwar läuft alles seit dem 1803 Windows Update in Kombination mit den neusten Nvidia Treiber schlechter. als ich noch Windows 16 irgendwas mit dem 384.67 hatte lief es merklich besser.
 
Zuletzt bearbeitet:
Gsynckostet nicht nur im SLI Leistung... Das hatte Games Nexus (oder war es Hardware unboxed?) Schon in ihrem HDR Test bemängelt... Mit 399.x Treibern (also vor Turing)

Hätte man schon lange Mal testen können xD
 
Ja, die Vega 64 kann mit aktiviertem Freesync und HDR die GTX 1080 TI mit aktiviertem G-Sync und HDR über den Tisch ziehen. Testet aber niemand...
Botcruscher schrieb:
MultiGPU ist halt tot. Akzeptiert es endlich.
Jep, genauso tot wie VR und Augmented Reality :rolleyes:
Crossfire und SLI, ja, die werden dank Multi-GPU von DX12 und Vulkan nicht weiterentwickelt. Aber Multi-GPU ist beileibe nicht tot!
 
Zuletzt bearbeitet:
@Raucherdackel!
Gegen eine TI? Würde ich gerne mal sehen, und das ist jetzt kein Spott.
Allgemein ist es aber so, dass AMD Karten gegen später wesentlich mehr an Performance zulegen als Nvidia (mal so die letzten 15 Jahre betrachten) - leider sind die Karten dann für den "ambitionierten Zocker" eher uninteressant.

Stimmt der Bericht jedoch von jenem Nutzer der im Artikel erwähnt wird, wäre es doch sehr ärgelicht, wenn auch bei einer einzelnen 1080 Karte bei Gsync eine "Leistungsbremse" eintritt. Aber Nvidia wird das dann doch wieder wegwaschen - ihr wisst ja 970 4GB^^

OT:
Zu Gsync vs Freesync (1)
Gsync ist das bessere Sync, wenn es um den Input Lag geht. Battlenonsense hatte das in einem Video gezeigt. C.a 7 ms schneller.

Ich selbst habe vor ca. 15 Monaten selbst einen m.E. genauen Test entwickelt (+-1ms), um allgemein Input Lag zu testen (Mäuse, Games, Treiber, OS Settings, Monitor etc.), und habe zwischen no Sync und Gsync nahezu keinen Input Lag ermitteln können. Niedrigere FPS hatte ich nicht getestet, da Gsync für mich uninteressant ist – solange ich FPS im hohen 100er Bereich habe (240 Hz Monitor). In CS:GO z.B.ziehe ich 500 – 600 FPS einem gesyncten 23X FPS Bild immer vor (obwohl auch ok). Es fühlt sich einfach sauberer an, obwohl auf Papier betrachtet Gsync besser sein sollte – aber wer sich in dieser Hinsicht etwas auskennt, weiß warum.

Wer sich etwas einlesen möchte, könnte z.B. mal mit blurebusters anfangen.
 
Zuletzt bearbeitet:
@Elektrolyt
ja, rechne halt mal selber nach:
Nvidia:
HDR 5-10% Leistungsverlust
G-Sync 10-20% Leistungsverlust

AMD
HDR - kein Leistungsverlust
Freesync - kein Leistungsverlust

...und schon kann eine Vega 64 an einer 1080TI vorbeiziehen. Ist genau wie damals, Geforce 8800GT 512MB gegen HD3870 512MB. In Benchmarks anfangs hoffnungslos unterlegen, aber bei moderneren Spielen wie Crysis im Crossfire plötzlich 30% vor der 88GT SLI und zwei HD3870 1GB waren gleichauf zum SLI Gespann mit 8800 Ultra mit 768MB.
Und Crossfire ruckelte die ersten 10 Sekunden, und lief dann. Die 8800er Generation lief ein paar Minuten, dann war der RAM voll und die Karten ruckelten sich einen ab.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS
@Raucherdackel!
Wie erwähnt, ATI/AMD Karten wurden mit der Zeit schneller. Aber ob und bis die V64 die 1080Ti überholt hat, sind wohl beide schon obsolet.
HDR ist noch recht "neu", uninteresant und wird sich vll. auch nicht durchsetzen. Ist auch egal, ich will gescheite Benchmarks haben mit mehr als nur 5 Games und nur 4K als Auflösung.

Ausserdem las es sich eher so als ob sich einfach die GraKas langweilen (von CPU Auslastung wurde leider nichts erwähnt). Also eher ein Treiberproblem, was dann hoffentlich bei genug Beachtung gefixed werden könnte... andreseits Nvida ist ja dafür bekannt, dass sie "versehentlich" die Leistung ihrer alten Top Range Modelle gedrosselt hatten (glaub war damals die 780 oder 880).

@PHuV
Jo laut Battlenonsense (YT) ist der Inputlag bei Gsync besser. Ausserdem hat Gsync eine weiteres FPS Spektrum.
Mich würde jetzt aber doch noch interessieren wie der Input Lag bei nur 60 oder weniger FPS aussieht. Gsync könnt ich testen, Freesync würde mir noch entsprechender Monitor fehlen. Werds auf jeden Fall mal in Zukunft testen.
 
PHuV schrieb:
Du hast nicht richtig gelesen. Der Verlust bei G-Sync ist nur bei SLI, nicht bei einer Single-Karte. .
Siehe meinen Beitrag. Es gab letztens Tests bezüglich HDR abseits von Computerabse und PCGH und dort ist aufgefallen das auch ausserhalb von SLI/HDR (was durchaus mehr als 10% performance auf Nvidia kosten kann) auch mit Single Karten G-sync leistung kostet...
 
PHuV schrieb:
An sich finde ich es schade, daß SLI so vernachlässigt wurde. Es war eine gute Technologie in dem Sinne, weil man einfach GPU-Leistung relativ simpel skalieren konnte. Mal einfach für mehr Leistung 1-3 Karten dazu addieren hat schon was. Leider wurde das Thema Mikroruckler kaum richtig angegangen.
Als Kiddie wusste ich schon, dass SLI/CF ne Totgeburt ist. 14 Jahre später sollte ich Recht behalten :evillol::smokin:
 
Zuletzt bearbeitet:
PHuV schrieb:
Hast Du dazu bitte Links?
 
13579 schrieb:
Das SLI oder Crossfire überhaupt noch wer nutzt, grenzt an ein kleines Wunder, alle haben es zurecht aufgegeben ...
https://www.computerbase.de/2018-07/crossfire-sli-test-2018/

Ich habe daher wenig bis kein Mitleid, G-Sync/Freesync verwende ich auch nicht, sie sind nicht die Eierlegende Wollmilchsau für die sie manche preisen, das kommt sehr auf das Spiel an, ich zb verwende gerne die Sync Methode Schnell mit einem FPS Begrenzer auf einem UHD@60Hz, ....... ansonsten stelle ich auf WQHD zurück...
Ich dachte erst du wüßtest wovon du sprichst, aber 60Hz Monitor und nicht in Nativer Auflösung zocken zeigt eher richtung gegenteil.
Ergänzung ()

pilzsammler2002 schrieb:
Bei 2:28 sagt der Typ im Video das kein Performance unterschied zwischen G-Sync on/off vorhanden wäre und bezog sich dabei auf alle Spiele!

Der Test ist für die Tonne, dort wurde gar nicht wirklich G-Sync on/off getestet... sondern 1.SDR mit G-Sync On und 2.HDR mit G-Sync off und 3. HDR mit G-Sync On.

Der Mischmasch mit HDR macht den Test ungenau, daher kann man nur auf die Generelle aussage des Reviewers als info nehmen und die belegt genau das gegenteil von dem was du sagst.

Übrigens hab ich schon bei den Release der 2080/2080ti gesehen das sich Hardware unboxed extreme ungenauigkeiten bei den Benches Leistet...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: FCK-THIS
pilzsammler2002 schrieb:
Jaha, HDR und G-Sync! Und das auch nur bei einigen Spielen, bei anderen ändert sich gar nichts.

Gut, HDR ist ein anderes G-Sync-Modul, und nicht vergleichbar mit dem bisherigen G-Sync, was kaum Performanceverluste bringt.

Ups: m.Kobold hat es korrekt ausgedrückt, der Test ist etwas unheitlich und fragwürdig.
Massaka01 schrieb:
Als Kiddie wusste ich schon, dass SLI/CF ne Totgeburt ist. 14 Jahre später sollte ich Recht behalten :evillol::smokin:
Als Kiddie hattest Du auch vermutlich nie SLI. Und die Aussage ist vollkommener Quatsch.

Ich hatte SLI bis ca. 2014, und es hat eigentlich bei vielen Spielen wirklich gut funktioniert. Es war spielerisch definitiv ein Segen, damit konnte man 2006 schon mit einen Dell 300WFP7 auf 30" und 2560x1600, wo die meisten und vermutlich Du - wenn überhaupt - noch mit 1024x768 rumdümpelten. Ebenso war es für 3D-Vision damals unabdingbar, wenn man mit den Monitoren auf FullHD damit spielen wollte.

Man muß es so sagen, es lief hervorragend mit SLI fast 10 Jahre lang, bis das Thema Mikroruckeln in den Vordergrund rückte. Jetzt im Nachgang (!) behaupten, daß es angeblich eine Totgeburt sein soll, ist an den Haaren herbeigezogen.

Ich wette mit Dir fest, MultiGPU kommt mit RT wieder. Die RTX-Cluster beweisen es. Ob es so für den Konsumer auch wieder kommt, immerhin ist Nvlink nicht ohne Grund da.
 
Zuletzt bearbeitet:
Zurück
Oben