NVIDIA SLI in VR

C

Creator97

Gast
Ich hatte schon mal eine GTX 690, damals als ich mir noch nicht den Kopf zerbrochen habe über Microstutter... Nun steht mein nächstes Build an und es stellt sich die Frage Haswell E und SLI oder Skylake und kein SLI.
(Bitte keine Kauftipps geben, das gerade eben diente nur als Einführung. Hier geht es wirklich nur darum Klarheit über die Technik zu schaffen.)
Eventuell habt ihr schon über SLI in VR gehört:
VR SLI provides increased performance for virtual reality apps where multiple GPUs can be assigned a specific eye to dramatically accelerate stereo rendering. With the GPU affinity API, VR SLI allows scaling for systems with >2 GPUs.
Nun stellt sich die Frage, normalerweise funktioniert SLI ja über AFR (lassen wir SFR aus ist ja nicht mehr verbreitet), das heißt GPU 1 bekommt die geraden Frames und GPU 2 die ungeraden. So stellen abwechselnd GPU 1 und 2 eine Frame dar, wenn allerdings zwischen der Geraden Frame und der darauffolgenden Ungeraden mehr Zeit vergeht als sein sollte, entstehen Microruckler. (Bei Single GPUs gibt es das ja auch nur nicht so stark.)
Jetzt werden bei Virtual Reality beide GPUs dazu gebracht jeweils ein Display zu rendern. Da fiel mir dann auch gleich ein, dass das ja mit 3 GPUs und 3 Monitoren genauso funktionieren sollte.
(Der Themenersteller in diesem Forum hier hatte auch die Idee: https://forums.robertsspaceindustries.com/discussion/193819/triple-screens-3-way-sli-or-not)
Nun müsste ja dort nun dasselbe Problem entstehen, nur das eben nicht mehr beide Augen es gleichzeitig sehen, sondern nachdem mein Gehirn dann beide Einzelbilder zusammen gesetzt hat, mein Gehirn meldet, dass da ein Zeitabstand zwischen Display 1 (Auge 1) und Display 2 (Auge 2) war.
Verstehe ich da was falsch und es gibt kein Problem oder wird bei VR wieder 1 GPU der doppelt so stark ist besser sein, als 2 halb so starke GPUs.
 
Zuletzt bearbeitet:
das kann man leider erst beantworten wenn die technik da ist

bei VR wird es ja umso wichtiger das beide Karten ihr Bild wirklich auf die mikrosekunde! ausliefern. Das wäre mit dem aktuellen AFR lag unmöglich da hat man Verzögerungen im ms Bereich.

Würde auf jedenfall bei Skylake bleiben. sli geht da ja auch mit 1-3% Verlust falls es doch klappt
 
Aber logisch ist doch mein Gedanke schon, dass 1 GPU bei VR auch besser sein sollte, selbst wenn die Probleme bei 2 minimiert werden könnten?!
 
ja, bzw kommt auf die technische lösung an, aber prinzipiell ja.

Gneua wie du sagtest wird das Auge es eher bemerken das 2 zeitgleiche bilder zu unterschiedlichen zeiten kommen ( und wenn es im mikrosekudnenbereich ist ) als wenn 2 aufeinanderfolgende das tun
 
wieso sollte Skylake nicht auch mit SLI gehen, verstehe deinen Post nicht.
 
Er wir sich vermutlich Gedanken über die PCI Lanes gemacht haben, von denn Haswell-E deutlich mehr hat um mehrere Grafikkarten nativ an die CPU anzubinden.
 
Ja PCIe Lanes, wenn PCIe 4.0 gekommen wäre kein Problem, aber für eine GTX 980 Ti reicht kein PCIe 3.0 x8 mehr (ich weiß, dass meist nur theoretisch gilt, jedoch die meisten Spiele genauso gut scalen.)
Die eigentliche Idee kam aber auf, da auf eBay Xeon e5 zu wahnsinnigen (guten) Preisen angeboten werden. (Klar muss man da auch extrem auf Betrüger achten und immer nur PayPal)
Und wenn wir schon mal bei den Lanes sind. Wie rechnet man das aus, wie viel Prozent Bandwith eine Grafikkarte von PCIe braucht?
Also PCIe 3.0 x16 schafft 32 Gigabyte Pro Sekunde.
Eine Titan X schafft 336 Gigabit pro Sekunde was 42 Gigabyte pro Sekunde ergibt.
Jetzt verstehe ich garnichts mehr.
 
Zuletzt bearbeitet:
Das wäre total unlogisch wenn die neuen Boards kein SLI oder nur mit abgespeckten PCIe slots laufen würden, total unnötige panik mache. Das Thema bezieht sich doch auf die NVMe Geschichte für die PCIe Controller-Karten um SSDs mit 2GB/s zu betreiben, soweit ich weiß Steckt man die Karten eh nur in die normalen PCIe slots... die halt aufgewertet worden sind bei den neuen Skylake Mainboards.
 
Ja klar ist das nicht richtig, also wie rechnet man das jetzt aus, mithilfe der Specs einer Grafikkarte, ab wann PCIe 3.0 x16 mit 32 Gigabyte Pro Sekunde theoretisch der Grafikkarte im Wege steht?!
 
Zurück
Oben