2 Pc paralleliesieren?

jburn

Lt. Junior Grade
Registriert
Mai 2019
Beiträge
406
2 Pc paralleliesieren, geht das ohne sündteure hardware?
d.h. 2x gleiche software, 2x videoausgang.

Wie das bei Datenbanken auf unix.systemen geht, ist klar.

Aber das Grafiksignal 2er Win10 Pc (quasi externes sli) bei gleichzeitiger Softwaresync?

Die Idee ist Interlace von 2 (baugleichen) Rechnern auf einem Monitor.

Warum: SlI bringt bei der 2080ti einfach nix oder minus bei den framrates, je nach Spiel.
 
Wenn die Synchronisation zweier Grafikkarten über SLI schon scheitert, glaubst du das die Synchronisation zweier PCs besser funktionieren würde?
 
  • Gefällt mir
Reaktionen: TheRealX, lkullerkeks, M4ttX und eine weitere Person
Ich denke das Stichwort das gesucht ist, ist 'Provisionierung'...
 
Kurze Antwort: Nein, wenns irgendwas bei Spielen bringen soll.

Bei Ausfallsicherheit vielleicht.
 
Zuletzt bearbeitet:
jburn schrieb:
2 Pc paralleliesieren, geht das ohne sündteure hardware?
2 PC sind bereits parallelisiert! Und 2 PCs bedeutet doppeltes Ausfallrisikio und doppelter Stromverbrauch und doppelter Anschaffungspreis. da hat sich ne 2. GraKa ruckzuck amortisiert.
jburn schrieb:
Wie das bei Datenbanken auf unix.systemen geht, ist klar.
Das ist was völlig anders.
jburn schrieb:
Aber das Grafiksignal 2er Win10 Pc (quasi externes sli) bei gleichzeitiger Softwaresync?
Wie stellst du dir das vor? PC A rechnet gerade Zeilen und PC B ungerade? da wirds dir das Bild am Ende Zereisen oder aber es wird sogar langsamer durch die Synchronisation
jburn schrieb:
Die Idee ist Interlace von 2 (baugleichen) Rechnern auf einem Monitor.
Siehe oben
jburn schrieb:
Warum: SlI bringt bei der 2080ti einfach nix oder minus bei den framrates, je nach Spiel.
Ja Überraschung, SLI ist offiziell tot. Prinzipiell können die Entwickler mittels DX12 oder Vulkan mehrere GPUs zur Berechnung mit einbeziehen aber das machen die wenigsten, mir ist zu mindest kein aktuelle Game bekannt was das kann.
 
https://www.ansible.com/

so kannst du schonmal die software auf beiden gleich halten.

Für alles weitere, bitte die fragen oben beantworten
 
In SLI gibt es nen Rendermodus der sich AFR nennt, alternate frame rendering. Dabei berechnet jede GPU nur jeden zweiten Frame.
Problem bei AFR ist das du nicht weißt wie lange jede GPU für ihren Frame braucht, resultiert in microstutter / schlechten Frametimes.

Ich nehme mal an so stellst du dir das irgendwie mit deinen zwei Rechnern vor, jeder rendert sein Bild = doppelte FPS.
Wie es schon gesagt wurde, wenn zwei GPUs schon nicht sauber miteinander arbeiten (bzw. Entwickler keine Zeit reinstecken wollen) wird es bei zwei Rechnern nicht einfacher.
 
Zuletzt bearbeitet:
Auf beiden Rechnern zocken, als Stream aufnehmen und dann die Frames zusammenschneiden 🙃

Es ist natürlich theoretisch möglich, aber das hat bisher noch niemand entwickelt. Und ich denke auch mal dass der Overhead und die Synchronisationsprobleme den Nutzen in Frage stellt.
 
Ich habe mal mit einem von SUN gesprochen, der an der Entwicklung von multisocket sparc systemen beteiligt war. Er meinte mehr als 7cm Leiterbahnen haben sie zwischen den sockeln nicht hinbekommen, ohne dass das delay ywischen den kernen zu hoch wurde, um diese synchrin zu halten
 
madmax2010 schrieb:
Er meinte mehr als 7cm Leiterbahnen haben sie zwischen den sockeln nicht hinbekommen, ohne dass das delay ywischen den kernen zu hoch wurde, um diese synchrin zu halten
Und selbst damit war es bestimmt schon schwierig. Und da reden wir von der Umsetzung innerhalb Eines Systems und nicht mit 2en.

Wir betreiben ein everRun Hochverfügbarkeitscluster. Da merkt man schon wie die Synchronisation die Performance in den Boden drückt. Will gar nicht wissen was bei der Synchronisation von GPUs passiert.
 
  • Gefällt mir
Reaktionen: madmax2010
Just dont.
In voneinander unabhängige, atomare aufgaben zerlegen -> getrennt schedulen -> ergebnisse zusammenführen.

Sonst macht das mit mehreren Systemen einfach keinen Spaß.
 
Zurück
Oben