Duplizieren von 3440x1440 auf einen 1920x1080 Monitor (ohne Performance-Verlust)

Wolfsblvt

Lt. Junior Grade
Registriert
Juli 2014
Beiträge
331
Okay, die Frage ist wieder sehr aktuell, und ich wollte schauen, ob es nicht tatsächlich eine Möglichkeit gibt.
Deswegen zitiere ich mich, jetzt als eigenes Thema zu dieser Frage:

Wolfsblvt schrieb:
Okay, nach längerem hin und her habe ich mich für den 34" Widescreen-Display entschieden. Letztlich hat mich die höhere Auflösung wohl doch mehr überzeugt, vor allem auch in der Anwendung außerhalb des Gamings.

Jetzt habe ich aber - vor allem aus Interesse - eine Frage, die vielleicht nicht ganz in diesen Thread passt, aber ich möchte nicht unbedingt einen neuen aufmachen.

Es gibt häufig mal Zuschauer bei mir in der Wohnung. Früher habe ich vollständig auf dem Fernseher gegenüber vom Sofa gezockt, das ging auch ganz gut. Jetzt mit dem neuen Monitor würde ich das eigentlich gerne nutzen und darauf zocken. Trotzdem wäre es irgendwie gut, wenn das Bild noch auf dem Fernsehr angezeigt werden würde, eben für die Zuschauer.
Dafür würde mir reichen, wenn der mittlere Ausschnitt des Bildschirms auf den Fernseher dupliziert werden würde.
Leider habe ich keine Funktion im CCC oder Windows selbst gefunden. Beim normalen Duplizieren wechselt die Auflösung auf dem Monitor auf FullHD, und das ist ja nicht das, was ich möchte.

Deswegen meine Frage:
Gibt es eine Möglichkeit, nur einen Ausschnitt von einem Bildschirm auf einen anderen Bildschirm zu duplizieren?

Weiß jemand eine gute Möglichkeit?
Das Bild am Fernseher sollte halbwegs flüssig sein, und am PC-Bildschirm sollte ich keinen großen FPS-Verlust haben.
 
Nicht so wie du es dir vorstellst. Deshalb nennt man es dublizieren. 1:1. Wie du es gerne hättest würde bedeuten das Spiele einem in 3440x1440 und einemal in 1080p berechnet werden müsste. Und da dies nicht gleichzeitg geht ist standard das beide Monitore die selbe auflösung bekommen. Demnach 1080p weil größer nicht möglich. Was du aber ggf. irgendwie realisieren kannst, und keine ahnung ob das ohne mehraufwand so einfach geht ist, das Spiel was du spielst auf den TV zu Streamen. Ggf übers interne netzwerk um latenz zu vermeiden.

Wenn Laptop vorhanden könnte man das wie gesagt mittels Streaming relativ easy auf den TV bekommen. mit Windows Boardmitteln bleibt dir nur die reduzierte Auflösung.

Nebenbei könnte dies auch mittels Capturing Karten, oder sowas ähnlichem evtl gehen. Keine Ahnung obs in dieser hinsicht evtl. TV karten gibt oder sowas die das bild weiterleiten. Die Skalierung übernimmt dann dein TV anstatt wie zuvor Windows.

Oder ganz einfach, sowas wie einen HDMI Splitter der aus einem Signal ggf. zwei machen kann. Wie gesagt ich hab keine ahnung obs so ein bauteil gibt aber logisch wäre das signal aus deiner gpu an zwei monitore zu senden ohne windows zu sagen das ein zweiter mit guckt. Da könnte HDCP ne rolle spielen weshalb ich diese Capture Karten angesprochen habe. die schalten sich ja auch nur dazwischen.


Generell sind beim Duplizieren kein FPS verlust groß zu erwarten. Das bild wird nur gespiegelt, also nicht zweimal gerendert.
Evtl. gibts ein Programm. Wenn du windows den bildschirm nur erweitern lässt behalten beide ihre native Auflösung. Evtl. gibts da n tool was quasi das Spiel anzeigt in nem seperaten fenster und das wiederum kannste dann auf den zweiten monitor schieben. Irgendwie so.
Hoffe einige denkanstöße gegeben zu haben. Technisch sollte das auf jeden fall gehen.

PS: evtl. hilft dir sowas hier:
http://www.amazon.de/Ligawo-HDMI-Splitter-2-fach-verteilt/dp/B005IFAU7A

Ob sich dabei die Auflösungen ändern oder dein TV Jammert das er das nicht anzeigen kann weil zu hohe auflösung, kann ich dir leider nicht sagen.
 
Zuletzt bearbeitet:
Kasjopaja schrieb:
Nicht so wie du es dir vorstellst. Deshalb nennt man es dublizieren. 1:1. Wie du es gerne hättest würde bedeuten das Spiele einem in 3440x1440 und einemal in 1080p berechnet werden müsste.

Ja und nein. Es würde mir ja schon ausreichen, wenn einfach die Mitte des Bildschirms auf den Fernseher übertragen werden würde, oder wenn der Fernseher es einfach selbst skaliert, wie es ja auch bei jeder einzelnen Blu-Ray mit ihrem Widescreen-Format ist.

Streaming hatte ich auch schon überlegt. Das In-House-Streaming von Steam zum Beispiel schien mir vielversprechend, aber ich glaube das dupliziert nicht, sondern transferiert das Bild einfach auf einen anderne PC. Einen Laptop hätte ich hier, das wäre nicht das Problem, aber ich brauche ja schon beide Bilder.

Was meinst du mit Capturing-Karten?
 
Wenn ich dich nicht falsch verstehe sprichst du hier von einem Tripple LCD setup? Also benutzt drei monitore? Dann würde das nicht gehen den jedes programm oder Bauteil geht immer von der kompletten auflösung aus. Alles andere wäre relativ rechenintensiv.

Falls nicht und ich hab da was missverstanden, dann würde ne Capturing karte gehen. Eine Capture Karte die mittels USb und hdmi qausi zwischen deinem Rechner und deinem Primären Monitor hängt. Diese fängt das bild ab und zeichnet es quasi auf deine auflösung die du willst auf. So wies alle Lets Player machen. Fraps nimmt kein mensch mehr für sowas. Die Capure karte übernimmt die Rechenarbeit der decodierung. Aber was fast alle diese USB karten haben ist ein programm, das mitgeliefert wird was dir qasi am Laptop dann live anzeigt was dein desktop spielt. Und das Laptop wiederum kannste dann am TV normal anstöpseln und das besagte programm dann auf vollbild einstellen.

Der clou an der sache is, das für das Live View kein aufnehmen nötig ist. Sondern einfach nur das mitgucken was du gerade zockst.

Fix ein Beispiel herausgesucht: http://www.amazon.com/Roxio-Game-Ca...ref=sr_1_6?s=pc&ie=UTF8&qid=1432413268&sr=1-6

Game_Capture_HD_PRO_Set_Up_Image.jpg

Also das wäre zumindest meine erste idee dafür gewesen. Das Emfpangene Bild am Laptop wäre eigentlich die volle auflösung oder eben 1080p wenn die karte nicht mehr kann. Ich kann aber nicht 100% sicher sagen ob man am laptop dann auch vollbild drücken kann oder sowas. Ist abhängig von der software, aber mich würde es wundern wenns nicht geht.
 
Zuletzt bearbeitet:
Nein, ich habe einen einzigen Bildschirm. Den LG Electronics 34UM95-P.

Dann könnte das eigentlich mit dem funktionieren, was du beschreibst.
100 Euro klingt jetzt erstmal recht teuer, aber vielleicht finde ich ja was vergleichbares günstigeres, oder ich spare ein bisschen darauf. Die Capturing-Karte hätte ja auch den Vorteil, dass ich das Teil dann auch direkt zum Aufnehmen nutzen könnte, sollte ich das mal brauchen, oder? Das heißt es hat gleich mehrere mögliche Anwendungsgebiete, wenn ich will.

Das heißt in dem Fall könnte ich mein Bild einfach entsprechend auf den Fernseher übertragen lassen. Das wäre eigentlich eine gute Lösung.
Wenn es tatsächlich keine Software-Möglichkeiten gibt, muss ich eben auf diese Hardware-Alternative zurückgreifen.
 
Hardware lösung würde ich halt empfehlen weil dadruch rechenlast gemindert wird. So müsste deine CPU alle händeln was die kleine box da macht. Und ja, durch Flashback kannste dann qausi jederzeit aufnehmen und verpasst auch nix. Weil die quasi rückwirkend aufnehmen können. Es gibt sicherlich unterschiedliche geräte unterschidlicher hersteller. Musst mal gucken, auch nach bewertungen usw. Aber die dinger sind echt praktisch. Auch eben für die Aufnahme und evtl. youtube seasions. je nach dem was du willst.

Es gibt auch sowas als Streamboxen aber da musst du dich mal kundig machen ob die das bild sowohl als auch ausgeben und nicht wie steam quasi das bild nur weitergeben und an nur einem monitor anzeigen. Du brachst quasi nur son HDMI-ZwischenMitgucktDignsbumms. :D Klingt doof aber sowas gibt es mit sicherheit. Und ist evtl. sogar billiger.

Aber wie gesagt, für die Capture Karten ist ein Laptop pflicht weil ohne gehts mit den dingern nicht. Wer dir da auch weiterhelfen kann sind die teilweise sehr versteckten Freaks in Elektronik ketten. MM oder Satrun oder expert. Da sind zumindest bei uns immer so experten anzutreffen die dir genau sagen können ob das geht weil die mit der materie dauerhaft bewandert sind. Muss man n bissl rumfragen, aber wenn die ggf. lösungen parat haben haste da auch gleich nen ansprechpartner wenns nicht funktioniert. Geld zurück usw. . Mann will ja das geld nicht ausm fenster ballern :)
 
Zuletzt bearbeitet:
Wolfsblvt schrieb:
Weiß jemand eine gute Möglichkeit?
Stell einfach für den TV die gleiche Auflösung ein, wie beim Moni. Falls die so nicht verfügbar ist, musst du halt einfach eine benutzerdefinierte auflösung erstellen. (Bei nVidia gehst du dafür in die NVIDIA Systemsteuerung>Anzeige>Auflösung ändern >anpassen)
Wolfsblvt schrieb:
Das Bild am Fernseher sollte halbwegs flüssig sein, und am PC-Bildschirm sollte ich keinen großen FPS-Verlust haben.
Beides wird nicht merklich langsamer sein, als nur am PC.
 
SheldonCooper schrieb:
Stell einfach für den TV die gleiche Auflösung ein, wie beim Moni. Falls die so nicht verfügbar ist, musst du halt einfach eine benutzerdefinierte auflösung erstellen. (Bei nVidia gehst du dafür in die NVIDIA Systemsteuerung>Anzeige>Auflösung ändern >anpassen)

Beides wird nicht merklich langsamer sein, als nur am PC.

Und wie sagt er nvidia das der TV 3440x1440 anzeigen soll? Das is n 1080p TV. Beim Dublizieren kannst du nicht zwei verschiedene Auflösungen einstellen sondern musst die nehmen die der tv in diesem fall kann also 1080p. Er will ja auf 3440x1440 Spielen am PC und die leuts sollen das am 1080p tv mitverfolgen. Das geht so aber mit normaler Dublizierung nicht es sei den er zockt auf 1080p.

Schon aus Skallierungstechnischen Gründen wird immer nur eine Auflösung genutzt.
Deshalb heißt es auch normal "Spiegeln"

Was anderes wäre das "Erweitern", da spielt die Auflösung keine rolle, ist aber sinnfrei in seinem anliegen.

Es sei den er regelt das mittels downsampling. Dann würde das evtl. gehen aber richtig leistung fressen. Also 1080p am Monitor vom pc einstellen, die 3440x1440 mittels downsampling anvisieren und dann beim zocken wieder seine 3440x1440 erreichen während der TV das auf 1080p wiedergibt. irgendwie so. Wäre mir frickeltechnisch schon zu blöd und wie gesagt zu rechenintensiv, aber könnte dann softwaretechnisch funktionieren.
 
Zuletzt bearbeitet:
Kasjopaja schrieb:
Und wie sagt er nvidia das der TV 3440x1440 anzeigen soll?
Gar nicht, er hat ja nur ne AMD. Sollte da bestimmt auch gehen.
Das is n 1080p TV
Deswegen ja die benutzerdefinierte Auflösung
Beim Dublizieren kannst du nicht zwei verschiedene Auflösungen einstellen
Deswegen ja die selbe Auflösung
sondern musst die nehmen die der tv in diesem fall kann also 1080p.
Bei nVidia geht es definitiv, man hat halt schwarze Balken oben und unten, da das Format anders ist.
Er will ja auf 3440x1440 Spielen am PC und die leuts sollen das am 1080p tv mitverfolgen.
Schon klar
Das geht so aber mit normaler Dublizierung nicht es sei den er zockt auf 1080p.
Wichtig ist nur, dass die Auflösungen gleich sind.
Es sei den er regelt das mittels downsampling.
Genau das ist mein Vorschlag
Dann würde das evtl. gehen aber richtig leistung fressen.
Quatsch, das kostet fast nichts. Er hat das Bild ja eh schon in 3440x1440, das muss nur verkleinert werden.
Also 1080p am Monitor vom pc einstellen,
Blödsinn, sein Moni hat doch 3440x1440
die 3440x1440 mittels downsampling anvisieren
Du weißt nicht, wovon du sprichst, oder?
Nein, sondern genau so wie ich es beschrieben hab.
Wäre mir frickeltechnisch schon zu blöd
Du empfiehltst stattdessen eine Hardwarelösung, die viel aufwendiger ist und Geld kostet und bei der die Qualität leidet...
und wie gesagt zu rechenintensiv
Ist es nicht, wie kommt man auf so einen abwegigen Gedanken?
 
simzep schrieb:
Schau mal hier http://www.reddit.com/r/DotA2/comments/120oqk/enlarge_your_minimap_and_mirror_it_on_a_second/c6r5ser da wir ein ähnliches Problem besprochen. Die Lösung funktioniert auch ganz gut aber benötigt ein wenig zusätzliche Rechenleistung.

Edit: Direkter Link zur Homepage des Tools

Die Tools klingen schonmal ganz gut. Ich werd das mal im Hinterkopf behalten und dann bei Gelegenheit austesten.
Danke, das hilft mir schonmal weiter!

SheldonCooper schrieb:
Stell einfach für den TV die gleiche Auflösung ein, wie beim Moni. Falls die so nicht verfügbar ist, musst du halt einfach eine benutzerdefinierte auflösung erstellen. (Bei nVidia gehst du dafür in die NVIDIA Systemsteuerung>Anzeige>Auflösung ändern >anpassen)

Beides wird nicht merklich langsamer sein, als nur am PC.

Wusste/wüsste nicht, dass der Fernseher das kann. Wenn er das kann, wäre das natürlich bei weitem das einfachste xD Ich meine wie gesagt, bei Blu-Rays rechnet er ja auch bereits runter auf das, was er anzeigen kann und hat die schwarzen Balken oben und unten. Das heißt er muss das ja irgendwie können.

Dachte bisher nur, dass beim Anschluss über HDMI der Fernseher seine Funktionen verliert, und nur noch als direkter Monitor fungiert. Ich werds auf jeden Fall mal austesten.

Das wäre letztlich ja die idealste Lösung. Das kostet ja null Leistung, und man sieht sogar das ganze Bild.
 
Wolfsblvt schrieb:
Wusste/wüsste nicht, dass der Fernseher das kann.
Zumindest bei nVidia kann man auswählen ob die GraKa oder die Anzeige die Skalierung vornehmen soll, das geht also auch wenn der Fernseher das nicht kann. Ich vermute mal, dass die GraKa sogar besser dafür geeignet ist.

Google einfach mal AMD benutzerdefinierte Auflösung und erstell dir für deinen TV die gleiche wie am Moni, dann duplizier deinen Bildschirm und sag uns, ob es funktioniert.
 
@ SheldonCooper

Hmm... Doch ist schon richtig so mit dem Downsampling was ich geschrieben hab, aber du hast natürlich recht. Ich hab da komplett in die falsche Richtung gedacht und mein Vorschlag da wäre viel zu aufwendig. Leistung kostet es dann natürlich auch keine. Und ja natürlich er hat eine AMD. Das ist mir föllig entfallen.
Wenn das Treiberseitg geht und bei CC kann man natürlich einstellen obs GPU Skalliert oder Anzeigen Skalliert abläuft dann ist so die softwareseite natürlich der hardware vorzuziehen.

Sorry für die Umständlichen Vorschläge meinerseits. keine Ahnung was ich da geraucht habe.
Auch ein dickes Sorry an den TE.... Sheldon hat hier recht.
Ich persönlich wusste nicht das man bei einer Duplizierung dem zweitgerät eine benutzerdefinierte Auflösung aufzwingen kann. Mein Fehler.
 
Zuletzt bearbeitet:
Kasjopaja schrieb:
Doch ist schon richtig so mit dem Downsampling was ich geschrieben hab
Oh, dann hab ich dich falsch verstanden.
Ich persönlich wusste nicht das man bei einer Duplizierung dem zweitgerät eine benutzerdefinierte Auflösung aufzwingen kann.
Das hat erstmal nichts mit der Duplizierung zu tun, das geht auch ohne.
 
SheldonCooper schrieb:
Oh, dann hab ich dich falsch verstanden.
Das hat erstmal nichts mit der Duplizierung zu tun, das geht auch ohne.

Ja wie gesagt hattest schon recht. Mein Gedanke war das er seinen Monitor auf 1080p stellt und dann das spiel auf die 3440x1440 downsampelt. dann hat er normale quali auf dem pc monitor und halt das downsampling bild am tv. So hat er dann auch keine rechenlast. Aber das is fölliger blödsinn. Wieso ich auf den trichter gekommen bin is mir immernoch schleierhaft aber manchmal sieht man den wald vor lauter bäumen nicht.

Die Duplizierung kommt danach, schon klar aber Spiegeln muss er ja das bild sonst zeigt doch der zweite gar nix an, oder wie meinst du das?
 
Zuletzt bearbeitet:
Mein Gedanke war das er seinen Monitor auf 1080p stellt und dann das spiel auf die 3440x1440 downsampelt.
Hier komm ich nicht so ganz mit. Wenn man Downsampling betreibt, dann stellt man doch den Moni auf eine höhere Auflösung und skaliert dann runter (down).

Kasjopaja schrieb:
wie meinst du das?
Ich meinte, dass benutzerdefinierte Auflösungen auch ohne geklonten Bildschirm möglich sind.
 
Richtig. Im meinem gedankengang macht er das ja wenn er seinen pc monitor auf 1080p stellt. 1080p wegen dem spiegeln der anzeige zum tv welcher nativ nur 1080p kann. Und downsampling daher weil ja dann sein monitor nur mit 1080p läuft aber durch das sampling auf 3440x1440 wieder normale quali anzeigt oder zumindest sollte.

Ja benutzerdefinierte anzeigen sind ohne klonen möglich das is klar, aber er muss den Bildschirm ja dann spiegeln damit seine freunde am tv zugucken können und er am pc monitor zockt. So will er das ja haben. Daher wusste ich nicht das man sagen kann der TV hat die und die Auflösung und das beim clonen die native Auflösung dann vom tv ignoriert wird. Ob das Funktioniert sehen wir ja dann. Mit pech wird die Benutzerdefinierte Auflösung beim Clonen ignoriert und das CC nutzt stur die nativen 1080p vom tv. Dann wären wir wieder am Anfang. Aber das sehen wir ja dann. Hab so ein Scenario noch nicht hier gehabt :)
 
SheldonCooper schrieb:
Wenn man Downsampling betreibt, dann stellt man doch den Moni auf eine höhere Auflösung
Kasjopaja schrieb:
Richtig. Im meinem gedankengang macht er das ja wenn er seinen pc monitor auf 1080p stellt.
Dann ist in deinem Gedankengang 1920x1080 größer als 3440x1400?
Und downsampling daher weil ja dann sein monitor nur mit 1080p läuft aber durch das sampling auf 3440x1440 wieder normale quali anzeigt oder zumindest sollte.
Vielleicht ist das ja bei AMD anders, aber normalerweise stellt man für Downsampling an einem Full-HD-Display z.B. 3840*2160 ein. Das wird dann RUNTERskaliert auf FHD.
Ob das Funktioniert sehen wir ja dann. Mit pech wird die Benutzerdefinierte Auflösung beim Clonen ignoriert und das CC nutzt stur die nativen 1080p vom tv.
Könnte sein, trotzdem sollte man das zuerst mal versuchen, bevor man extra Hardware kauft.
 
SheldonCooper schrieb:
Dann ist in deinem Gedankengang 1920x1080 größer als 3440x1400?

Nein. Das ist unabhängig von der Nativen Auflösung die der LCD wirklich kann. Wenn du den LCD auf 1080p stellst, betreibst du im prinzip downsampling wenn du dann dem spiel sagst es soll 3440x1440 berechnen. Den dann wird das Spiel wiederum auf die vorher eingestellt 1080p herunter skaliert. Aber durch den höheren Detailgrad den man dadurch ja gewinnen sollte wird es an seinem monitor normal aussehen. Beim Downsampling Vorgang selbst wird ja nicht von der theoretisch maximalen Auflösung ausgegangen die der lcd kann sondern ist abhängig von der Auflösung mit welcher der lcd tatsächlich betrieben wird. In meinem Fall wären das die zuvor festgelegten full hd. Die parameter kann man ja vorher festlegen mit welcher auflösung betrieben wird und welche gerendert werden soll. So kenne ichs von Nvidia.

SheldonCooper schrieb:
Vielleicht ist das ja bei AMD anders, aber normalerweise stellt man für Downsampling an einem Full-HD-Display z.B. 3840*2160 ein. Das wird dann RUNTERskaliert auf FHD.
Könnte sein, trotzdem sollte man das zuerst mal versuchen, bevor man extra Hardware kauft.

Wie gesagt, es wird auch nichts anderes gemacht. Um das zu erreichen stellt man den Monitor vorher eben auf 1080p und ingame natürlich auch. Fertig. 1080p auch deshalb, weil bei windows eigener Spiegelung ja ohnehin 1080p angepeilt wird zwecks dem TV.


Und wie schon gesagt, in dem fall gebe ich dir 100% recht, in diesem fall, wenns funktioniert ist die Softwarelösung klar der hardware vorzuziehen. Daran habe ich halt nich gedacht gehabt.
 
Zuletzt bearbeitet:
Wenn du den LCD auf 1080p stellst, betreibst du im prinzip downsampling
Da du anscheinend die Begriffe nicht kennst: Downsampling bedeutet in diesem Kontext, dass das Bild mit einer HÖHEREN Auflösung berechnet wird und dann RUNTER skaliert. Wenn du in einer NIEDRIGEREN Auflösung rechnest und dann HOCH skalierst nennt man das UPsampling.
Kasjopaja schrieb:
Wenn du den LCD auf 1080p stellst, [..] wenn du dann dem spiel sagst es soll 3440x1440 berechnen.
Das ist beide Male die selbe Einstellung!
kann man ja vorher festlegen mit welcher auflösung betrieben wird und welche gerendert werden soll. So kenne ichs von Nvidia.
Bei nVidia reicht es einfach im Spiel ne höhere Auflösung auszuwählen (entweder dank DSR oder Benutzerdefinierter Auflösung). Wo stellst du denn mit welcher auflösung betrieben wird ein? Meinst du damit die Einstellungen im Windows? Kann ja eigentlich nicht sein, weil das ja nichts mit dem Thema Downsampling zu tun hat.
 
Zurück
Oben