Kann ich VGA übers Mainboard und HDMI über GPU gleichzeitig zum Laufen bekommen?

SSD Freak

Cadet 4th Year
Registriert
März 2020
Beiträge
78
Hallo,
Ich habe folgendes Problem und wollte hier lieber einmal um Rat fragen bevor ich meinen alten LED Monitor mit VGA Anschluss wegschmeiße.

Ich betreibe meinen Computer nur über meinen Samsung TV über HDMI Kabel (Grafikkarte ist die GTX 1080) und dort gibt es natürlich keine VGA Anschlüsse mehr.
Mein Mainboard hat allerdings noch ein VGA Anschluss (aber auch HDMI).
Nun wollte ich mal fragen ob es möglich wäre das ich meinen TV ganz normal über meine Graka weiter laufen lassen kann und zusätzlich noch meinen Monitor über das Mainboard über VGA zum laufen bekomme?
Probiert habe ich das einmal, allerdings ist das Bild schwarz. Ich nehme mal an weil die Grafikkarte eingebaut ist klappt das über mein Onboard nicht mehr.

Gibt es da irgendwie eine Möglichkeit das hinzubekommen?
Mir geht es nur darum das ich den Monitor mit VGA für ein Schreibprogramm nutzen möchte und für sonst ganz normal über meinen TV weiter nutze.

Kann man da irgendwas einstellen das beides "aktiv" ist oder was muss man da machen? Oder klappt das überhaupt nicht?
Kann ich dann auch beide Monitore (TV und den alten Monitor) gleichzeitig nutzen und sogar 2 verschiedene Bildschirme machen? Also z.B mit dem Monitor das Schreibprogramm o.Ä und mit dem TV gleichzeitig weiterhin den Computer nutzen?

Danke schonmal für eure Antworten.
 
Was hast du für eine CPU?
Die muss natürlich eine integrierte Grafikeinheit haben, sonst kann das nicht klappen.
 
  • Gefällt mir
Reaktionen: cosmo45
SSD Freak schrieb:
Mein Mainboard hat allerdings noch ein VGA Anschluss (aber auch HDMI).
Das hängt von deinem Mainboard und ggfls deiner CPU ab.
Wenn der VGA Anschluss ohne eingebaute GTX 1080 ein Bild ausgibt , wäre das eine guter Anfang.
Und dann braucht es noch eine Option im Mainboard Bios das die gleichzeitige VErwendung "beider VGA-Karten" ( Onboard+dezidiert ) unterstützt.
 
Ansonsten hat doch deine Graka bestimmt noch einen DVI Anschluss. Damit kannst über einen Adapter auch problemlos auf VGA gehen. Dürfte die wesentliche einfachere Lösung sein.
 
  • Gefällt mir
Reaktionen: Askaloth und Ray519
wichtig zu prüfen:
Mainboard-Hersteller verbauen heutzutage aus Kostengründen oft für verschiedene Baureihen das gleiche Back-Panel, das dann immer den VGA-Anschluss hat. Aber nicht jedes Mainboard hat auch die GPU dazu!

Um also die Frage beantworten zu können, ob aus diesem VGA Anschluss jemals was rauskommen kann, musst Du uns das Board und auch die verbaute CPU sagen ;-)
 
Es gibt keine 1080er mit Analogsignal.
Also bräuchte es einen aktiven Adapter.
Ansonsten nochmal: Was für ein Board/was für eine CPU?
 
Danke für eure Antworten. Hier erstmal nach den gefragten Daten:

CPU:
Intel Core i5 4460

Mainboard:
ASRock B85M Pro 3

Also ob VGA onboard (ohne Graka) funktioniert weiß ich jetzt gar nicht ausm Kopf. Ich hab über onboard damals wo ich noch keine Grafikkarte drin hatte nur über Onboard HDMI laufen gehabt (auch mein Samsung TV) und da kam ganz normal das Bild. Den Monitor hatte ich damals nie über VGA onboard dort angeschlossen.

Beim verlinkten Adapter oben steht aber das es nur von HDMI auf VGA geht und NICHT von VGA auf HDMI. Kann auch sein das ich das falschrum denke? Man konvertiert doch von VGA auf HDMI und nicht andersrum wenn man einen alten Monitor mit VGA Kabel hat oder?

Edit: Ahh okay, hab falschrum gedacht. Ja der Adapter würde dann wohl doch funktionieren. Da gibts auch noch einen der 1€ günstiger wäre (umso billiger umso besser, da es nur für ein Schreibprogramm wichtig ist)

Am liebsten wäre es mir natürlich wenn ich das ohne so einen Adapter hinbekommen könnte :)
 
Du hast also eine Onboard-Grafik.

Wie Maike23 sagt, musst du im BIOS aktivieren, dass beide gleichzeitig aktiv sind. Standardmäßig schaltet sich die Onboard-Grafik vollständig ab, wenn eine dedizierte GraKa verbaut wird.

Die Option heißt laut Manual "IGPU Multi-Monitor" und sollte unter Advanced / Chipset Configuration stehen.
 
  • Gefällt mir
Reaktionen: SSD Freak, Maike23 und Xes
Hallo, ich melde mich nach einiger Zeit wieder zurück. Erstmal nochmals vielen Dank für die Tipps. Hat auch alles einwandfrei funktioniert und ich kann sowohl meinen PC über HDMI über meine Grafikkarte laufen lassen, als auch (die Mainboard On Board GPU übers BIOS wieder angestellt) den VGA Monitor nutzen.

Nun ist mir aber seit längerem schon aufgefallen das der Computer langsamer läuft bzw. die Grafik eher "stockt" bei bestimmten Anwendungen die eigentlich kaum Anforderung brauchen.

Beispiel:
Ich kann problemlos über den TV über den VLC Player Filme/Serien schauen ohne jegliches ruckeln. Ich kann auch im Browser surfen und Videos schauen, alles kein Problem (wobei es bei zu vielen Anwendungen dann doch anfängt ganz leicht zu stocken).
Das Extrembeispiel:
Ich spiele ein Kartenspiel welches seit ich die Mainboard GPU angeschaltet habe doch ganz schön stark ruckelt. Nun habe ich gerade meine Wohnung umgestellt und der VGA Monitor ist auch gar nicht angeschlossen. Über CPU-Z werden mir natürlich trotzdem beide GPU´s angezeigt (meine GTX 1060 und dann die vom Mainboard).

Trotz das der Monitor überhaupt nicht angeschlossen ist (es also nichts über die Mainboard GPU läuft) ruckelt das Kartenspiel immer noch.

Mein Gefühl sagt mir das die Onboard Graka meine GTX Graka "runterzieht". Kann das sein?

Falls dem so ist, dann wäre es ja vlt am besten die Onboard Grafikkarte im BIOS wieder zu deaktivieren und versuchen meinen Monitor (der leider nur VGA hat) mit an meine GTX zu klemmen. Da dort aber kein 2ter HDMI Anschluss ist habe ich mal gegoogelt was das eigentlich da noch für Anschlüsse sind die meine GTX hat. Dabei handelt es sich insgesamt um folgende:

Geforce GTX 1060 6gb Anschlüsse:
Anschlüsse: DVI, HDMI 2.0b, 3x DisplayPort 1.4. Externe Stromversorgung: 1x 6-Pin PCIe. Abmessungen: 252x112x40mm.

Nun habe ich mir mal durchgelesen was eigentlich "Display Port" ist. Mit dem 1.4 kann ich jetzt nichts direkt anfangen, ich gehe aber einfach mal davon aus das es ähnlich wie bei USB dort neuere und ältere gibt.

Ich habe auch gelesen das Display Port dem HDMI überlegen ist. Bezieht sich das jetzt aber nur auf Monitore oder auch für TV? Denn diesen würde ich auch problemlos über HDMI weiter betreiben. Vielleicht aber gut zu wissen wenn ich mir mal einen neuen TV kaufe und ich dann gleich schaue ob ich evt. von HDMI auf Display Port umsteige, da ich sehr gerne Filme/Serien in guter Bild-Qualität gucke. Mein aktueller TV ist sowieso schon älter, hat also auch "nur" HD (720p), trotzdem sorge ich schon vor und habe immer wenn es geht direkt 1080p oder in seltenen Fällen auch mal 2k Filme. Da der nächste TV aber auf jeden Fall 1080p (oder etwas mehr, aber in meinen Augen nicht wirklich nötig) haben soll weiß ich eben nicht ob es da nochmal einen Unterschied zu HDMI und Display Port gibt (falls es überhaupt TV`s gibt die Display Port als Anschluss haben? Und falls nicht, würde sich da überhaupt ein Adapter lohnen? Im Prinzip bin ich mit HDMI was TV angeht voll und ganz zufrieden).

Zurück zum eigentlichen Problem:
Meine GTX 1060 hat wie gesagt nur 1x HDMI Anschluss und da ist der TV dran.
Dafür aber wohl Display Anschlüsse und einen DVI (wo ich jetzt aber nicht weiß welches DVI, aber das kann man sicher auch irgendwo noch rausfinden). "Leider" haben mich die Anschlüsse beim damaligen Kauf nicht groß interessiert, da nur geplant war den Computer über HDMI über den TV laufen zu lassen.

Es handelt sich hierbei immer noch nur um den Grund "Arbeiten" in Form von Textform und Browser etc. zu nutzen. Es werden auf dem Monitor also keine Games gespielt.

Jetzt ist die Frage. Gibt es überhaupt die Möglichkeit so einen alten Monitor der nur VGA hat mit einem Adapter zu versehen der Display Port hat um diesen dann an die GTX anzuschließen um dann die Onboard GPU wieder auszuschalten? Und lohnt sich das überhaupt?

Wichtig ist mir eben auch noch das ich dann trotzdem meine 2 Desktops behalte, sodass ich z.B auf dem TV auf Vollbild einen Film laufen lasse (z.B über VLC Player) und auf meinem Monitor dann einen 2. Desktop habe wo ich dann quasi wie jetzt auch nebenbei etwas machen kann ohne das es dann auf dem TV sichtbar ist?

Ein nochmal anderes Problem (was jetzt aber erstmal nicht ganz so wichtig ist ist), ist das ich am besten auch gleich noch ein "Verlängerungskabel" für den VGA Monitor brauche bzw. die Verbindung zwischen VGA auf Display-Port und dann noch ein ungefähr 3 Meter langes Kabel noch mit anfügen kann. Vlt gibt es ja solche Adapter sogar gleich für ziemlich günstigen Preis mit einem langen Kabel? Wie gesagt, ich möchte für den alten Monitor auch nicht deswegen extra viel Geld ausgeben (wer weiß wie lange der überhaupt noch hält) und es soll eben nur für Schreibprogramme etc. genutzt werden und nicht zum Zoggen. Ist so ein Adapter/Anschluss überhaupt möglich bei einem so alten Monitor? VGA auf Display Port hört sich dann ja doch nochmal ne Nummer "krasser" an wie auf HDMI (HDMI wäre mir im Prinzip auch am liebsten, da bräuchte ich nur den Adapter und im Optimalfall ein Verlängersungskabel, aber da meine GTX nur 1x HDMI hat fällt dieser Punkt weg. Aber Onboard die Graka ausschalten wäre schon nicht schlecht. Es läuft zwar, aber wie gesagt wenn ich dann doch mal Zoggen möchte ruckelt es doch ganz schön und da denke ich liegt es einfach daran das die Onboard GPU (Intel(R) HD Graphics 4600) meine GTX 1060 runter zieht und es daher kommt.

Ich bedanke mich schonmal im Voraus für die Hilfe (und natürlich nochmal für die Hilfe die mir bis hier hin schon gegeben wurde mit Erfolg)
 
HDMI und Displayport sind digital. Solange die Bandbreite und Bild-Konfiguration von der Schnittstelle unterstützt werden, sieht das Bild exakt gleich aus und es gibt keine Qualitätsunterschiede.
Displayport ist technisch viel komplexer und kann deutlich mehr. In der Vergangenheit war es auch das zuverlässigere, allerdings zeigen sich bei den neuesten Versionen genauso wie bei HDMI Probleme mit zu langen Leitungen und minderwertigen Billig-Kabeln.

Deine Grafikkarte kann 4 Monitore mit unabhängigem Bild gleichzeitig ansteuern und Displayport schreibt im Standard Adapter auf VGA vor (im Gegensatz zu HDMI), das geht also locker. Die Displayports an deiner Grafikkarte können sogar HDMI sprechen, so kann man mit günstigen Adaptern auch HDMI Ports draus machen, ohne irgendwelche Kompatibilitätsprobleme zu befürchten (außer dass diese Adaptierten Ports typtischerweise eine Stufe langsamer sind, als der native HDMI Port).

SSD Freak schrieb:
das die Onboard GPU (Intel(R) HD Graphics 4600) meine GTX 1060 runter zieht und es daher kommt.
"Runterziehen", naja. Windows sieht für Notebooks hybrid Grafik vor, bei der die Bildschirme an der Onboard Grafik hängen und diese alles macht. Und nur Spiele die von Windows / dem Nvidia Treiber erkannt werden, nutzen dann die große Grafikkarte. Das Bild wird dann quasi wie ein Video von der Nvidia GPU zur Onboard Grafik gestreamed und dort ausgegeben. Ob das so aber auch auf Desktopsystemen erkannt wird ist eine andere Frage.
In Windows sollte man darauf, welche Grafikkarte für welches Programm zuständig ist unter Einstellungen->Display->Erweiterte Grafikoptionen Einfluss nehmen können. Man kann dort Programme zu der Liste hinzufügen und auswählen welche Grafikkarte dieses Programm verwenden soll.

Bei mir habe ich keinen Monitor an der Onboard Grafik, kann diese aber erfolgreich für kleine Spiele als Ziel auswählen (und man sieht dann auch an der Last dass es so passiert).

Ich könnte mir vorstellen, dass Windows das Spiel nicht erkennt und dann automatisch versucht auf die "Energiesparende GPU" zu legen, wie es das auf Notebooks absichtlich macht.

Welche Monitore wo angeschlossen sind und welche Monitor Hauptmonitor ist, könnte beeinflussen was die Automatik hier tut.

Theoretisch könnten Programme sich auch manuell die GPU aussuchen, dann würde es am jeweiligen Programm liegen, wie es das macht.

Allgemein am problematischsten sind aber eigentlich nur Kopiergeschütze Videos oder bestimmte altmodische Video-Player die, um sich besser auf den Monitor abzustimmen, direkter mit der Grafikkarte reden und deshalb nicht von der modernen Windows Automatik erfasst werden...
 
  • Gefällt mir
Reaktionen: SSD Freak
Ray519 schrieb:
In Windows sollte man darauf, welche Grafikkarte für welches Programm zuständig ist unter Einstellungen->Display->Erweiterte Grafikoptionen Einfluss nehmen können. Man kann dort Programme zu der Liste hinzufügen und auswählen welche Grafikkarte dieses Programm verwenden soll.

Ray519 schrieb:
Ich könnte mir vorstellen, dass Windows das Spiel nicht erkennt und dann automatisch versucht auf die "Energiesparende GPU" zu legen, wie es das auf Notebooks absichtlich macht.

Ray519 schrieb:
Theoretisch könnten Programme sich auch manuell die GPU aussuchen, dann würde es am jeweiligen Programm liegen, wie es das macht.

Vielen Vielen Dank !!!
Es war tatsächlich die Einstellung vorhanden das Windows entscheidet welche GPU er für das oben genannte Spiel auswählt. Dort konnte ich dann jetzt meine GTX wählen und das Game läuft jetzt wieder 1A flüssig.

Ich habe zwar jetzt grad noch nicht den anderen Monitor angeschlossen, werde dies aber nachher mal anschließen und nochmal probieren. Ich denke aber mal das es keinen Unterschied macht, da die Einstellung ja trotzdem jetzt über meine GTX läuft. Theoretisch sollte das Game dann ja sogar auch über den Monitor der über VGA angeschlossen ist flüssiger laufen (soweit es VGA halt zulässt). Das war teils schon echt so störend (egal ob TV oder Monitor, wobei ich lieber über TV spiele da Bild einfach schön groß ist) das es an vielen Ecken und Kanten wenig Spaß gemacht hat.
So kann ich mir auch den Kauf eines Adapter sparen, denn für die Zwecke für die ich diese nutze (der Monitor wird ja nur hauptsächlich für Schreibprogramme und Browser genutzt) reicht es mir vollkommen aus wenn es so bleibt wie es ist. Und wenn ich mal wieder eine Anwendung, Programm o.Ä habe was haken sollte, dann weiß ich ja nun wie ich diverse Dinge über die GTX einstellen kann und nicht mehr Windows entscheiden lassen muss (Windows ist ja echt blöd wenn ich eine externe GPU habe und es sich dann für die onboard entscheidet bei Anwendungen oder Spielen die merklich ruckeln bzw. haken :daumen: ).

Desktop und Co. läuft ja sonst alles super. Sollte aber auch mal z.B der Browser wenn ich ein Youtube Video schaue und das haken/ruckeln sollte (müsste ich mal mit einem 4k Video probieren oder generell ob sich dort dann die Bild Qualität verbessert) kann ich doch auch die Browser einfach über meine GTX einstellen? Reicht es dafür nur die Exe/Anwendung auf GTX zu stellen oder sollte ich da einfach den ganzen Ordner verwenden? Bei besagten Spiel habe ich nun den Launcher und das Game (also beides Anwendungen) selber auf die GTX manuell geschaltet. Die restlichen Dateien/Ordner habe ich so belassen. Oder sollte ich dort auch lieber gleich den kompletten Ordner auf die GTX umstellen?

Ich gebe dann später nochmal eine Rückmeldung ob es auch funktioniert wenn ich den Monitor wieder über VGA ans Mainboard angeschlossen habe.

Aber nochmals vielen vielen Dank !!!

Edit:
Dann werde ich einfach mal meinen VLC Player auch manuell über die GTX einstellen. Wer weiß. Das Bild ist zwar gut und es ruckelt nichts, aber vlt wäre es trotzdem klüger wenn man hochauflösende Filme/Serien schaut. Den Browser (wie oben genannt) wäre dann ja auch besser über die GTX manuell zu stellen?

Im übrigen handelt es sich hierbei um einen ganz normalen Desktop/Tower PC und nicht um einen Monitor, aber klar die Energieeinstellungen etc. sind bei Win 10 nunmal trotzdem dort zu finden was den Energieverbrauch angeht.
 
Zuletzt bearbeitet: (Edit und noch etwas nach dem Edit nachgetragen.)
So hier das versprochene Update:
Es läuft auch mit angeschlossenen VGA Monitor über das Mainboard nun das Game komplett flüssig. Sogar auf dem VGA Monitor gibt es keinerlei Ruckler/Stocken mehr. Also in dem Fall nochmal besten Dank !!!

Den VLC Player (darüber schaue ich Filme und Serien) habe ich wie gesagt auch manuell auf die GTX eingestellt ohne das Windows da automatisch die GPU wählt. Gleich mal testen ob es da irgendwie einen Unterschied macht.

Nun ist noch die Frage:
Sollte ich meine Browser nicht auch lieber manuell auf die GTX umstellen? Immerhin laufen dort auch öfters mal YouTube Videos die ich mir (wenn möglich) logischerweise auch in höchster Qualität bzw. 1080p anschaue. Mir ist dort zwar bis jetzt noch kein so großer Unterschied aufgefallen aber wenn ich jetzt ganz scharf überlege kann es schon sein das es den ein oder anderen Ruckler gab. Das kann natürlich auch Serverbedingt sein oder auch einfach am Browser selbst liegen. Trotzdem, wenn ich schon eine GTX habe, dann wäre es doch eigentlich besser wenn ich alle Anwendungen die irgendwie mit Videos etc. zu tun hat manuell auf die GTX umstelle.

Beim Schreibprogramm (in dem Fall Libre Office, quasi das kostenlose Word) kann das ja ruhig so bleiben. Jegliche anderen Anwendungen nutze ich sowieso nur für Musik (Musik zu 99% den Windows Media Player) und da gehts mir ja um den Ton und nicht um das Bild. Oder würde das trotzdem Sinn machen auch diesen über die GTX laufen zu lassen? MP4 Videos sind dort ja auch manchmal zu sehen und das Problem (was mich schon immer gestört hat, aber das war auch schon so bevor ich 2 Monitore dran hatte) war/ist das sich die Bildfläche immer unterschiedlich groß einstellt. Packe ich dort z.B ein Lied rein (mit Video) ist es manchmal klein und ein anderes wird auf einmal so groß das es den halben/ganzen Bildschirm einnimmt. Das kann ich dann zwar teils umgehen indem ich auf Playlist anzeigen gehe, aber es ist trotzdem manchmal bisschen nervig das man nicht einstellen kann das die Bildgröße (bei egal welchem Bild) immer gleich bleibt, oder generell die Größe des Media Players einmal gespeichert wird (von mir aus auch mit kleinem Video/BIld links und Playlist rechts, aber sobald er geschlossen wird bzw. neues MP4 Video/Lied kommt ändert sich automatisch wieder die Bildfläche.

Das ist aber nun wirklich nur ein Luxus Problem und hat mit dem eigentlichen Thema nichts zu tun. Da kann ich mich zur Not auch selber nochmal schlau machen ob/wie es möglich ist das es immer gleich bleibt.


Die Frage ob ich den Browser und den Media Player etc. auch auf die GTX umstellen sollte besteht aber weiterhin.

Und auch wenn ich mich oben bereits schon bedankt habe, möchte ich das an dieser Stelle nochmal tun. So eine kurze und knackige Lösung die auch sofort funktioniert hat ohne großes Rumgefummel müsste es doch immer geben :D
Eine einfache Einstellung erspart mir mal eben den Kauf eines Adapters. Mit der Länge des VGA Kabels, nunja, da da muss ich mal schauen ob ich ein längeres VGA Kabel günstig irgendwo her bekomme.

Grüße
 
Zurück
Oben