Benmchmarking 2

2 Monitore über CCC anktivieren?

gino2780

Lt. Junior Grade
Registriert
Mai 2009
Beiträge
453
Hallo,

ich habe mir neben meinem 22" TFT Monitor nun einen 27" LED Monitor zugelegt.
Als Grafikkarte dient eine MSI 6850 Cyclone PE.
Den 22" hatte ich von DVI auf DVI an meine Graka angeschlossen.
Den 27" LED habe ich vorerst (da nur VGA und 2xHDMI Anschlüsse) mit VGA auf DVI an meine Graka angeschlossen.
Jetzt habe ich im CCC 11.3 versucht, den 27" Monitor zu aktivieren. Habe alle Optionen durchgeklickt, aber auf Anhieb keine gefunden, die den 27" zusätzlich aktiviert (Power ist natürlich on). Meine Frage ist nun, wie es mir gelingt, dass ich z.B. den Desktop auf den 22" habe und zum spielen gleichzeitig den 27" benutzen kann? Mein Kumpel hat das mit einer NVDIA Graka auch so konfigutiert, wie gelingt mir das mit meiner Konfiguration?
 
Öffne das CCC, such nach "detect monitor" (monitor erkennen) irgendwo unter nem menü ala display management (monitorverwaltung oder sowas). Wenn der 2. monitor aktiviert ist, müsstest du in diesem menü die option haben den zweiten monitor z.B. zu clonen oder zu extenden, und zweiteres ist genau das was du möchtest. Beim spielen hingegen wirst du auf probleme stoßen, da z.B. gewisse spiele die maus "einfangen" und selbst wenn nicht verlieren andere den focus wenn du auf dem 2. bildschirm arbeitest.

[edit]
Kurzer nachtrag: das selbe müsste auch mit windows gehen. Bei windows 7 machst du einen rechtsklick auf den desktop, auflösung auswählen und dort auf "monitor erkennen" drücken. Der zweite monitor sollte erkannt werden (wie im ATI CCC), wenn nicht, hat deine grafikkarte ein problem den 2. monitor zu erkennen (z.B. aufgrund dessen an welchem port dein aktueller primärmonitor angesteckt ist etc).
 
Zuletzt bearbeitet:
Auf Detect Display war ich schon. Wenn ich dadrauf drücke, dann erkennt er immer wieder nur meinen 1. Monitor 22". Quasi wie es vorher eingestellt war und weiterhin ist. Habe auch schon einen Neustart gemacht, hat nichts gebracht. Den 27" Display habe ich übrigens ohne Treiber angeschlossen (auch keine Treiber-CD vorhanden gewesen). Habe im Netz nach Treibern auf der Fujitsu-HP gesucht, aber keine gefunden. Da stand irgendwas, dass der Monitor von Bestandteil des Betriebssystems sei (habe Win 7 64bit), falls kein Treiber zum Produkt aufgelistet wird.
 
Ich habe den nur angeschlossen, keine Ahnung, wie ich den auf diesen Eingang eingestellt bekomme. In der Syssteuerung wird der Monitor btw auch nicht erkannt. HDMI Kabale kommt halt noch, wollte das jetzt mal so ausprobieren.
 
Ist das ein monitor oder ein TV? Tausch mal die anschlüsse und berichte ob dann beide oder nur der 27" läuft (oder gar noch immer der 22"). Eigentlich jeder monitor wird beim booten automatisch erkannt. Hast du den 27" monitor, wenn umstellbar, auf analog eingang gestellt? Kannst du bei deiner grafikkarte zwei DVI anschlüsse gleichzeitig betreiben? Welche anschlüsse hat denn deine grafikkarte überhaupt?
 
Ich habe jetzt folgendes gemacht:

1. DisplayFusion installiert.
2. Die Kabel umgesteckt. Habe den VGA auf DVI in den DVI Port der Graka gesteckt, wo vorher der DVI des 22" drin war und umgekehrt den 22" DVI in den zweiten, vorher unbelegten) DVI der Graka gesteckt und siehe da, es hat geklappt. Beim umstecken, wurde der 27" erkannt und beim einstecken des 22" wurde dieser danach auch erkannt. Jetzt werden auch beide monitore in der Anzeigeneinstellung so erkannt, dass er 27" 1. Monitor ist und der 22" daneben 2. Monitor. Jetzt muss ich nur noch Feintuning betreiben, da ich das Bild auf dem 27" nicht scharf genug finde.

Soweit also vielen Dank für euren fixen Input.
 
Du betreibst den 27 zöller mit dem vga adapter? Stell sicher das auch wirklich die native auflösung des jeweiligen displays eingestellt ist (ist meistens der höchste wert ;) ).

Das das bild nicht komplett scharf ist, glaub ich dir sofort. Deine grafikkarte produziert das bild digital, gibt es digital aus, der adapter wandelt es nach analog um, es wird analog übertragen, geht bei dir in den monitor rein und wird dort wieder von analog auf digital umgewandelt.
 
Ja, das Bild schaut zwar so ganz okay aus, aber nicht zufriedenstellend was Schärfe und Farben angeht. Ich hatte aber eh vor, morgen ein HDMI-DVI Kabel zu kaufen, damit ich alle Vorzüge des Monitors genießen kann :)
Trotzdem nochmals vielen Dank für die schnelle Hilfe, Anregungen und Tips!
 
Zuletzt bearbeitet:
Ich habe vor ein paar wochen glaub ich folgendes kabel für mein laptop gekauft:
http://www.amazon.de/Wentronic-HDMI...=sr_1_5?s=ce-de&ie=UTF8&qid=1307661107&sr=1-5

Will damit aussagen: du kannst dir die paar euro gegenüber dem "amazon kabel zeug" ruhig sparen und dir ein ziemlich billiges holen, solange es keine 20 m oder so werden ;). Im offline handel ist zubehör ziemlich teuer. Da darfst du vermutlich 20 euro oder mehr für nen kleines hdmi kabel ausgeben.
 
Theoretisch nicht. Entweder es funktioniert, oder es funktioniert nicht.
Würd das Amazon Kabel nehmen, das hat ne ausgezeichnete Quali.
 
Ob es einen unterschied gibt kann man so nicht feststellen. Keines der drei kabel hat eine spezifikation der hdmi version - vermutlich wäre das bei dvi auf hdmi eh augenwischerei.

Ob ein kabel besser ist als das andere, weil z.B. die kontakte vergoldet oder z.B. besser geschirmt ist, lässt sich so nicht sagen. Bei einem digitalen kabel mit geringer länge kann man wenig falsch machen. Bei längeren kabel kann es jedoch passieren, dass ein billiges kabel nicht die gewünschte qualität bringt.
Wenn dir wohler ist, das "amazon basics" auf dem kabel steht, dann kauf es ruhig. Ist vermutlich noch deutlich billiger als was du so im laden bekommst. Wenn es dir egal ist, kannst du zu den anderen greifenm Am ende werden die sowieso alle in china hergestellt ...
 
So, ich habe mir jetzt ein HDMI zu DVI Kabel zugelegt, das von Amazon. Dazu hätte ich noch zwei Fragen.

1. Wenn ich die Windows Bildschirmanpassung benutze kann ich die Auflösung auf dem 27" erwartungsgemäß auf 1920x1080 stellen. Wenn ich allerdings ins CCC gehe, wird dort unter Desktop Properties nur bis zur Auflösung 1650x1080 angezeigt. Darunter steht dann aber noch HDTV bis zu 1080p, nur wenn ich Letzteres im CCC aktiviere, wird der Bildschirm voll aufgelöst. Womit hängt das zusammen? Wieso kann ich im CCC nicht die Auflösung 1920x1080 anwählen?

2. Nachdem ich gestern CCC 11.6 installiert habe, hatte ich keinerlei Probleme. Habe ein bissl mit den Einstellungen rumgespielt, aber ohne großartige Veränderungen gesehen zu haben. Seit meinem ersten Boot heute morgen, wird die Schrift im Mozilla Browser unscharf angezeigt. Wenn ich auf den Desktop gehe oder ins CCC, wird dort aber alles scharf angezeigt. Woran liegt das bitte??? Das nervt nämlich total.

Edit zu 2.: Problem hat sich erledigt, nachdem ich DisplayFusion deinstalliert habe. Offensichtlich gabe es einen Konflikt zwischen dem neuen 11.6 CCC und der 'AMD Eyefinity Display Group' mit DisplayFusion, welches ich mit dem alten 11.3 CCC als Pendant dazu genutzt habe. Problem bzw. Frage 1. gilt aber immer noch :)
 
Zuletzt bearbeitet:
Zu "problem" 1:
Ich vermute das die von AMD die sachen in "Basic" und "HDTV" einteilen, weil die auflösungen von HDTV (720p, 1080p, ...) keine VESA grafikmodi sondern "videomodi" sind. Das KÖNNTE erklären, warum AMD die teile in nen extra menü auslagert. Vlt machen sie es auch nur damit der anwender denkt "boah HDTV". Außerdem liesten die dort keine auflösung sondern die zeilenanzahl wie z.B. 720p auf.

Es gibt noch ein anders menü (HDTV-Support), wo man HDTV erst zusätzlich aktivieren kann. Dies dient dazu um HDTV auf bildschirmen anzuzeigen, von denen der user weiß, dass sie es können, das gerät via EDID jedoch nicht meldet das es das kann bzw AMD diese daten vlt falsch ausliest.

Zu problem 2:
Für mich sieht das so aus, als wäre bei firefox der grafikfilter angesprungen und hat z.B. AntiAliasing auf firefox angewendet. Sollte es irgendwann noch einmal auftreten würde ich in diese richtung zuerst schauen.
 
Zuletzt bearbeitet:
Vielen Dank für die Hinweise. Trotzdem finde ich es verwirrend, wenn in der normalen Bildschirmanzeige die native Auflösung angewählt werden kann und im CCC nur bis 1680x1050, es sei denn man wählt die Option HDTV 1080p.

Ich habe z.B. in einem Spiel (America's Army 3) das Problem, dass ich die 1920x1080 im 16:9 Format nicht auswählen kann, ohne links und rechts schwarze Balken zu haben. Im 16:10 Format kann ich dann nur 1680x1050 auswählen, was dann nicht schön aussieht. Mag aber auch sein, dass das am Spiel liegt.
 
AMD Ryzen 9 9950X3D2
Zurück
Oben