1. #1
    Ensign
    Dabei seit
    Apr 2008
    Beiträge
    223

    HDMI Monitor wird nicht erkannt

    Guten Tag

    Ich habe folgendes Anliegen:
    Auf meinem Computer (System siehe Signatur) läuft Windows 7 Professional x64. Angeschlossen ist ein 19" Monitor über DVI und ein 40" Sony Fernseher über HDMI.

    Wenn ich den Fernseher ausgeschalten lasse bzw. nicht auf HDMI bin und den Computer anlasse, erscheint die Taskleiste natürlich auf dem 19" Monitor. Möchte ich den Fernseher nun aber via HDMI dazuschalten, wird dieser nicht erkannt. Es wird nur der 19" Monitor angezeigt. Nach einem Neustart (und am Fernseher HDMI 1 ausgewählt) wird der Fernseher als erweiterter Monitor dargestellt.

    Nun, wie kann ich machen, dass der Fernseher während dem laufenden Betrieb erkennt wird?
    Ein- und ausstecken des HDMI-Kabels funktioniert nicht.

    Für weiterführende Hilfe bin ich dankbar!

    Gruss WW
    Silverlight / Flash / iOS / Android ____ Developer

  2. Anzeige
    Logge dich ein, um diese Anzeige nicht zu sehen.
  3. #2
    Commander
    Dabei seit
    Mär 2010
    Beiträge
    2.163

    AW: HDMI Monitor wird nicht erkannt

    ich weiß nicht wie du zuschaltest, aber mit der Tastenkombination Strg+P kannst du ihn zuschalten...
    i7 920 - Asus P6T - 8GB G.Skill - Sapphire ATI HD 5870 - 500W Seasonic - 1 GB WD - TBS 8920 - Samsung P2450H - Microsoft Tastatur - Logitech MX 518 - Win 7 Ultimate - Aspire 5740G

  4. #3
    Commander
    Dabei seit
    Nov 2011
    Beiträge
    2.062

    AW: HDMI Monitor wird nicht erkannt

    welche Grafikkarte hast du im Rechner? deine Signatur sagt gar nichts...

    Du musst im Treiber bzw in der Software der Grafikkarte auf Multimonitor Betrieb stellen. Da kannst du auch auswählen, ob du das Bild clonen willst (selbes Bild auf beiden Geräten), oder du eines der Beiden Displays als zweiten Monitor nutzen möchtest, also du fährst mit dem Mauszeiger rechts aus deinem Bildschirm raus und er erscheint am Fernseher.
    Ist der Fernseher eingeschaltet (und eingesteckt), wird er auch vom Treiber erkannt.
    Einstellen, fertig.
    Danach brauchst du nie wieder etwas einstellen, Fernseher anmachen und das Bild ist da.
    Ist bei mir genauso, Monitor an DVI, Fernseher über MiniHDMI auf HDMI.
    GeForce Grafikkarte.

    rechtsklick auf Desktop --> NVIDIA Systemsteuerung --> Anzeige --> Mehrere Anzeigen einrichten.
    Alle angesteckten und eingeschalteten Displays müssten jetzt aufscheinen. Rechtsklick auf die Mitte, dort wo das Monitorsymbol/die Monitorsymbole sind und auswählen, was man möchte. ZB clonen, der Monitor ist die Primäranzeige.
    Habe ich zB so. Kann ich anderen Leuten was zeigen oder einen Film schauen.
    Aber bedenke: Haben beide Geräte eine andere Auflösung, wird trotzdem nur eine Auflösung bei beiden Anschlüssen ausgegeben!
    Also wenn ich mein Monitorbild clone (Samsung 226BW als Primäranzeige) (hat 1680*1050), wird genau dieses Signal (1680*1050) an meinen FullHD Fernseher (1920*1080) gesendet.
    Nur, damit du bescheid weißt.
    Schickst du dem TV eine niedrigere Auflösung, zB wie die alten 17" Monitore 1024*768, wird das Bild am TV matschiger sein, als auf dem Monitor.

    Ich selbst hatte auch mal heftiges Bildzittern in der Mitte des Fernsehers, als ich mein niedriger aufgelöstes Bild "rüberclonte", Film schauen war so ungenießbar. Mit einer folgenden Treiberversion war das aber behoben, war anscheinend nur ein Treiberproblem.

    Hast du eine AMD/ATI Karte im Rechner (die vorherige Anleitung war NUR für NVIDIA), müsstest du die "Anleitung" selbst googeln, gibts vl sogar hier im Forum. Wird aber sicher ähnlich funktionieren.


    PS: das mit Strg + P kenne ich gar nicht, naja, "per Hand" einstellen ist mir lieber, denn da weiß ich zu 100% was passiert undweiß, was ich da gerade eingestellt habe
    Win 7 Professional 64Bit, ASUS P5Q Deluxe, Core 2 Quad Q9400 (4x2,66Ghz @ 4x3,2Ghz), Thermalright HR-02 Macho, Arctic MX-4, 4x1GB Kinston HyperX DDR2-800Mhz Cl4-4-4-12 RAM, ASUS GeForce GTX660 Ti 2GB Direct CU II, X-Fi Xtreme Music PCI, 256GB Samsung 830SSD, 1TB Samsung SpinPoint F3 HD103SJ (7.200UPM/32MB), 3TB Seagate ST3000DM001-1CH166 (7.200UPM/64MB), Cooler Master CM690 II Advanced USB3.0, be quiet! Straight Power E9-480W CM ;; ASUS EEEPC 1000H 2GB ;; Moto G 16GB ;; Nexus 7 (2012)

  5. #4
    Ensign
    Ersteller dieses Themas

    Dabei seit
    Apr 2008
    Beiträge
    223

    AW: HDMI Monitor wird nicht erkannt

    Hallo zusammen

    Danke für die schnelle Antwort.
    Ich habe nun alles ein bisschen getestet.
    In meinem Computer wird die Grafik von der CPU genommen, es handelt sich um Intel HD3000.

    Es ist nun anders als ich geschildert habe und zwar:
    Auch nach einem Neustart wird das Bild auf dem HDMI Monitor nicht angezeigt und auch wenn der DVI Monitor ausgeschaltet ist, erscheint kein Bild auf dem HDMI Monitor.

    Erst wenn ich den DVI Monitor vom Computer trenne (Kabel ab), wird der HDMI Monitor, also der Fernseher, erkannt und auf diesem erscheint dann das Bild.

    Ich habe beim DVI Monitor gesehen, dass es sich um einen Nicht-PnP-Monitor handelt. Hat das mit dem zu tun?

    Was könnten hier für Ursachen sein?


    Gruss und Danke!
    Silverlight / Flash / iOS / Android ____ Developer

  6. #5
    Commander
    Dabei seit
    Nov 2011
    Beiträge
    2.062

    AW: HDMI Monitor wird nicht erkannt

    Hmmm, bin nicht sicher, aber bist du sicher, dass der im prozessor integrierte Intel Grafikchip wirklich aus 2 Ausgängen parallel ein Bild ausgeben kann?
    Bei den Intel Treibern für ihre (vermurksten) Grafikchips würde mich das nicht einmal wundern...

    Wie gesagt, ich weiß es nicht, da hilft wohl nur googeln oder ein anderer Kollege
    Win 7 Professional 64Bit, ASUS P5Q Deluxe, Core 2 Quad Q9400 (4x2,66Ghz @ 4x3,2Ghz), Thermalright HR-02 Macho, Arctic MX-4, 4x1GB Kinston HyperX DDR2-800Mhz Cl4-4-4-12 RAM, ASUS GeForce GTX660 Ti 2GB Direct CU II, X-Fi Xtreme Music PCI, 256GB Samsung 830SSD, 1TB Samsung SpinPoint F3 HD103SJ (7.200UPM/32MB), 3TB Seagate ST3000DM001-1CH166 (7.200UPM/64MB), Cooler Master CM690 II Advanced USB3.0, be quiet! Straight Power E9-480W CM ;; ASUS EEEPC 1000H 2GB ;; Moto G 16GB ;; Nexus 7 (2012)

  7. #6
    Ensign
    Ersteller dieses Themas

    Dabei seit
    Apr 2008
    Beiträge
    223

    AW: HDMI Monitor wird nicht erkannt

    Am besten wäre es, eine passive Grafikkarte einzubauen aber es kann nicht sein, dass der HDMI Anschluss an meinem Computer nicht funktioniert.
    Denn wenn ich über einen HDMI zu DVI Adapter den HDMI Monitor amComputer anhänge, wird er sofort erkannt. Ist der HDMI Ausgang defekt?
    Ich verstehs momentan leider nicht....
    Silverlight / Flash / iOS / Android ____ Developer

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •