DVI-VGA Konverter Probleme

Enteroctopus

Ensign
Registriert
Okt. 2011
Beiträge
212
Hallo zusammen,
ich habe mir damals beim Kauf der R9 290 ebenfalls einen DVI-VGA Konverter gekauft. Mit diesem hatte ich allerdings bisher nur Probleme.
Ich habe es erst einmal geschafft das ding zum Laufen zu bringen. Allerdings nach einer Neuinstallation vor kurzem geht wieder gar nichts.

Problem ist folgendes:
Der Monitor wird zwar erkannt und gibt ein Bild, aber nach einiger Zeit (machmal mehrmals pro Minute) wird er neu erkannt. Dabei geht kurz das Bild weg und kommt danach wieder. Dummerweise werden dabei oftmals alle Desktopicons durcheinandergewirbelt. Außerdem werden Fenster die zuvor auf dem Monitor angezeigt wurden auf einen anderen (aktiven) Monitor verschoben.
Das ist extrem nervig und macht unnötig viel Arbeit. Abgesehen davon das ordentliches Arbeiten und insbesondere Spilen auf Vollbild so gut wie unmöglich ist.

Was ich damals gemacht habe um das ding zum laufen zu bringen? Ganz einfach, bei dem Konverter lag ein USB-Stromkabel bei. Allerdings hatte ich das gefühl das das Gerät zu wenig Strom bekommt. Also habe ich einen Stromadapter vom Raspberry Pi genommen, der 1 Amper liefert.

Damals ging es, nach der Neuinstallation jedoch nicht mehr.

Damals (als es funktionierte) wurde auch nicht der Monitor direkt erkannt, sondern der Adapter. Der nennt sich unter Windows einfach LONTIUM.
Das funktioniert auch heute noch, jedoch nur, wenn im VGA Anschluss des Adapters kein Monitor klemmt. Sobald ich den Monitor einstecke wird wieder der Monitor selbst erkannt um macht die oben genannten Probleme.

Hat jemand erfahrung mit dieser Problematik?

Nachtrag: Ich bin sowieso von der erkennung von Monitoren über die R9 290 entäuscht. Trotz das der Konverter im DVI-Port steckt wird er teilweise als HDMI-Gerät erkannt. Selbe probleme habe ich auch mit meinem AVR, der teilweise am DVI-Port erkannt wird obwohl er im HDMI-Port steckt. Schon seltsam die Erkennung...
 
Zuletzt bearbeitet:
Poste mal bitte was für ein Gerät du hast. Das hört sich nach allem an aber kein DVI-VGA Konverter.
 
Um welchen Monitor der Antike handelt es sich, dass dieser keinen digitalen Eingang besitzt und du ihn dennoch als Gaming Monitor benutzt?
Was für einen Adapter nutzt du und welche Grafikkarte (genaues Model) nutzt du?

EDIT: Klingt für mich wie ein aktiver DVI/VGA Konverter. Macht durchaus Sinn, falls die 290 garkein analoges Signal mehr über DVI mit ausgibt.
 
Zuletzt bearbeitet:
Lg flatron l1950sq ;)
Ergänzung ()

SaxnPaule schrieb:
Aha. Gehts etwas präziser? Auto ist von VW :freak:

Laut Produktfoto liefert die GraKa noch ein analoges Bildsignal mit aus: http://geizhals.de/gigabyte-radeon-r9-290-windforce-3x-oc-gv-r929oc-4gd-a1049151.html
Nimm den passiven Adapter der deiner Grafikkarte beigelegen hat und dann geht alles.

Falls keiner dabei war: http://www.amazon.de/Adapter-DVI-Ma...id=1413984743&sr=8-5&keywords=dvi+vga+adapter

Ich weiß nicht wie du darauf kommst das die ein Analogsignal ausgibt aber 2xDVI-D, 1x HDMI und 1x Displayport sind eindeutig Digital!

Im übrigen spiel der Monitor gar keine Rolle, denn generell soll ja der Adapter erkannt werden und nicht der Monitor. Wird er ja auch, nur sobald ich den Monitor einstecke wird wieder dieser erkannt. Keine ahnung wie ich es damals geschafft habe das nur noch der Konverter erkannt wurde...
Aber es hat damals schon funktioniert...
 
Zuletzt bearbeitet:
Guck hier mal bei DVI-I: Klick

Du musst die 4 Punkte um den Strick beim DVi Anschluss haben. Scheinbar auch nur die Gigabyte, meine Sapphire hat nur DVI-D.
Gruß Ecki
 
Dann musst du deine Grafikkarte genauer spezifizieren. Auf dem Bild zu der von mir verlinkten Gigabyte (Bild 2) sinds DVI-I Anschlüsse.

Wo wieder mal ein Auto Vergleich passt.

Ich fahre einen VW Golf...:freak:
 
Das sind DVI-D Anschlüsse!!!
Ergänzung ()

SaxnPaule schrieb:
Dann musst du deine Grafikkarte genauer spezifizieren. Auf dem Bild zu der von mir verlinkten Gigabyte (Bild 2) sinds DVI-I Anschlüsse.

Dann stimmt das Produktbild nicht.
(Die Abbildungen müssen nicht den tatsächlichen Produkten entsprechen)
 
Viele aktuelle GPUs habe keinen DVI-I Port mehr. Sehr viele. Dazu gehören auch viele R9 Karten.

Vermutlich ist es besser, eine kleine alte GPU einzubauen, die nativ VGA hat. Diese Konverter sind immer nur eine miese Notlösung.
 
Wie gesagt nimm den Adapter, der bei der Karte dabei war oder noch besser kauf ein neuen Monitor.
 
Ecki815 schrieb:
Guck hier mal bei DVI-I: Klick

Du musst die 4 Punkte um den Strick beim DVi Anschluss haben. Scheinbar auch nur die Gigabyte, meine Sapphire hat nur DVI-D.
Gruß Ecki

Wichtigster Satz bei Wiki

DVI ermöglicht die gleichzeitige Übertragung von analogen und digitalen Bilddaten.

Ich würde behaupten das dein Konverter die Grätsche macht. Wobei ich eh das Gefühl habe das du da völligen Blödsinn zusammengesteckt hast.
 
BlubbsDE schrieb:
Viele aktuelle GPUs habe keinen DVI-I Port mehr. Sehr viele. Dazu gehören auch viele R9 Karten.

Vermutlich ist es besser, eine kleine alte GPU einzubauen, die nativ VGA hat. Diese Konverter sind immer nur eine miese Notlösung.

Das kann es doch aber nicht sein. Ich habe ja noch die IGPU, aber das macht andere Probleme...
 
Wenn du wirklich nur DVI-D Anschlüsse hast, hast du jetzt 3 Möglichkeiten:

1) vernünftigen Monitor kaufen
2) ausrangierte Graka dazustecken, da du ja nicht auf dem Monitor spielst, die vermutlich beste Variante
3) neuen aktiven Adapter bestellen und schauen ob der funktioniert
 
SaxnPaule schrieb:
3) neuen aktiven Adapter bestellen und schauen ob der funktioniert

Sollte dies in Frage kommen bitte nicht nur 10 € ausgeben...
 
Cool Master schrieb:
Sollte dies in Frage kommen bitte nicht nur 10 € ausgeben...

Bitte antworte nicht mehr, denn es kommt bei dir zwar viel raus, aber anscheinend nichts rein! Guck dir den Link oben von Amazon an, das Ding hat keine 10€ gekostet...
Und halte dich bitte an die Herstellerseiten (so wie es sich gehört) und nicht an irgentwelche Werbefotos...

Ich arbeite seit über 20 Jahren in der IT und bin seit über 10 Jahren selbständiger Soft- und Hardwareentwickler, mich brau niemand über DVI und seine Variationen zu belehren.

Hier mal ein grade aufgenommes Bild:
Unbenannt.PNG
 
Bilder sind egal. Es kann auch eine DVI Buchse nach DVI-I Standard auf der Karte sein. Aber dennoch kein DVI-I liefern. Welche Karte hast Du genau? In den Specs steht, welche DVI Ports sie wirklich hat.

Und es sind 2 rein Digitale Ports.

1CzuG.png

Und was für ein Problem hast Du, wenn Du die iPGU nutzt? Das wäre die genau richtige Konfiguration. Die iGPU für den VGA Port nutzen.
 
ich würd mir über nen ordentlichen monitor gedanken machen ;)
 
Zuletzt bearbeitet:
BlubbsDE schrieb:
Bilder sind egal. Es kann auch eine DVI Buchse nach DVI-I Standard auf der Karte sein. Aber dennoch kein DVI-I liefern. Welche Karte hast Du genau? In den Specs steht, welche DVI Ports sie wirklich hat.

Exakt die oben verlinkte GV-R929OC-4GD
Ergänzung ()

sav1984 schrieb:
ich würd mir über nen ordentlichen monitor gedanken machen ;)

Warum? Ich schmeiße doch keine funktionierende Hardware weg...
 
und noch was:
wenn du ordentliche antworten erwartest, spezifizier bitte die hardware genau.

wenn du nur die verkaufsbezeichnung angibst, muss jeder der dir helfen will erstmal die herstellerseite durchforsten um zu einem ergebnis und damit einhergehend genauen specs zu kommen.
wenn man hilfe erwartet, sollte man auch genaue angaben machen und nicht nen halbgaren eingangspost schreiben und dann erwarten das die leute anfangen noch deine hausaufgaben zu machen weil du keine lust dazu hattest.


Ich arbeite seit über 20 Jahren in der IT und bin seit über 10 Jahren selbständiger Soft- und Hardwareentwickler, mich brau niemand über DVI und seine Variationen zu belehren.

dann wirst du das sicherlich gut alleine lösen können.
schnapp dir nen oszi und schau dir an was dein konverter macht.
jetzt wirds nämlich lustig...
da du vermutest das ein herkömmlicher aktiver dvi/vga konverter mehr als 500mA benötigt und du deshalb nen 1A rasperry pi adapter verwendest klingt alles andre als nach einem der irgendwelche erfahrung mit hardware hat ;)
hast du dir mal die dvi-specs angesehen ?
vermutest du eine heizung in deinem adapter oder denkst du der panelbus dvi receiver und der dac schlucken 2,5watt ? :D
was hast du 10 jahre hardwaremäßig entwickelt ?
a-stabile multivibratoren ?

ich bin raus, das wird hier peinlich ;)
 
Zuletzt bearbeitet:
Zurück
Oben