(VGA-Adapter zu) DVI-A Anschluss an -> DVI-I

Basinator

Lt. Junior Grade
Registriert
Jan. 2009
Beiträge
266
Hallo!

Ich habe gerade eine neue GPU eingebaut. Meine beiden Monitore haben beide VGA.

An der alte GPU hatte ich einen Monitor über einen DVI-A Adapter angeschlossen.
Meine jetzige GPU hat DVI-I. Es erscheint bei dem entsprechendem Monitor (der über Adapter) kein Bild. Bei einem Tausch der VGA-Kabel hat immer der Monitor funktioniert, der direkt ohne Adapter angeschlossen war.

Die alte GPU (GT430) hatte ebenfalls DVI-I.
Die neue GPU ist scheinbar die hier (AMD Radeon R7700):
https://www.amazon.com/Radeon-R7700-Ghost-Thermal-Technology/dp/B00M9L1KWA
(Konnte leider mit der dev_id nichts finden und CPU-Z war leider auch sprachlos bzgl. der GPU)

Ideen?
 
Zuletzt bearbeitet:
und die neue grafikkarte ist welche ?

aktuelle grafikkarten haben kein dvi-i sondern nur dvi-d
analog ist hemmunglos veraltet, somit auch die monitore
 
Siehe Edit.

Ist mir doch egal, ob es veraltet ist, ich möchte es benutzen. ("neue GPU" ist relativ...)
 
Grundsätzlich liest CPU-Z auch die Grafikkarte aus. (Gibt auch einen Tab dafür)
Edit: GPU-Z gibt in etwa genauso verwertbare Info bzgl. des Namens aus.
 
Einen DVI->VGA-Adapter kann man gar nicht in eine DVI-D-Buchse stecken, weil dort die Aufnahmepunkte für die 4 Analogpins fehlen, d.h. wenn der Adapter reinpasst, ist es auch eine DVI-I-Buchse. Die verlinkte Karte hat keinen VGA-Ausgang mehr, d.h. du müsstest hier beide Monitore über Adapter anschließen. Fotografiere mal die Anschlüsse, die die Grafikkarte hat und den DVI-Stecker des DVI-VGA-Adapters und poste die Bilder hier. Außerdem über GPU-Z herausfinden, welche Graka es genau ist.
 
ohne zu wissen welche karte es genau ist, ist das ganze nur kaffeesatz lesen

alles nur hätte, würde, wenn und aber.

cpu-z screens werden verheimlicht...
gpu-z screens werden verheimlicht...

lass dir doch nicht alles aus der nase ziehen
 
Zuletzt bearbeitet:
Bitte zeige einen Screenshot von GPU-z. Da kann man in der Regel sehr genau ablesen welche Karte es ist. Vor allem wenn du den Button "lookup" oben rechts drückst.
Wenn es eine totale NoName Karte ist: Bild vom Slotblech hinten mit den Anschlüssen machen.
 
Ok, der Lookup war hilfreich:
https://www.techpowerup.com/gpudb/b1386/xfx-hd-7750

Entgegen den Infos habe ich definitiv einen VGA-Ausgang.

qxn.png


SilenceIsGolden schrieb:
Einen DVI->VGA-Adapter kann man gar nicht in eine DVI-D-Buchse stecken, weil dort die Aufnahmepunkte für die 4 Analogpins fehlen, d.h. wenn der Adapter reinpasst, ist es auch eine DVI-I-Buchse. Die verlinkte Karte hat keinen VGA-Ausgang mehr, d.h. du müsstest hier beide Monitore über Adapter anschließen. Fotografiere mal die Anschlüsse, die die Grafikkarte hat und den DVI-Stecker des DVI-VGA-Adapters und poste die Bilder hier. Außerdem über GPU-Z herausfinden, welche Graka es genau ist.
Es ist eine DVI-I Buchse. Genau dieselbe wie bei der vorherigen Grafikkarte.
 
Zuletzt bearbeitet:
Du hast keinen Grafiktreiber installiert, deswegen wird sie nur als Standard-Grafikkarte erkannt. Lade dir hier von CB den AMD Crimson Treiber runter und installiere ihn.
 
Ah ok, ich dachte, der Windows-Treiber wäre ausreichend. Treiber manuell zu installieren kam mir sowas von Windows XP vor.
 
Nein, das ist nach wie vor nötig, weil die Windows-Treiber nur eine Grundfunktionalität bieten. Grafiktreiber muss man immer installieren, sonst hast du keine 3D-Beschleunigung, deshalb ist bei dir auch Aero nicht aktiv.
 
CB Treiber Seite
Legacy-Treiber runterladen..., da ich nicht damit rechne, dass es sich um eine 7800 handelt.
 
Zum einen gibt es keine Radeon R7700 Grafikkarte. Radeon R7700 bezeichnet eine Serie von Grafikchips.

Zum anderen sieht es so aus, daß die entsprechenden Grafikkarten von XFX einen DVI-I und einen DVI-D Ausgang haben. Wenn du also zwei analoge Monitore hast die beide mit digitalen Signalen nicht umgehen können kannst du nur einen davon anschließen.

Um dir ganz genau sagen zu können was deine Grafikkarte kann und was nicht müßtest du uns aber zuerst einmal das genaue Modell mitteilen.

Solltest du tatsächlich nur einen DVI-I Ausgang haben könntest du es höchstens mit einem DVI-D VGA Konverter versuchen. Das müßte dann sowas in der Art sein:

https://www.amazon.de/UGREEN-Aktive...coding=UTF8&psc=1&refRID=6H2SA31BQ1RDGZMQ3J4J

Ob die Dinger was taugen weiß ich aber nicht.

Nachtrag:

Es ist also die XFX HD 7750. Da gilt wohl leider auch, daß du einen digitalen und einen digital/analogen DVI Port hast.

http://www.xfxforce.com/en-us/produ.../amd-radeon-hd-7750-core-edition-fx-775a-cgfv
 
Zuletzt bearbeitet:
Laut dem Lookup von GPU-Z ist es eine 7750 und müsste laut der Downloadbeschreibung vom aktuellen Treiber noch unterstützt werden.

Edit:
Der TE schreibt aber auch, dass er definitiv einen VGA-Ausgang hat, d.h. ohne Fotos vom Slotblech der Graka mit den Anschlüssen kommen wir nicht weiter. Vielleicht ist die Karte irgendein ungewöhnliches OEM-Modell.
 
Zuletzt bearbeitet:
ThanRo schrieb:
Solltest du tatsächlich nur einen DVI-I Ausgang haben könntest du es höchstens mit einem DVI-D VGA Konverter versuchen. Das müßte dann sowas in der Art sein:

https://www.amazon.de/UGREEN-Aktive...coding=UTF8&psc=1&refRID=6H2SA31BQ1RDGZMQ3J4J

Ob die Dinger was taugen weiß ich aber nicht.
Würde da lieber nen Adapter für den Display Port nehmen, der Display Port ist nämlich genau für solche Spielereien gedacht und stellt auch immer für einfache Adapter (bis 1920x1200 @60Hz @8bpc) die Stromversorgung komplett selbst.
https://geizhals.de/?cat=kabeladapt...=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30

Bei DVI bin ich mir nicht sicher ob der immer auch ne Stromversorgung bietet (die brauchen alle aktiven Adapter...), Display Port hat spezifikationsgemäß immer eine.

Habe so ein Teil von HAMA an meiner 290X genutzt um meinen alten Monitor nutzen zu können, gab bisher absolut keine Probleme. Sogar EDID-Infos wurden weitergegeben, sodass sich der Adapter tatsächlich sogar als Videoseven D22W1 im Windows gemeldet hat (hat er über VGA nicht....).
 
Zuletzt bearbeitet:
Treiber installiert. Bildschirm wird leider immer noch nicht erkannt.

Solltest du tatsächlich nur einen DVI-I Ausgang haben könntest du es höchstens mit einem DVI-D VGA Konverter versuchen. Das müßte dann sowas in der Art sein:

https://www.amazon.de/UGREEN-Aktives...1BQ1RDGZMQ3J4J
Ich hatte vorher es funktionierend mit einem DVI-A Adapter angeschlossen an DVI-I betrieben.


...vielleicht ist auch einfach der DVI-Slot defekt.

Vielleicht sollte ich wieder die alte Grafikkarte (GT430 >_>) einbauen, egtl. habe ich sogar noch eine dritte rumfliegen, aber die ist zu lang und passt leider nicht in das Gehäuse, müsste dazu also alles umbauen. :/
 
Zuletzt bearbeitet:
Zurück
Oben