GTX1650 funktioniert nicht im Fujitsu Esprimo P2560

erich56

Lieutenant
Registriert
Dez. 2014
Beiträge
997
ich hatte in meinem ca. 8 Jahre alten Fujitsu Esprimo P2560 seit ca. 5 Jahren eine GTX750ti zu voller Zufriedenheit laufen. Die hat kürzlich den Geist aufgegeben, und ich wollte sie durch eine GTX1650 ersetzen.

Leider scheint dieses Vorhaben nicht zu funktionieren. Nach dem Einschalten des PC passiert folgendes:
Ich sehe am Bildschirm kurz dieses verwaschene Bild - siehe Beilage "GTX1650_boot". Danach kommt das Windows10-Logo auf blauem Hintergrund, und kurz danach wird der Monitor komplett schwarz, mit kurzer Einblendung "entering Power Safe Mode".
Allerdings ist es mir ein einziges Mal gelungen, das Bild länger aufrecht zu erhalten, für mehrere Minuten - dabei hat sich sofort der richtige Grafiktreiber runtergeladen und installiert, und ein perfektes Bild geliefert. Bis auch dann kurz danach der Monitor wieder schwarz wurde.
Weitere Boot-Versuche endeten immer wie eingangs beschrieben mit "entering Power Safe Mode" kurz nach Erscheinen des Windows10-Logos auf blauem Hintergrund.

Kurz als weitere Info: Der Bildschirm ist mittels VGA-Kabel angeschlossen, die Karte hat u.a. einen DVI-Ausgang wie auch Displayport-Ausgänge. Beide Möglichkeiten habe ich mittels entsprechender Adapter ausprobiert, ohne Erfolg.

Eine genaue Beschreibung des PC liegt hier als pdf bei, wobei ich außer der seinerzeitigen Aufrüstung der Grafik auf eine GTX750ti auch das Netzteil erneurt habe (450W), den ursprünglichen 2-Kern-Prozessor mit einem 4-Kerner ersetzt (Intel Core 2 Quad Q9550) und die ursprünglichen 4GB RAM auf 8GB erweitert habe.
Wie gesagt, mit der GTX750ti hat alles bestens funktioniert, bis zu derem kürzlichen Tod.
Derzeit werkt im PC ersatz- bzw. vorübergehenderweise eine ganz alte Grafikkarte, die ich gleich nach dem Kauf des PC eingesetzt hatte, nämlich eine ATI Radeon HD5450.

Hat jemand eine Idee, wo das Problem liegen bzw. wie ich dieses beheben könnte?
Ich hätte die Möglichkeit, die neue GTX1650 bis Mitte nächster Woche an den Online-Händler zu retournieren, sollte ich sie nicht zum Laufen bringen. Andersrum wäre es mir natürlich lieber.
 

Anhänge

  • ESPRIMO-P2560.pdf
    122,9 KB · Aufrufe: 212
  • GTX1650_Boot.jpg
    GTX1650_Boot.jpg
    62,4 KB · Aufrufe: 216
Was für ein Netzteil hast du denn verbaut?
Und welche Grafikkarte genau?
 
Vereinzelt kommt es vor das bei alten Mainboards neue Grafikkarten nicht funktionieren.
Eigentlich sind die Fujitsu recht umproblematisch, ich würde es mal mit nem Biosupdate probieren.
 
  • Gefällt mir
Reaktionen: C:\Defuse_Kit und coasterblog
snakesh1t schrieb:
Was für ein Netzteil hast du denn verbaut?
Und welche Grafikkarte genau?
Das Netzteil ist ein BeQuiet 400W (sorry, die obige Angabe 450W war falsch).
Die Karte heißt genau:

GIGABYTE GeForce GTX 1650 D6 OC 4G (Rev 1.0), 4GB GDDR6, DVI, HDMI, DP (GV-N1656OC-4GD)

Ergänzung ()

Fujiyama schrieb:
ich würde es mal mit nem Biosupdate probieren
hm, ich glaub mich zu erinnern, daß ich ein solches vor Jahren mal machen wollte, es aber keines gab. Müßte diesbezüglich nochmals genauer nachforschen.

Edit: war soeben auf der Fujitsu Support-Seite. Für den P2650 steht unter "BIOS": keine Ergebnisse gefunden. Genau das war offenbar das, was ich schon vor Jahren mal so gesehen hatte.
 
Zuletzt bearbeitet:
Ich finde von Gigabyte keine GTX 1650/1650 Super mit DVI Ausgang im Preisvergleich (gh.de), unter der angegebenen Artikelnummer schon gar nicht.
Wo wurde denn die Graka gekauft?
Edit: Die 1650 mit DVI habe DVI-D (rein digital....die ich mir angesehen habe). Da wirds nix mit einem Adapter auf VGA.
 
Wird Windows denn geladen und nur das Bild ist so oder friert der PC ein?
Solche Bildfehler treten häufig durch VRAM Problemen auf, dann wäre die VGA ein Fall für die RMA.
 
jenstv schrieb:
Seltsam. Laut Angabe in Post 4 hat die Karte 2x HDMI und 1x DisplayPort.
In Post 1 ist aber die Rede von DVI Port und per VGA Kabel angeschlossen?
sorry, hatte in Post 4 einen falschen Link eingefügt, habe das jetzt korrigiert.
also nochmals: der Monitoranschluß ist VGA, ich habe die Verbindung auf 2 unterschiedliche Arten hergestellt: 1 x mit VDI-VGA Adapter; 1 x mit DP-VGA-Adapter.
Ergänzung ()

snakesh1t schrieb:
Wird Windows denn geladen und nur das Bild ist so oder friert der PC ein?
Solche Bildfehler treten häufig durch VRAM Problemen auf, dann wäre die VGA ein Fall für die RMA.
Windows wird, soweit ich das beurteilen kann, geladen, der PC friert offensichtlich nicht ein.
 
DVI Adapter kann bei der von dir verlinkten Grafikkarte nicht funktionieren, da nur DVI-D. Da wird kein analoges Signal raus geführt. Welcher DP-DVI Adapter wird denn genutzt? Hast du die Möglichkeit die Grafikkarte an einenm Monitor der DVI/DP bietet gegenzutesten?
 
Das ist ein DVI-D Anschluss, der gibt kein VGA Signal raus. Was für Adapter werden da genau genutzt, den eigentlich brauchst du Konverter, ansonsten gibts nunmal kein Bild.
 
atari2k schrieb:
Edit: Die 1650 mit DVI habe DVI-D (rein digital....die ich mir angesehen habe). Da wirds nix mit einem Adapter auf VGA.
das ist der DVI-Anschluß - ja, ist DVI-D.
Allerdings frage ich mich, warum es dann genau dazu passender VGA-Adapter gibt, wenn das ganze dann nicht funktionierten sollte?
Und soweit ich mich erinnere, war die Karte genau über diesen DVI-D - VGA Adapter angeschlossen, als das eine Mal ein länger dauerndes Bild vorhanden war und sich dabei auch der Treiber runterlud und installierte.
Ergänzung ()

atari2k schrieb:
DVI Adapter kann bei der von dir verlinkten Grafikkarte nicht funktionieren, da nur DVI-D. Da wird kein analoges Signal raus geführt. Welcher DP-DVI Adapter wird denn genutzt? Hast du die Möglichkeit die Grafikkarte an einenm Monitor der DVI/DP bietet gegenzutesten?
Ich hätte einen Monitor mit DVI Anschluß, ebenso mit DP Anschluß. Nur im Moment keine entsprechenden Kabel dazu zu Hause, die müßte ich mir erst im Handel besorgen.

Frage: wenn das ganze mit DVI-D Adapter nicht funktioniert, wie würde es mit dem DP-Adapter aussehen? Denn diesen habe ich ja auch probiert, mit genau dem gleichen negativen Resultat.
Ergänzung ()

Mojo1987 schrieb:
Das ist ein DVI-D Anschluss, der gibt kein VGA Signal raus. Was für Adapter werden da genau genutzt, den eigentlich brauchst du Konverter, ansonsten gibts nunmal kein Bild.
Der eine Adapter ist ein brandneu gekaufter Lindy "DVI-D to VGA Adapter" (DVI-D male / VGA female), Art.Nr. 38189.
Der andere ein D-Lock "Adapter Displayport > VGA female", Art.Nr. 61766
 

Anhänge

  • dvi-Adapter.jpg
    dvi-Adapter.jpg
    403,8 KB · Aufrufe: 192
Zuletzt bearbeitet:
Der DVI Anschluss schaut mir nicht ganz gesund aus, um den Schlitz herum. Interessant wäre auch ein Bild von der DVI Seite deines genutzten Adapters. Bei DVI auf VGA Adaptern sind da neben dem Schlitz nämlich normal noch 4 einzelne Pins (DVI-I). Analog führen nur DVI-I und DVI-A (Bild aus wiki): https://de.wikipedia.org/wiki/Digital_Visual_Interface#/media/Datei:DVI_Connector_Types.svg

Displayport ->VGA benötigt einen aktiven Adapter (Konverter). Ein "passiver" Adapter geht hier nicht, siehe auch: https://www.heise.de/ct/hotline/Anschluss-Kuddelmuddel-entwirren-DVI-HDMI-DisplayPort-2500979.html
 
Um diesen Adapter als Fehlerquelle auszuschließen, wäre es hilfreich den Monitor direkt über DVI oder Display Port anzuschließen. Der Adapter scheint ein Konverter zu sein, d.h. ein aktives Bauteil, das aus dem Digitalsignal ein Analogsignal macht. Ein einfacher Adapter von DVI-I auf VGA würde in den DVI-Anschluss der Grafikkarte gar nicht eingesteckt werden können, weil die 4 Löcher für die Pins mit dem Analogsinal fehlen. Insofern kann es nicht der falsche Adapter sein, er kann defekt sein oder einfach Müll, aber der falsche kann es nicht sein.
 
atari2k schrieb:
Der DVI Anschluss schaut mir nicht ganz gesund aus, um den Schlitz herum. Interessant wäre auch ein Bild von der DVI Seite deines genutzten Adapters. Bei DVI auf VGA Adaptern sind da neben dem Schlitz nämlich normal noch 4 einzelne Pins (DVI-I). Analog führen nur DVI-I und DVI-A (Bild aus wiki): https://de.wikipedia.org/wiki/Digital_Visual_Interface#/media/Datei:DVI_Connector_Types.svg
Du hast völlig recht mit "DVI-Anschlu0 schaut nicht ganz gesund aus", da mir das Fehlen der von Dir erwähnten 4 einzelnen Pins gar nicht aufgefallen ist, als ich einen bei mir zu Hause herumliegenden "herkömmlichen" DVI-VGA Adapter anstecken wollte, was natürlich nicht funktioniert hat, weil dieser Adapter ja eben auch diese 4 einzelnen Pins hatte. Dabei bekam der DVI-Anschluß der Karte offenbar diese kleinen Kratzer ab.
Bei dem dann neu gekauften Adapter Lindy "DVI-D to VGA Adapter" (DVI-D male / VGA female), Art.Nr. 38189, sind diese 4 pins nicht vorhanden, und der Adapter ließ sich daher problemlos auf den DVI-Anschluß der Karte stecken.
Wie gesagt, ich hab mir dann auch den DP-VGA Adapter D-Lock "Adapter Displayport > VGA female", Art.Nr. 61766 neu gekauft, der ebenso wenig funktioniert hat.
 
erich56 schrieb:
der ebenso wenig funktioniert hat.
Die DVI > VGA Adapter sind zu 99% passive Adapter. Wenn also kein Analoges Signal aus der Buchse kommt (wie bei deiner Grafikkarte), kann auch kein analoges Signal per VGA beim Monitor ankommen.

Die DisplayPort > VGA Adapter sind dagegen aktiv. Strom kommt durch den DP Port, im Adapter werkelt ein Chipsatz (zb ANX9833), welcher das Signal umrechnet. Daher würde ich dem DP>VGA Adapter definitiv vorziehen.

Wenn aber an beiden Seiten HDMI/DP vorhanden ist, würde ich natürlich komplett auf jeglichen Adapter verzichten und einfach das passende Kabel kaufen...
 
Ein passiver DVI-VGA Adapter würde aber nicht in seine Buchse an der Grafikkarte passen, weil der Adapter die 4 Analogpins hat, aber die Löcher dafür in der Buchse fehlen. Am falschen Adapter kann es nicht liegen. Er soll den Monitor digital anschließen oder auch testweise den Fernseher nehmen.
 
Zurück
Oben