1920×2160 über Dual-Link-DVI?

Mein GDDR5 Einwand Bezog sich NUR auf eine neue GT 1030.

GENAU DAS
BlubbsDE schrieb:
Nein, Du bekämst zwei eigenständige Desktops nebeneinander dargestellt. Aber keinen einzelnen Großen.
Das würde eventuell mit Nvidia Surround gehen, aber das unterstützt deine Karte nicht.
 
Was heißt denn hier bitte unnütz? Nur weil nicht jeder weiß, daß HDMI die Datenrate für 2560×1600 anders erreicht als DL-DVI?

Ich weiß, daß sich das auf eine neue 1030 bezog. Aber gebrauchte 900er-Karten sind zum Teil unverschämt teuer, die 700er auch, oder können kein 4K. Außerdem will ich die Karte nicht hören (wirklich gar nicht, also kommen Lüfter mit mehr als 500rpm nicht in Frage).
 
Ok, dann machen wir ab hier weiter: wie viel willst du denn maximal ausgeben? Egal ob nvidia oder AMD Karte?
 
Ne, Linux, also Nvidia (ist angeblich einfacher). Unter 100€, am liebsten maximal 70€. Was brauche ich mindestens? GTX 930? 950?
 
muhl schrieb:
Nein, die 8600 reicht nicht.
Was willst du dann mit einer Adapterlösung die dich sinnlos Geld kosten würde :confused_alt:

Mein erster 4k war ein Dell der sich als Dual-Monitor per DP 1.2 gemeldet hatte. Das gab sowohl mit meiner alten Radeon 7870 als auch einer GTX 970 nur Probleme - Dell hat mir den umgetauscht und das Nachfolgermodell gesendet - das meldet sich nun als einzelner Bildschirm. Glaub mir, du willst kein PIP-Gedöns manuell zusammen frickeln. Insbesondere verstehe ich nicht wieso du dich gegen eine neue Grafikkarte wehrst aber ~600€ für einen neuen Bildschirm ausgeben kannst?
 
Ich will mir jetzt einen neuen Monitor kaufen, weil mein Zweitmonitor langsam den Geist aufgibt. Einen neuen Rechner will ich mir aber erst nächstes Jahr zulegen. Da werde ich dann vermutlich eine bessere Grafikkarte einbauen (vielleicht sogar eine 1080). Deswegen will ich jetzt keine 120–150 Euro ausgeben, für eine Karte, die ich in ein paar Monaten wahrscheinlich gar nicht brauche. Eine günstige dagegen würde ich in meinem jetzigen Rechner drinlassen, um damit auch NFS:Shift mit maximaler Grafik spielen zu können (vielleicht auch nicht, wenn Shift problemlos unter Windows 10 läuft, tat es aber unter Windows 7 schon nicht).

Wieso sollte mich eine Adapterlösung Geld kosten? Was für eine überhaupt, ich dachte ja, daß es mit zwei Kabeln getan ist, aber das Thema ist ja jetzt eh durch, weil es vom Signal her gar nicht geht. Allerdings hätte ich da nichts großartig manuell zusammenfrickeln müssen, zwei Monitore habe ich ja jetzt auch. Oder was meinst du?

Das mit deinem Dell verstehe ich daher nicht ganz. Wieso war das ein Problem, daß der sich als Dual-Monitor gemeldet hat?
 
Ganz genau weiß ich es noch nicht. Ich stelle gerade fest, daß zumindest manche Hersteller nicht in der Lage sind anzugeben, welche HDMI- und DP-Versionen sie verbauen. Weder auf der Webseite, noch im Datenblatt.
 
Zuletzt bearbeitet:
PickNick schrieb:
Nimm geizhals, da kannst du wunderbar deine Kriterien angeben, so z.B.
https://geizhals.de/?cat=monlcd19wide&xf=11967_HDMI+2.0~14591_38402160
https://geizhals.de/?cat=monlcd19wide&xf=11967_HDMI+2.0~14591_38402160
Danke, das kenne ich. ;-) Aber eigentlich ist die Version von HDMI/DP egal. Wenn das ein 4K-Monitor ist, wird der Hersteller schon das richtige verbauen.

Bei Grafikkarten bringt mir Geizhals leider nicht viel, weil da die älteren, nicht mehr erhältlichen, die ich gebraucht kaufen könnte, nicht aufgeführt werden (bei der gefilterten Suche).

Welche kämen denn generell in Frage? Leistung maximal wie MSI 570 TF III OC, dazu mindestens DP 1.2. HDMI 2.0 wäre nett, aber vielleicht wäre ein DVI-Ausgang sinnvoll, für einen alten Rechner. Der hat übrigens ein PCIe-2.0-Board, aber das sollte egal sein. Wenn die Karte nicht zuviel kostet, würde ich sie eingebaut lassen, wenn ich einen neuen Rechner kaufe. An den jetzigen würde ich dann zwar keinen 4K-Monitor mehr anschließen, aber die Karte wäre dann stromsparend und leise, von daher eher keine Verschwendung.

Die Karte darf auch nicht zu lang sein. 240mm wird schon sehr knapp mit den Kabeln, vielleicht gehen 260mm, wenn ich etwas umräume, aber mehr ist wahrscheinlich nicht drin.

Eine Karte wie die Asus STRIX-GTX750TI-2GD5 sollte eigentlich reichen, oder liegt die mit ihrer Performance sehr weit unter der übertakteten MSI 570? Die ist mit Shift nicht mal annähernd ausgelastet (laut Afterburner max. 60%).

PickNick schrieb:
Es gäbe natürlich auch noch die günstigste Möglichkeit: einfach den Monitor nur mit 1080p per DVI auf HDMI Adapter befeuern bis du dir den neuen Rechner gekauft hast.
Daran habe ich auch schon gedacht. Und dann bin ich eben auf die Idee mit zweimal DVI gekommen. Aber dann hätte ich wieder nur einen Monitor.
 
HDMI 2 gab es bei nVidia erst ab der 900er Generation. Und HDMI 2 ist auch eher unwichtig. Kein ordentlicher 4K Monitor hat nur HDMI 2. DP ist die erste Wahl.
 
Eben, lieber DVI.

Aber: Schafft die Karte 4K + FullHD, wenn auf der Asus-Seite steht, max. Auflösung ist 4096×2160? Bezieht sich das auf einen Port, oder auf alles zusammen? MSI schreibt bei manchen Karten 2560×1600 als Maximum, das kann sich ja nur auf einen Port beziehen. Ich kann mir nicht vorstellen, daß eine 750TI das nicht schafft, andererseits traue ich den Herstellern so einiges zu.
 
Die Angaben beziehen sich immer auf einem Port. Wenn man in Erfahrung bringen kann, welchen DP Standard eine GPU hat, dann kann man oft auch die Herstellerangaben in Sachen Maximalauflösung ignorieren. DP 1.2 kann definitiv 4K in 60 Hz. Oft sind die Herstellerangaben zurück haltend. Weil zu dem Zeitpunkt der Veröffentlichung auch gar keine Monitore zur Verfügung standen.
 
Bin noch unentschlossen:

Für den Preis einer neuen GT 1030 bekommt man auch eine gebrauchte übertaktete 770. Die wird beim Arbeiten auch nicht viel mehr Strom brauchen als die 1030, nehme ich an. Dafür ist sie beim Spielen deutlich schneller.

Ansonsten lohnt sich eigentlich nur eine gebrauchte 970. Die bekommt man im Moment für ca. 130€. Eine gebrauchte 1050Ti kostet etwa gleich viel, dürfte aber deutlich langsamer sein, im Desktopbetrieb aber kaum weniger Energie brauchen.

Nur mal laut nachgedacht:

Ich habe noch eine MSI GTX 570 TF III. Die ist mir zum Arbeiten zu laut. Entweder ich verkauf die wieder, oder ich bau sie in meinen jetzigen Rechner ein, wenn ich einen neuen kaufe und der jetzige zum Retro-Zock-PC wird. Wenn ich sie verkaufe, brauche ich in Zukunft (= neuer PC) einen Ersatz für die 570 im alten PC. Das wäre die, die jetzt schon für 4K reinkommt und dann drinbleibt, sollte also nicht zu teuer werden. Wenn die 570 in die alte Kiste kommt, kommt die 4K-Karte in den neuen Rechner (im März?) und soll auch für neuere Spiele reichen. Da wäre dann wohl eine 970 oder etwas besseres angeraten.

Für einen guten Preis gäbe es noch andere interessante Karten, aber langfristig wären die wohl deplatziert (unnötig schnell für den alten Rechner und dabei wieder zu teuer, andererseits zu langsam für aktuelle Spiele auf einem neuen Rechner). Außerdem weiß ich bei den 770ern nicht, wie leise die wirklich sind. Die 900er schalten die Lüfter ab, die 700er nicht, wenn ich das richtig sehe.

Das Problem ist: Die 970er von Asus und MSI sind so abartig lang (ca. 28cm!), daß ich sie kaum in meinen jetzigen Rechner bekomme.
 
Die GTX 570 unterstützt meines Wissens nach kein DP 1.2 und damit 4k nur @30 Hz.

Eine GTX 970 ist ganz ok (habe selbst die MSI), aber mit den 3,5GB VRAM und der generellen Leistung definitiv keine Karte für 4k Gaming, dafür aber - besonders mit manuellem Eingriff in die Lüfterkurve - recht leise.

Was für ein Gehäuse hast du denn wenn die Karte zu groß ist? Verglichen mit der 290/390er AMD-Serie ist die relativ kompakt.
 
Nein, die 570 will ich ja nicht für 4K benutzen, sondern würde sie im alten Rechner als Zockkarte einsetzen (nicht 4K). Zocken würde ich auch mit der 970 nicht unbedingt in 4K, eher mit 2560×1440. Das Gehäuse ist ein Lancool PC-K1. Manueller Eingriff in die Lüfterkurve geht vermutlich nur unter Windows, ich benutze zum Arbeiten aber Linux.
 
Zurück
Oben