Upgrade für 1440p

Mort626

Lieutenant
Registriert
Feb. 2013
Beiträge
714
Hallo,

ich suche im Moment einen Ersatz für meine GTX 1060 6GB. Die hatte bisher für meinen FHD-Monitor super ausgereicht. Nach einem Monitor-Upgrade auf WQHD stößt sie allerdings an ihre Grenzen. Im Prinzip kommen ja die GTX 1070 (TI), die RTX 2060 oder AMD Vega (56) in Betracht.
Ich würde gern auf AMD umsteigen (Monitor hat Freesync). Von Vega wurde mir wegen dem Stromverbrauch abgeraten, die 2060 haben alle wegen den 6GB VRAM kritisiert, da bin ich jetzt ziemlich verunsichert.

Was würdet ihr hier empfehlen?
 
Hallo, ich habe die Vega 56 Red Dragon und spiele auch in 1440p auflösung, ich komme in keinem Spiel über 190 Watt falls dir die Info was bringt
MfG
s
 
  • Gefällt mir
Reaktionen: Mort626
oder man holt sich die vega56 Pulse von Sapphire, die ist nicht so stark übertaktet, nimmt das für aber weniger Strom. Selbst im Default BIOS ist das PowerTarget max 180W, im Alternativen BIOS sogar nur 165W
 
  • Gefällt mir
Reaktionen: Mort626
Freesync ist nicht mehr AMD only, ab übermorgen unterstützen die 1000er und 2000er Serie von NVIDIA das ebenso. Also musst du dich nicht auf Vega versteifen, ne 580/590 wäre kein wirkliches Upgrade. Würd gucken ob du günstig ne brauchte 1070 Ti oder 1080 schießen kannst
 
  • Gefällt mir
Reaktionen: Mort626 und Facepalm
noch bitte warten bis zum 7.Feb. Da kommt von AMD die Radeon 7 raus, mal schauen wie gut die wirklich ist.
Dann kann man sich vielleicht entscheiden ob eine 1070 / 2070 oder Vega / Radeon 7
 
  • Gefällt mir
Reaktionen: Mort626
Janz schrieb:
Freesync ist nicht mehr AMD only, ab übermorgen unterstützen die 1000er und 2000er Serie von NVIDIA das ebenso. Also musst du dich nicht auf Vega versteifen, ne 580/590 wäre kein wirkliches Upgrade. Würd gucken ob du günstig ne brauchte 1070 Ti oder 1080 schießen kannst

Betrifft das denn nicht nur ausgewählte Modelle an Bildschirmen?
 
  • Gefällt mir
Reaktionen: Verak und ReignInBlo0d
Ich denke auch @Janz sollte sich nicht so weit aus dem Fenster lehnen, bis wir die Treiber und vor allem die realen Ergebnisse gesehen haben. Sollte man nicht unbedingt jetzt seine Entscheidung fällen und stattdessen abwarten? Sicherlich! Aber davon auszugehen dass das ne absolut einfache Kiste wird, halte ich für naiv.
 
  • Gefällt mir
Reaktionen: Acedia23
@Memono nein, die handvoll ausgewählten Modelle aktivieren G-Sync dann automatisch. Bei allen anderen musst du das per Hand im Treiber machen.

Man kann generell davon ausgehen, dass es in 99,999999% aller Fälle keine Probleme gibt bei Displays die ne vernünftige FreeSync-Range haben weil das keine proprietäre Lösung ist sondern ein festgelegter Standard welcher auf dem VESA Adaptive Sync aufbaut. Der ist aber iirc nur für Displayport ab 1.2a (was sicherlich jeder Monitor haben sollte, ist von 2013) spezifiziert, also über HDMI kann es da sicherlich Problemchen geben auch wenn ne variable Refreshrate auch über HDMI möglich ist
 
Nvidia wird einen teufel tun und ihren standart nun einfach in den gulli kicken, die werden schon schauen das wirklich "gut" nur die freigegebene Monitore funktionieren.
 
Nvidia soll auf der CES auch einige Monitore gezeigt haben, wo es eben nicht so easy funktioniert hat sondern Flackern o.ä. aufgetreten ist. Würde deshalb bis Dienstag/Mittwoch warten, wenn vermutlich die ersten Magazine ihre ersten Ergebnisse raushauen
Aber @Mort626 wieviel Geld würdest du denn maximal ausgeben wollen? Und welches Netzteil hast du aktuell verbaut?
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: Acedia23, ReignInBlo0d und Hurricane271
Die Unterstützung von FreeSync hat überhaupt nichts mit der Aufgabe von G-Sync zu tun denn letzteres hat Vorteile gegenüber FreeSync (besonders G-Sync Ultimate). Wenn man natürlich nen Billigheimer Monitor hat welcher den VESA Standard für VRR nicht richtig unterstützt haste rein geschissen, das sollte klar sein

Warum NVIDIA das macht? Eben damit die Kunden mit nem VRR-kompatiblen Display nicht zur Konkurrenz abwandern, das hat rein gar nichts mit Nettigkeit zu tun. Rein wirtschaftliche Gründe und aus diesem Grund gibt es auch G-Sync Ultimate
 
  • Gefällt mir
Reaktionen: piquadraturist
Budget pi*Daumen bis 400€. Bisher hab ich 500 Watt verbaut.

Das mit Nvidia und FreeSync habe ich auch gelsen, das würde ich auch noch mal einiges ändern, wenn es funktioniert.
 
Mal meine ehrliche Meinung:
Ein Upgrade von einer 1060 auf eine 2060, 1070(ti) oder die Vega 56 lohnt sich m.M.n nicht, das bisschen mehr Leistung lohnt sich nicht für das Geld was du da rauswirfst.
Spätestens in 1 1/2 Jahren würdest du hier wieder einen Thread aufmachen weil du wieder eine stärkere GPU brauchst für WQHD.

An deine Stelle würde ich mir mindestens eine 1080/2070/Vega 64 anschaffen oder einfach noch warten bis Navi rauskommt dieses Jahr.
 
  • Gefällt mir
Reaktionen: piquadraturist, mieze123 und Mort626
Disqualifiziert sich die 2060 für WQHD aufgrund der 6GB nicht eh automatisch?
 
sehe ich ähnlich wie Markenbutter.

Noch ein bisschen sparen und die Radeon VII abwarten. Die RTX Karten wurden in den letzten Tagen ganz gut und "günstig" verscherbelt. Je nachdem wie die Radeon einschlägt oder auch nicht, könnten die Preise allgemein etwas sinken. Was du dann nimmst ist deine Sache. Aber um die 500,- im Angebot könnten für ne 2080 durchaus realistisch sein. Die Radeon VII pendelt sich enventuell auch günstiger ein als 700 Euronen um Konkurenzfähig zu bleiben.

Einfach mal die paar Wochen noch abwarten.
 
Ne Idee, wann Navi kommt?
Next Gen wäre für mich auch ein Argument, noch etwas zu warten.
 
Man rechnet mit 3./4. Quartal, aber willst du noch solange warten ? was die adaptive Sync Untersützung von Nvidia angeht, weis man auch nicht ob dies mit allen Freesync Monitoren und vor allem wie gut es funktioniert.

Welches 500W NT hast du verbaut ? Sollte für die Vega64 im Powersafe Modus vollkommen ausreichen, wenn es ein gutes Marken NT ist. Mit undervolting dann sowieso. Eine gute Vega56 (Pulse od. Red Dragon) bekommst du ab 360€, die Sapphire V64 bekommst du für 90€ mehr. Musst du wissen ob dir dies der Aufpreis wert ist.
 
hahaqp schrieb:
Disqualifiziert sich die 2060 für WQHD aufgrund der 6GB nicht eh automatisch?

jupp laut test sind die 6GB für WQHD viel zu wenig obwohl die GPU genug Power hat.
Ist schon traurig da man den Detailgrad runter schrauben MUSS, um nachladeruckler zu vermeiden.
Die frage ist wirklich was zum Teufel hat sich Nvidia da gedacht. 6GB Ram auf Graka´s sind nicht mehr zeitgemäß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mort626 und Verak
Zurück
Oben