Ich persönlich würde noch cniht auf 4K gehen.
Ganz einfach weil die wenigstens Spiele dies unterstützen, weil man mindestens ein Gespann aus 2 High End Grafikkarten braucht, um halbwegs flüssig zu spielen, was in Summe samt dem Monitor sehr sehr hohe Kosten verursacht!
Zudem ist die Windows Skalierung alles andere als optimal, sodass dir viele Dinge möglicherweise zu klein erscheinen werden, durch eine Windows Skalierung aber - wie ich selbst erleben durfte - in manchen Programmen Schaltflächen verschwinden!
BSP: Im Büro, Paragraph Software.
Einer hat einen FullHD, Bildshcirm, aber glaub nur 22". Windows Skalierung 120% --> im Programme manche Spalten oder Schaltflächen weg --> unbedienbar!
Skalierung 110% --> noch immer!
Skalierung 107% --> noch immer!
Skalierung wieder zurück auf 100% --> alles ok!
Also ICH würde auf entweder FullHD (1920*1080 bei 16:9, oder 1920*1200 bei 16:10) bei 24§, oder auf WQHD (2560*144 bei 16:9, oder 2560*1600 bei 16:10) setzen.
Zudem beibt die Frage welches Panel (TN oder IPS, VAs sind teurer und zu langsam für schnelle games), zudem gibts jetzt noch GSync (nVidia exklusiv) oder Freesync (basiert auf dem freien VESA Standard Adaptive Sync, wird vn AMD und zukünftig auch von Intel unterstützt, ist frei von jeder Firma nutzbar, nur nVidia weigert sich dies zu unterstützen, die bleiben bei ihrem proprietären Mist GSync, wodurch beim Monitor Zusatzhardware notwenidig ist und die Kosten der Monitoren in die Höhe treiben. Für Adaptive Sync / Freesync muss nur der im Monitor ohnehin vorhandene Scaler zertifiziert sein (bzw Freesync unterstützen), dann funktioniert dies.
GSync Monitore unterstützen variable Bildwiederholfrequenzen (Hz) NUR mit neuen nVidia Grafikkarten und neue nVidia Grafikkarten unterstützen NUR GSync Monitore bei variablen Hz.
AMD unterstützt den freien Standard, und Freesync Monitore arbeiten zur zeit mit neueren AMD Grafikkarten zusammen.
Stand JETZT:
nVidia <--> GSync
AMD <--> Freesync
Zukunft:
Intel ab Skylake Nachfolger <--> Freesync
AMD <--> Freesync.
nVidia <--> GSync
Freesync / Adaptive Sync: Freier Standard, offen, keine Lizenzkosten, grundsätzlich von jedem frei nutzbar wie er lustig ist.
GSync: proprietäre nVidia Entwicklung, macht Zusatzhardware im Monitor notwendig, funktioniert NUR mit nVidia Grafikkarten zusammen.
--> Alle hoffen, dass GSync stirbt. Außer nVidia Fanboys.
Das selbe wie damals bei PhysX. nVidia fanboys schwörten darauf. In wie vielen Spielen kam es zum Einsatz? Wie weit wurde wirklich davon profitiert?
Nicht vorhanden udn egal, kam finanziell nVidia ziemlich teuer.
Spätestens wenn Intel Freesync unterstützt, es noch mehr Monitore auf dem Markt gibt, vor allem in absoluten Zahlen, werden auch die Preise für freesync fähige Geräte deutlich unter denen von GSync Monitoren liegen. Jetzt ist die Modellanzahl noch überschaubar und der Preisunterschied noch nciht so stark.
Early adopter Preise halt, das legt sich mit der Zeit!
Je höher die Auflösung, umso mehr Pixel muss die Grafikkarte berechnen, umso mehr Leistung der Grafikkarte ist notwendig.
Aber bis 2560*1600 sollte es mit den derzeitigen Karten locker rocken.
Von 4K würde ICH noch absehen.
Zweites Halbjahr 2016 könnte endlich wieder ein größerer Leistungssprung bei Grafikkarten anstehen, da endlich von der mittlerweile 3 Jahre alten 28nm (planar) Fertigung auf 14/16nm FinFET umgestellt wird. 20nm wurden übersprungen, hat sich anscheinend nicht wirklich ausgezahlt. Lieber 1-1,5 Jahre länger warten und auf 14 oder 16nm gehen.
Dadurch können die Chips deutlich kleiner werden und weniger Strom verbrauchen. Dadurch kann man mehr Shadereinheiten in den Chip packen, was - ein gutes Front-End des Chips, der die Shadereinheiten (=Arbeiter) mit Arbeit versorgt, vorausgesetzt - zu wensentlich mehr Leistung führt.
Außerdem wird dann HBM in zweiter Generatiuon verbaut, welche das derzeitige 4GB Limit (AMD Fury und Fury X) auf mindestens 8GB im Consumerbereich, samt der Taktrate (derzeit 500MHz) erhöht.
Neben AMD, die zusammen mit SK Hynix den HBM Speicher entwickelt haben, wird auch nVidia für deren zukünftigen Chip "Pascal" Zugriff auf HBM2 haben.
Man darf gespannt sein, wieviel Leistung der beiden Flaggschiffe von AMD und nVidia bis Weihnachten 2016 verfügbar ist.
Samt AMDs neue FX CPUs die auf der neuen ZEN Architektur basieren. Und Intels Skylake Refresh CPUs, namens Kaby Lake.
Auch directX12 Spiele wird es dann schon geben.
Alles in allem wird 2016 hoffentlich wieder spannend, im Gegensatz zu den letzten Jahren... (seit Intel Sandy Bridge aus dem Jahre 2011 und AMDs Tahiti GPUs (HD7950, HD7970, HD7970GHz, R9 280, R9 280X) hat sich nicht wahnsinnig was getan.
Wenn dann AMDs Fury X vs GTX980 Ti, AMDs Carizzo APUs, die nun in Notebooks verbaut werden.
Der Siegeszug der SSDs (war eh klar).
USB3.1 Typ C komt erst langsam und muss sich in den nächsten Jahren durchsetzen.
Aber sonst?
Sorry für Off-topic!
MfG
EDIT.
Ja, RAM auf 8GB aufstocken ist sinnvoll und damit bist du wohl noch einige Jahre auf der sicheren Seite.
Auch DDR3-1333MHz reicht für den Sandy Bridge, bzw ist dieser für schnelleren RAM gar nicht spezifiziert.
Also keinen Stress, alles ok.
Du solltest halbwegs gleiche Module einbauen, vor allem welche die die selbe Spannung benötigen!
Denn: die Module in den RAM slots, egal wieviele (1,2,3 oder 4) laufen ALLE mit den selben Werten!
Also MHz, Cl Werte, Spannung etc.
Was die Leistung betrifft: Alle auf kleinstem gemeinsamen Nenner.
Bspweise: ein Mix aus DDR3-1066MHz MOdule mit 1333MHz Module --> musst du auf 1066MHz (generell stellen, gibt keine einzelne Eisnetllungsmöglichkeit!) stellen, da die anderen beiden sonst instabil laufen werden.
Wenn die einen 1.5V benötigen (Sticker auf RAM Riegeln verraten dies), die anderen aber zB 1.65V, wirst du wohl auf 1,65V stellen müssen, da die beiden 1.5V Riegel sonst instabil laufen werden. Muss nicht sein, aber werden sie wahrscheinlich.
Die 1.5V Riegel die jetzt 1.65V kriegen, werden dadurch wärmer als notwendig. Zerstören wird die erhöhte Spannung sie hoffentlich nicht...
Sonst ein neues DDR3-1333MHz Kit, mit möglicht kleinen CL timings (kleinere Zahlen sind hier schneller!!) und maximal 1.5V nehmen!!
Nach Jahren im Notfall ein zweites, derartiges Kit für insg 16GB nachrüsten.
So, gute Nacht!
