Unabhängig von der Wahl, keine MSI Gaming X nehmen bei der 1060. Viel zu teuer, das bringt nur das P/L Verhältnis ins bodenlose runter.
336€ kostet es aktuell.
Du bekommst eine nur minimal schlechtere (wenn überhaupt, nur geringfügig spürbar) Gainward Phoenix / Palit Jetstream für 280€.
Mehr als 50€ unterschied.
Bei ner 336€ GTX 1060 ist das P/L deutlich schlechter, als bei einer 520€ GTX 1080 Palit jetstram.
Der AUfpreis wäre hier nämlich nur 54%, die Mehrleistung jedoch 70-80%.
Bei einer 280€ GTX 1060 wäre der Aufpreis 85%, und das P/L verhältnis wäre grob gleich gut, bzw geringfügig besser.
Faustregel: RX 580 / GTX 1060 für mehr als 300€ kannst du direkt pauschal aussortieren, weil einfach zu schlechte Leistung pro €.
Ein paar Infos fehlen aber hier:
- Freesync ist NICHT besser als G-Sync, wie frost21 behauptet^^" Seine Argumentation ergibt zwar sinn, aber es fehlen einige technische punkte.
G-Sync ist objektiv die bessere Technik. Die Richtlinien sind strikter, und müssen eingehalten werden. Das ergibt bei jedem G-Sync monitor die gleiche Nutzererfahrung.
Bei Freesync kann jeder Monitorhersteller ansetzen wie er will. Es gut implementieren, oder weniger gut (Kostenersparnis?!). Es gibt ne qualitative streuung. Wie bei den AUO IPS monitoren

Und das nicht nur hinsichtlich der Range (G.-Sync funktioniert grundsätzlich bis 1 fps runter, mittels frame doubling. Freesync nur, wenn LFC unterstützt wird. Bei manchen braucht es auch einige "tricks/hacks" um die Range zu verbessern.
Auch wie stabil framerates gehalten werden, ist bei Freesync oft schlechter (
Quelle). So hält G-Sync brav 140 fps mit Limiter ohne tearing/stuttering, während er bei Freesync hier kleinere Problemchen hatte, und das limit reduzieren musste.
Auf dem Papier ist die Funktionsweise, bzw was die technologien machen, die selbe. Aber es kommt auch drauf an, wie gut es implementiert ist^^"
DX12 klingt auf dem Papier auch wunderbar. Ist aber in der Praxis aktuell Quatsch mit soße.
- Der Anschaffungspreis der RX 580 + günstigerem Freesync Monitor ist günstiger, wie jeder sagt.
Aber gerne wird der Stromverbrauch ignoriert.
Während eine GTX 1060 mit 120w arbeitet, verbraucht eine ähnlich schnelle RX 580 bereits 200w~. Das muss auch bezahlt werden. Lass es halt 15€ im Jahr sein, oder auch 40€ im Jahr, jenachdem wie viel man Zockt. Aber über die Jahre gleicht sich das aus - sofern der Monitor lange genug überlebt.
z.B. 10 Jahre lang ne stromsparendere Nvidia nutzen, als ne hungrigere AMD (was ja je nach Preisklasse 80-120w unterschied ausmacht.. Vega 64 vs. 1080 sind 120w~ unterschied), wäre auf lange Sicht mit nvidia vermutlich günstiger unterwegs (und Leiser, weniger Hitze im Raum etc).
Im Schnitt sollte es sich aber +- nix geben ;-)
Liegt also bei dir. Oder je nachdem, welche der karten in deinen Games besser abschneidet (bzw Overwatch, da in LoL jede kartoffelkarte 144 fps halten kann)
- Für LoL wäre ne RX 580 / GTX 1060 sicher übertrieben. Für Overwatch definitiv nicht, wenn man auf WQHD geht. 1440p Einstellen, Grafiksetings auf Ultra~ und eine GTX 1060 schafft hier wohl nur um die 100~ fps rum.. Man muss hier schon ein paar kleinigkeiten reduzieren, damit die frames immer auf nem 142er Cap laufen^^
Allerdings ist Overwatch ein Game, wo man die reduktion der Grafiksettings eher kaum merkt - wenn man es nicht zu sehr übertreibt.