RX 580 oder GTX 1060?

helfi3

Newbie
Registriert
Dez. 2017
Beiträge
3
Hallo Zusamman.

Werde demnächst ein neues System zusammen stellen. Prozessor wird ein (übertakteter) Ryzen 5 1600 sein.

Jedoch habe ich noch keine Erfahrungen mit AMD Grafikkarten. Daher nun meine Frage ob ich mich für eine GTX 1060 6GB (MSI X) oder RX 580 8GB (Nitro+) entscheiden soll. Hab gehört AMD Karten haben tendenziell mehr Probleme, stimmt das?

Spiele hauptsächlich Overwatch/LoL und hole mir je nach GraKa noch den Asus PG278QR (G-Sync) oder MG278Q (FreeSync).

Besten Dank im Voraus für eure Antworten :D
 
die frage wird hier ja nicht dauernd gestellt.

die karten sind im schnitt gleich schnell, die 1060 ist sparsamer, die 580 hat mehr speicher, Freesync ist deutlich günstiger. entscheide selber was dir wichtiger ist.

die 1060 Gaming X 6G ist zu teuer. viel mehr als 300€ sollte man für so ne karte nicht zahlen.
 
Zuletzt bearbeitet:
Beide Hersteller haben ihre Problemchen, jedoch sind die meisten Spiele für Nvidia optimiert. Wenn ich zwischen GTX1060 und RX580 wählen müsste würde eher die AMD nehmen. Ich glaube bei Nvidia wird früher oder später der VRAM zum Flaschenhals. Außerdem finde ich, das Freesync > Gsync ist, allein weil letzteres Proprietär ist und das gleiche nur für mehr Geld bietet.

Für Overwatch und Lol würde aber vermutlich ne RX570 oder ne 1050Ti völlig ausreichen. Da wären deine vorgeschlagenen sogar Overkill.
 
Rein preislich gesehen würde ich mich auch für die RX580 entscheiden da diese bei mir (Schweiz) günstiger ist und auch die FreeSync Variante des Monitor knappe 150CHF günstiger ist.
 
Das musst Du entscheiden - ich persönlich steh auf RAM - also 580er.
 
Wenn die 580 und auch der Monitor deutlich günstiger ist nimm die. Ansonsten zahlst du ja nur Aufpreis für keine Mehrleistung.
 
Unabhängig von der Wahl, keine MSI Gaming X nehmen bei der 1060. Viel zu teuer, das bringt nur das P/L Verhältnis ins bodenlose runter.
336€ kostet es aktuell.
Du bekommst eine nur minimal schlechtere (wenn überhaupt, nur geringfügig spürbar) Gainward Phoenix / Palit Jetstream für 280€.
Mehr als 50€ unterschied.

Bei ner 336€ GTX 1060 ist das P/L deutlich schlechter, als bei einer 520€ GTX 1080 Palit jetstram.
Der AUfpreis wäre hier nämlich nur 54%, die Mehrleistung jedoch 70-80%.

Bei einer 280€ GTX 1060 wäre der Aufpreis 85%, und das P/L verhältnis wäre grob gleich gut, bzw geringfügig besser.

Faustregel: RX 580 / GTX 1060 für mehr als 300€ kannst du direkt pauschal aussortieren, weil einfach zu schlechte Leistung pro €.


Ein paar Infos fehlen aber hier:

- Freesync ist NICHT besser als G-Sync, wie frost21 behauptet^^" Seine Argumentation ergibt zwar sinn, aber es fehlen einige technische punkte.
G-Sync ist objektiv die bessere Technik. Die Richtlinien sind strikter, und müssen eingehalten werden. Das ergibt bei jedem G-Sync monitor die gleiche Nutzererfahrung.
Bei Freesync kann jeder Monitorhersteller ansetzen wie er will. Es gut implementieren, oder weniger gut (Kostenersparnis?!). Es gibt ne qualitative streuung. Wie bei den AUO IPS monitoren :P
Und das nicht nur hinsichtlich der Range (G.-Sync funktioniert grundsätzlich bis 1 fps runter, mittels frame doubling. Freesync nur, wenn LFC unterstützt wird. Bei manchen braucht es auch einige "tricks/hacks" um die Range zu verbessern.
Auch wie stabil framerates gehalten werden, ist bei Freesync oft schlechter (Quelle). So hält G-Sync brav 140 fps mit Limiter ohne tearing/stuttering, während er bei Freesync hier kleinere Problemchen hatte, und das limit reduzieren musste.

Auf dem Papier ist die Funktionsweise, bzw was die technologien machen, die selbe. Aber es kommt auch drauf an, wie gut es implementiert ist^^"
DX12 klingt auf dem Papier auch wunderbar. Ist aber in der Praxis aktuell Quatsch mit soße.

- Der Anschaffungspreis der RX 580 + günstigerem Freesync Monitor ist günstiger, wie jeder sagt.
Aber gerne wird der Stromverbrauch ignoriert.
Während eine GTX 1060 mit 120w arbeitet, verbraucht eine ähnlich schnelle RX 580 bereits 200w~. Das muss auch bezahlt werden. Lass es halt 15€ im Jahr sein, oder auch 40€ im Jahr, jenachdem wie viel man Zockt. Aber über die Jahre gleicht sich das aus - sofern der Monitor lange genug überlebt.
z.B. 10 Jahre lang ne stromsparendere Nvidia nutzen, als ne hungrigere AMD (was ja je nach Preisklasse 80-120w unterschied ausmacht.. Vega 64 vs. 1080 sind 120w~ unterschied), wäre auf lange Sicht mit nvidia vermutlich günstiger unterwegs (und Leiser, weniger Hitze im Raum etc).
Im Schnitt sollte es sich aber +- nix geben ;-)
Liegt also bei dir. Oder je nachdem, welche der karten in deinen Games besser abschneidet (bzw Overwatch, da in LoL jede kartoffelkarte 144 fps halten kann)

- Für LoL wäre ne RX 580 / GTX 1060 sicher übertrieben. Für Overwatch definitiv nicht, wenn man auf WQHD geht. 1440p Einstellen, Grafiksetings auf Ultra~ und eine GTX 1060 schafft hier wohl nur um die 100~ fps rum.. Man muss hier schon ein paar kleinigkeiten reduzieren, damit die frames immer auf nem 142er Cap laufen^^
Allerdings ist Overwatch ein Game, wo man die reduktion der Grafiksettings eher kaum merkt - wenn man es nicht zu sehr übertreibt.
 
Vielen Dank für die Ratschläge und die ausführlichen Antworten.

Die Gainward Phoenix wäre auch mein favorit gewesen, jedoch passt diese nicht in mein Case (Phanteks Enthoo Evolv ITX).
Deine Argumentation bezüglich G-Sync finde ich interessant und nachvollziehbar, danke dafür.

Darkseth88 schrieb:
Wie bei den AUO IPS monitoren :P

Dies ist meine grösste Sorge beim Kauf eines Asus Monitors, jeodhc kaufe ich ihn bei einem lokalen Händler welche 10 STk. an Lager hat, soltte also passen :D

Bezüglich Energieverbrauch habe ich mich nun informiert, der Unterschied liegt bei fast 100W, das ist ganz schön viel :eek:
 
@Darkseth88

Zufällig 1080 Ti Besitzer? Natürlich mit Gsync Monitor, damit man auch das letzte halbe Prozent Vorteil gegenüber anderen hat.

Nichts von dem, was du schreibst, rechtfertigt sich. 40 € pro Jahr für ne Graka? So viel kann keiner zocken!

@TE:
Vergiss die Stromkosten, achte ein bisschen drauf, dass du keine laute Karte kaufst, das nervt irgendwann sehr! Lieber 20 € mehr zahlen.
Ansonsten ist es tatsächlich egal, denn die nehmen sich nix, wohingegen das Plus an Speicher der 580 für sich spricht. Auch in 1080p.
 
Zuletzt bearbeitet:
Nope, GTX 1080 (früher 1060, vor dem Monitor upgrade).
G-Sync selbstverständlich. Keine Ahnung was du mit "prozent vorteil gegenüber anderen" meinst (inputlag online? Ich spiel kaum online ;-) ), aber ich habe G-Sync weil es bedeutend flüssiger ist, als ohne - Für MEINE Augen. Witcher 3 z.B. oder Rise of the Tomb Raider kann ohne G-Sync für mich nicht flüssig sein. Dafür müsste ich auf Low runter, damit ich mit V-Sync nen 144 fps lock bekomme.


Warum soll sich das nicht rechtfertigen? Mit welcher Begründung / gegenargumentation denn bitte?
Hab vorhin für den Fall GTX 1080 (180w) vs. Vega 64 (300w) die Rechnung gemacht. Wenn du 3 Stunden pro Tag zockst mit 120w extra, macht das im Jahr 36€~ rum.
Lass es nun jemanden sein, der 4 stunden täglich zockt, hardcore gamer was weiß ich.
Dann hast du den G-Sync monitor ja nicht nur 12 Monate und kaufst nen neuen, den nutzt du 5 Jahre. 7 Jahre. evtl 10 Jahre, wenn er solange hält.
Wenn nach 4-5 Jahren 200-250€ ersparnis durch die Graka rumkommen, was durchaus realistisch sein kann, ist der G-Sync aufpreis ins nichts verpufft.

Wenn du dann noch lieber 24" statt 27" nimmst: https://geizhals.de/?cmp=1718510&cmp=1513909&cmp=1482112
Macht das 65€ aufpreis für G-Sync. 100€~ wenn man den "neuen" Acer mit reinnimmt, dessen Preis wohl aktuell ein "deal" ist.

Bei 120w vs. 200w wären das bei 3h täglich 25,3~€ im Jahr.
126€ in 5 Jahren (in der Zeit wird der Monitor eher nicht kaputt gehen).

Warum also sind <100€ G-Sync aufpreis sooo furchtbar schlimm, aber die Stromkosten sind völlig irrelevant? Weil man die nicht aus eigener Tasche zahlt? ;-)


Meiner Meinung nach: Wenn man schon die mehrkosten in der Anschaffung so verteufelt, trotz einer Lebensdauer von easy 5+ Jahren, sollte man auch den stromverbrauch in die Rechnung mit reinnehmen.
Wenn diese Kosten über all die Jahre summiert irrelevant sind.. Warum sind dann 100€ einmalig für 5+ Jahre g-Sync nicht irrelevant?

Das ist das selbe wie mit Elektroautos, wo "milchmädchengerechnet" wird mit 0g co² ausstoß. Aber den Ausstoß während der Entwicklung, Produktion, und Erzeugung des Stromes, mit dem das Auto fährt, wird da ganz ignoriert.

Und dabei war ich minimal zuvorkommend. Laut PCGH 06/17 liegt ne RX 580 nitro+ bei 208-215w stromverbrauch, je nach Game / Auflösung. ne GTX 1060 bei 115-120w.
Dazu der Stromverbrauch im Leerlauf, Multimonitor, Youtube etc, welcher bei AMD ein wenig höher ist.

Btw: 120w sind leichter zu kühlen als 200w. --> Die Modelle der 1060 sind tendenziell leiser und kühler als modelle der RX 580.


Ich will nur darauf hinaus, dass man im endeffekt nichts nennenswert gespart hat auf lange Sicht. Lass es auf 5-6 Jahre dann 20-30€ unterschied sein, völlig wayne.
 
Zuletzt bearbeitet:
Zurück
Oben