Test Grafikkarten von Nvidia im Test: GeForce GTX 460, 560, 660, 760, 960 & 1060 im Vergleich

So, noch einmal ein Update der Tabelle. Jetzt ergänzt um den Leistungszuwachs zum direkten Vorgänger und zur jeweiligen Referenz.

Vergleich AMD NVIDIA6.JPG

Die *1-6 sind die Links zu den ursprünglichen Tests der Karten bei CB, daraus hatte ich die Werte "Vorsprung zu Release" entnommen. Links siehe Post #177.
 
Ich versteh immer noch nicht was man daraus lernen soll wenn man jetzt um FramesPS von Hardware schachert die vor mehr als 5 Jahren rausgekommen ist, aber eben nicht wirklich zum selben Zeitpunkt.

a) Was hab ich davon, wenn ein Spiel mit 8 oder 10 FPS ruckelt ? Darf ich mir dann aufschreiben das eine AMD/Nividia für Hardware von 2008 unter Windows 10 und einem Spiel von 2016 nun 20% Mehr leistet aber dennoch unspielbar ist o0 ?

b) Müsste man Aktuelle Preise vergleichen ? Oder müsste man nich vielmehr den Verlauf der Durchschnittspreise (monat) für ein Modell mit der Verkaufzahl in diesem Zeitraum gewichten und dann vergleichen ? Der Markt ist/war ja ziemlich dynamisch. Zudem sind Release und Retailpreise weder identisch, noch nachweislich immer im gleichen Verhältnis.

c) Warum werden Architekturänderungen nciht berücksichtigt? Welcher Chip von welcher Generation in einem der Mittelklassemodelle steckt kommt nicht druch. Entweder ist es ein Beschnittener Alter, oder ein Low-End neuer.
Ergänzung ()

Uh Edit:

d) Wer hat den EoL (Aktueller Spieleparcours >30 FPS avg) verglichen ? Hier würde der Zeitpunkt des größten Absatzes eines Modells bis zum ersten Test mit akueller Auflösung zählen

e) Wo sind die Ausfallraten der Modelle ?
 
matraj63 schrieb:
...
Die *1-6 sind die Links zu den ursprünglichen Tests der Karten bei CB, daraus hatte ich die Werte "Vorsprung zu Release" entnommen. Links siehe Post #177.
Der Fairness halber muss man aber auch erwähnen, dass die Angabe "Leistungssteigerung zur Referenz" bei AMD das Bild verfälschtt, da CB die 5770 und nicht die 5850, oder zumindest die gar nicht mal so tolle und erst später eingeführte 5830 *zwecks "Resteverwertung" von GPU*, verwendet hat.
Ähnlich auch die Leistungssteigerung zum direkten Vorgänger (5770 -> 6870)

Will sagen, CBs Wahl der 5770 ist für mich persönlich nicht nachvollziehbar.
 
Superzero schrieb:
Sorry liebe AMD-Fraktion, solch ein Gefrickel mit Vergleichen zu längst vergangenen Graka, wer sich daran aufbauen muss - Beileid, eine Graka zu feiern die erst irgendwann bessere Leistung bringt - auch mein Beileid. Denn zu diesem Zeitpunkt habe ich schon die nächste Generation nVidia gekauft, die wieder schneller ist und nach Abzug des Erlöses der alten Karte ist das nicht mal teuer...

Die Nvidia und AMD Pendants liegen meist auf gleichem/ähnlichem Leistungsniveau bei Markteinführung. Durch Treiberoptimierungen etc gewinnen die AMD eventuell ein paar % Leistungsvorteil. Also kann ich die Graka eventuell länger betreiben, ohne große Einbußen. Heißt: so eine Betrachtung kann durchaus ein indiz für kommende/aktuelle Generationen geben und fließt mit in eine Kaufentscheidung ein.

Allgemein für die Stromsparjünger, die jährlich ihre Graka tauschen:
Das Ökostromsparargument wird regelmäßig ad absurdum geführt. "Die Grafikkarte verbraucht weniger, ist dabei schneller und nach einem Jahr tausche ich sowieso wieder " ....euch ist bewusst, das der Unterschied in der Leistungsaufnahme weniger gravierend ist, als die Umweltbelastung bei der Herstellung einer Grafikkarte...man nennt sowas auch Heuchelei. Also wer seine Graka jährlich wechselt und immer noch mit dem Argument kommt... oh wait...man will ja das stromsparende Modell nur aus Eigennutz, um das eigene Kapital zu schonen...glaubt man zumindest.

Superzero schrieb:
Aber heh, ihr habt den "Krieg" in einer Excel-Tabelle gewonnen - leider ist es wie im Fußball , "was zählt ist auf'm Platz" und da stinkt AMD immer noch ab, aber man kann sich alles schön rechnen. Alternative Fakten heißt das wohl heute...

Die letzte Erinnerung an AMD (damals noch ATI) war, dass sie es ewig nicht hinbekamen ihren Leerlaufhunger zu begrenzen (Runtertakten RAM z.B.), ich hatte es dann einfach mal satt

Ach beim RAMruntertakten im Multimonitor betrieb gab es bei Nv auch Probleme (kann ich dir erzählen, da ich immer Nvidia hatte und eine ATI früher nie im leben in meinen PC gekommen wäre. Die 290x ist tatsächlich die Erste aus dem "roten Lager")

Wie AMD "auf'm Platz" komplett abstinkt versteh ich nicht. RX480 steht doch gut zur GTX 1060 da und umgedreht genauso.

Oder kann wieder jemand nicht differenzieren, dass die 1070 und 1080 eine Leistungsgruppe bedienen, welche AMD momentan gar nicht bedient?

Und welcher Krieg in einer Excell-Tabelle? Und wer ist "ihr"? Hier kann nur Nvidia oder AMD "gewinnen"bzw. "verlieren" aber nicht "ihr" oder "wir".
Da hat ein User zur Übersicht für Andere(Danke dafür!) die Werte in einer Excel zusammengeführt. Welche Schlüsse man daraus zieht muss jeder selbst wissen.
Du hast offensichtlich den Schluss gezogen, wenn man die nähere Vergangenheit betrachtet, dass die AMDs besser altern? Sonst könnte man ja nicht schlussfolgern, das irgendwer, irgendetwas gewonnen hat weil in einer Tabelle Werte gegenübergestellt werden.( selbstouting ftw)

Aber schön, dass du stolz drauf bist, dass Nvidia "auf'm Platz" direkt abgeht. Wo ist da jetzt deine Leistung? :evillol:
 
Zuletzt bearbeitet: (Rechtschreibung)
@nur ein Mensch
Noch besser als Gegner zur GTX460 hätte die HD 5830 gepasst, vom Releasezeitpunkt und Preis aus betrachtet..

@Zuckerwatte
Solchen Leuten ist nicht mehr zu helfen. Die Tabelle hilft vor allem denen, die von einem der getesteten Karten aufrüsten wollen. Wie Seridan mit seiner GTX760(vorherige Seite). GTX1060/RX480 sind gut doppelt so schnell. Punkt.
 
Zuletzt bearbeitet:
KTelwood schrieb:
a) Was hab ich davon, wenn ein Spiel mit 8 oder 10 FPS ruckelt ? Darf ich mir dann aufschreiben das eine AMD/Nividia für Hardware von 2008 unter Windows 10 und einem Spiel von 2016 nun 20% Mehr leistet aber dennoch unspielbar ist o0 ?

In deinem abgesteckten Szenario sind natürlich beide Karten für die katz. Was ist, wenn aber die 20% in vielen spielen die Grenze von unspielbar zu spielbar darstellt?

Keine Ahnung wie, aber ich habe einige Freunde, die sind noch mit ihren GTX 460/GTX 570 /GTX670 zufrieden und denken nicht mal an einen Neukauf. Es kommt eben immer drauf an was man, mit welchen Settings spielt. Um eine gewisse Vergleichbarkeit zu ermöglichen, muss man nun mal ein Testszenario erstellen. Dies kann natürlich weniger glücklich gewählt sein.
 
Ich hab eineGTX670 und bin voll zufrieden. Die hat etwa soviel gekostet wie jetzt eine GTX1060 und die ist doppelt so schnell.
Mit den Anderen Karten laufen League of Lol und Counterstrike bestimmt auch noch gut.

20% von 30 FPs (wenn wir das mal als Spielbarkeisgrenze nehmen) sind 6 Frames pro sekunde, oder in dem Testparcours mit MaxSettings wahrscheinlich die Darstellungsreichweite oder eine Stufe der Auflösungsverringerung. Frameeinbrüche und ruckler hat man dann garantiert mit beiden Karten. Wenn beide Karten überhaupt alle Grafikoptionen unterstützen. Darüber hinaus bedeutet Spielbarkeit am unterem Limit in einem Singleplayer für mich auch "keine Drops <15FPS " in der Framerate. Bei Multiplayerspielen wären das 40 und mehr.


Die Relative Leistung in Form von "DurchscnittsFPS" zu verlgleichen finde ich eh Schwachsinnig. Ein bischen weniger schwachsinnig als GFLOPS oder Speichermenge und Durchsatz zwar aber immernoch blöd.
Geht es um Spielbarkeit muss der relative FPS Unterschied schon größer sein, sagen wir 30 oder 40%, geht es um Leistungsfähigkeit in Spielen bei denen Beide Karten gute FPSwerte Erreichen (Für FHD bei 60Hz würde ich so 50-70FPs als "Satt" bezeichnen wenn die Min FPS nicht unter 40 gehen) dann ist der Relative Unterschied wiederum Egal. Ob ich nun 80 oder 100FPS hab. --> Wurscht.

TL;DR:

Relative und Absolute FPS Angaben sind immer tückisch, ja eine GTX1080 ist 60% Schneller als eine GTX1060. Wenn beide in 10 Jahren bei 10 und 16 FPS rumkrebsen dann hat sich die 3x teurere GTX1080 dennoch nicht gelohnt.
Wer heute aber in 4K spielen will...oder VR der muss schon ein bischen nachdenken.
 
KTelwood schrieb:
Relative und Absolute FPS Angaben sind immer tückisch,[...]
FACK
KTelwood schrieb:
Wenn beide in 10 Jahren bei 10 und 16 FPS rumkrebsen dann hat sich die 3x teurere GTX1080 dennoch nicht gelohnt.
[...]
Wieder ein Szenario abgesteckt...10 und 16 FPS. Interessant wäre, wenn beide 30-35 FPS schaffen, ob die Eine unter (die von dir gewählten) 15FPS fällt und die andere nicht. Wenn Karte A bis 15 FPS dropt und Karte B nur bis 20FPS dropt, könnte man Karte B eventuell noch als ausreichend betrachten, wobei Karte A deutlicher einbricht. Natürlich ist hier wieder die Frage, ab wann es für den Anwender subjektiv unspielbar wird.

Unterm strich bleibt: Balkendiagramme mit FPS-durchschnittszahlen können total irreführend sein.

(Bei 4K muss ich nicht nachdenken.. 1080, Titan XP oder einfach noch sein lassen :) )

Edit:
Und am Ende wird mit Beiden CS:GO/ Aoe o.ä. gespielt :D
 
Zuletzt bearbeitet:
Seridan schrieb:
Ich klinke mich jetzt hier einfach mal ein und werfe eine Zwischenfrage ein.
Spiele mit dem Gedanken meine GTX 760 durch eine GTX 1060 zu ersetzen. Zuerst die Frage was Ihr meint, ob sich in dieser Preisklasse (durch Vega) in naher Zukunft etwas tun wird oder sich die Preise eher bei der 1070/1080 ändern werden (ich weiß Glaskugel..., aber würde gerne eure Meinung dazu hören).

Ich würd definitiv die RX 480 der GTX 1060 vorziehen.

Vega wird wahrscheinlich noch länger nicht für unter 350€ zu haben sein.
 
Und Ich würde definitiv die GTX 1060 der RX 480 vorziehen.
 
Steff456 schrieb:
cypeak schrieb:
ähm...auf welchem planeten?
die inflation war in den letzten beiden jahren und 2009 sehr moderat - dafür '07, '08, '11, '12 sehr deutlich über 2, bzw. 2,5%
dagegen ist z.b. bei den löhnen in der industrie/maschinenbaubranche _seit_ '09 eine lohnerhöhung um 4,2% (insgesammt!!) erfolgt; dazu noch vor allem bei den führungskräften/gutverdienern mit ca. 4,7% überdurchnittlich gut. das ganze stand mitte 2016 - also ca. 0,6% per anno.
wer rechnen kann merkt dass die reallohnentwicklung mit sicherheit kein wachstum erfahren hat - und das bereits ohne effekte wie die kalte progression...
(wenn man das ganze noch im niedriglohnsektor durchspielt ist es geradezu ein witz von reallohnsteigerungen zu sprechen.. ;) )

ich weiss dass das offtopic ist - aber die entsprechenden daten und zahlen kann man alle mit minimalem aufwand alle ergoogeln..z.b. bei statista.de - insofern kann ich das märchen kaum unkomentiert lassen..

zum tehema selbst. ja..der euro hat gegenüber dem dollar in den vergangenen jahren ordentlich federn lassen - und zusammen mit der inflation ist der effekt in der tat nicht unerheblich. allein die inflation macht seit 2010 rund 7,5% aus - wechselkursbereinigt wohlgemerkt!
auch bedenke man dass der euro mitte märz 2014 noch bei knapp unter 1,40 dollar stand! (im april 2008 waren es sogar knapp unter 1,60!!) - und heute irgendwo um 1,05-1,08. ich merke es bei meiner firma wenn wir entsprechende halbleiter und arm-soc's einkaufen....


Sorry fürs Offtopic, aber dazu muss ich was sagen. Man kann für die berechnung der Reallohnentwicklung keine einzelnen Bereiche herausgreifen. Das Statistische Bundesamt weist von 2010 bis 2015 ca 7% Reallohnerhöhung aus (Index 100 ins Jahr 2010 verschieben) und von Q3/2015 bis Q3/2016 nochmal 1,8%, also insgesamt sind wir locker bei 8% und das sind offizielle Zahlen. Natürlich sind einige Bereiche vorhanden, bei denen der Reallohn nicht gestiegen ist oder sogar gefallen, aber im Durchschnitt ist er um die genannten Prozent gestiegen. Und wenn man von den 180€ der GTX460 bei 1€:1,35-1,40$ auf einen heutigen Kurs von ca 1€:1,05-1,10$ rechnet und die Inflation von knapp 7% kommt man auf ca. 250€ und dafür gabe es schon oft eine GTX1060 6GB.


Und weil ihr beide so wenig Geld zu haben scheint, habt ihr euch jeder eine GTX1070 gekauft, die ja auch nur runde 450€ kostet
 
oldmanhunting schrieb:
Und Ich würde definitiv die GTX 1060 der RX 480 vorziehen.

Kommt mMn auf die Nutzungsdauer an.

Wenn man sagt, im Sommer kaufe ich eh was neues, dann wäre es ziemlich egal. Da würde G/F-Sync entscheiden, oder die "Vorliebe", wie zB Lautstärke usw. G/F-Sync würde aber auch auf 2-3j entscheiden, war nur n Beispiel..^^

Sagt man, ich gebe 250-300€ aus und will damit 2-3 Jahre zocken, führt kein Weg an der 480 vorbei, man vermuet immer, dass die Karten länger gut bleiben, dank der AMD-Treiber..meine letzte AMD war die 5850, aber die Tests belegen ja gute Werte..
 
Zuletzt bearbeitet:
Caramelito schrieb:
Kommt mMn auf die Nutzungsdauer an.
Nicht wirklich, die RX 480 wäre auf jeden Fall eher zu empfehlen, es sei denn jemand stören 15 Watt mehr Verbrauch....

Oldmanhunting ist nur eingefleischter Nvidia Sympathisant. Es müsste "Nvidia Geforce RX 480 8GB" heißen, dann passt es :)
 
Talmi schrieb:
Die GTX 460 als 192Bit / 768 MB hatte ich damals für einen Kumpel mit ausgesucht, als sie noch relativ frisch war (um 2010f.)

Ein bisschen kam der knappe Speicher ins Gehege, aber prinzipiell wurde ihr damals assistiert, dass sie mit 2x MSAA durchaus und völlig ausreichte...eine Zeit lang.

Sie kostete damals um die 160 € (MSI Cyclone), ein leises und feines Kärtchen, das besonders für Star Craft 2 und Witcher EE passte, also alles Nvidia-freundliche unter der Sonne.

Genau diese Karte rennt bei mir heute noch. :-)
Und solange ich keine Nachteile feststelle wird die wohl auch nicht ersetzt. Man muss ja nicht jede Generation mitnehmen.
 
KTelwood schrieb:
Die Relative Leistung in Form von "DurchscnittsFPS" zu verlgleichen finde ich eh Schwachsinnig. Ein bischen weniger schwachsinnig als GFLOPS oder Speichermenge und Durchsatz zwar aber immernoch blöd.
Geht es um Spielbarkeit muss der relative FPS Unterschied schon größer sein, sagen wir 30 oder 40%, geht es um Leistungsfähigkeit in Spielen bei denen Beide Karten gute FPSwerte Erreichen (Für FHD bei 60Hz würde ich so 50-70FPs als "Satt" bezeichnen wenn die Min FPS nicht unter 40 gehen) dann ist der Relative Unterschied wiederum Egal. Ob ich nun 80 oder 100FPS hab. --> Wurscht.
Ich verstehe dein Problem nicht. Schau dir die Excelliste an. Da sieht man z.B. das eine GTX 660 in COH2 oder COD gegenüber der vergleichbaren AMD Karte genau das darstellt. Mit der einen noch "gut" spielbar mit der anderen ganz bestimmt nicht. Und je nach Settings kann man die noch runter nehmen und der AMD Käufer steht rein FPS sehr gut dann da - während der NV Käufer vielleicht mal im Durchschnitt an die >30 FPS kommt....


bezüglich der Frage mit Vega und die Preise. Da Vega das ganze Leistungsspektrum abdecken soll wird dieser definitiv auf die Preise einfluss nehmen. Aber bisher geht es in den Gerüchten nur um den Vollausbau. Der hat im Zweifel keinen Einfluss auf die Preise der Mittelklasse.
 
Und Ich würde definitiv die GTX 1060 der RX 480 vorziehen.


a) Wie zehntausende es tun

b) Die GTX970 gibts seit 2014 und ist doch auch nicht wirklich viel langsamer als eine RX480, der Abverkaufspreis der GTX970 war sogar ähnlich hoch wie der Releaspreis bei der RX480. Der Nachfolger GTX1070 ist wesentlich schneller und wird trotz hohem Preis sehr gut verkauft.


Fazit

Die getestete Radeon RX 480 im Referenzdesign mit 8 GByte Videospeicher ist eine gelungene Grafikkarte, die in ihrem Preisbereich keinen direkten Gegner hat. Sie rechnet ein bisschen flotter als eine ähnlich teure Geforce GTX 970, ist also gleichauf mit leicht übertakteten Versionen. Im schlechtesten Fall wird die Radeon zwar von der Nvidia-Karte überholt, dafür schafft es das AMD-Modell in einigen Spielen aber, die teurere Geforce GTX 980 zu schlagen. Der (mehr als) doppelt so große Videospeicher der Radeon RX 480 garantiert in Titeln wie Doom die höchste Schatten- und Texturqualität.


http://www.golem.de/news/radeon-rx-...bt-es-fuer-den-preis-nicht-1606-121715-9.html


Hat sich mit der GTX1060 wieder erledigt.
 
Caramelito schrieb:
Sagt man, ich gebe 250-300€ aus und will damit 2-3 Jahre zocken, führt kein Weg an der 480 vorbei, man vermuet immer, dass die Karten länger gut bleiben, dank der AMD-Treiber..meine letzte AMD war die 5850, aber die Tests belegen ja gute Werte..

Gilt für oldmanhunting nicht.
Er will keine Fakten, nur Nvidia.
Einfach auf die Ignorierliste und gut ists.
 
KTelwood schrieb:
a) Wie zehntausende es tun

Was die Mehrheit tut ist gut. Immer und überall!

KTelwood schrieb:
b) Die GTX970 gibts seit 2014 und ist doch auch nicht wirklich viel langsamer als eine RX480, der Abverkaufspreis der GTX970 war sogar ähnlich hoch wie der Releaspreis bei der RX480.
970:
3,5 +0,5GB

RX480:
8GB

und zum Release der 480 gab es schon Titel, die in FHD 4GB mit Texturen voll bekommen haben.
Was nimmt man also...natürlich eine langsamere 970 mit weniger Speicher zum gleichen Preis wie die RX480, die gerade erschienen ist?.(Die 1060 klammer ich mal aus weil du dich ja auf Release bezogen hast)

KTelwood schrieb:
Der Nachfolger GTX1070 ist wesentlich schneller und wird trotz hohem Preis sehr gut verkauft.

Alternativen? 980Ti mit weniger Speicher oder 1080... Vielleicht könnte man einen Zusammenhang finden zwischen einer nicht existenten Konkurrenz für Nv oberhalb der Mittelklassekarten und den Verkaufszahlen. Wenn mir meine 290x z.b. nicht mehr reicht bleibt mir nur die 1070 oder 1080(Titan XP bin ich nicht bereit zu bezahlen). Da ich kein VR nutze und keinen 4K Monitor besitze macht aus P/L Sicht nur noch die 1070 sinn.
 
KTelwood schrieb:
b) Die GTX970 gibts seit 2014 und ist doch auch nicht wirklich viel langsamer als eine RX480,

In Sachen Durchschnitts-FPS vielleicht.
Aber meine Krüppelspeicherkarte hat leider immer wieder Probleme mit min. FPS und v.a. den Frametimes. Auch bei 50+ FPS. Hät ich sie nicht zu einem guten Angebot vor über einem Jahr bekommen, würde ich mich so richtig, richtig, richtig angeschissen fühlen.
Deshalb kann ich auch kaum mehr auf Vega warten.
 
Zurück
Oben