Test Grafikkarten von Nvidia im Test: GeForce GTX 460, 560, 660, 760, 960 & 1060 im Vergleich

Siegfriedphirit schrieb:
...mal am Rande. Unlängst hatte sich mal Jemand lustig gemacht, das ich noch mit einer R9 270X 4 GB zocke und in f. HD bei max Einstellungen zwischen 34 und 43 FPS zocke(The Witcher 3). Das würde nicht ausreichen um wirklich flüssig zu sein.
Nun viele Hardcore Gamer zocken mit wahnsinnig teurer Hardware auf 4 K auch mit kaum mehr als 35 FPS- komisch da ist diese lahme Bildrate plötzlich ganz ok und wird als flüssig empfunden.

Wirst lachen, erging mir auch schon so wo ich erzählt habe, dass ich mit meinem System zw. 22-30 fps auch gut spielen kann. Hat nicht lange gedauert das sich die Kollegas von der 60 fps Front meldeten und meinten, unter 30 fps MUSS es ja ruckeln...seufz...:p
Es wird viel zu viel auf eine gewisse Zahl versteift! Einfach spielen, wenn es ruckelt im Grafikmenü Regler verschieben und gut is.
Immer diese Radikalen mit ihren Zahlen...:D.

Dazu muss man aber sagen, das sich die Leistung je nach Patchversion auch geändert hat. Jedenfalls habe ich das beim Betreten von Novigrad am stärksten gemerkt (ruckelig - gut spielbar).
Hatte damals hier im Witcher Forum auch noch viele Screens hochgeladen. Wo man sehen konnte, dass ich nicht gerade eine schlechte Quali hatte (Schärfefilter hatte ich auf hoch, hat mir gefallen).
 
Anscheinend wird laut PCGH die Founders Politik von "nGreedia" (die zu Verlusten der nVidia Boardpartner, evt. auch Pleite von PoV, geführt haben soll und Titan GPU-Vermarktung nur noch direkt über den nVidia Store erlaubt) weiter fortgeführt werden.

Das dürfte einigen Titan-Enthusiasten sicherlich nicht sonderlich gefallen und wer weiss, vielleicht gibt es das bei der GTX 1080Ti (Club-Karte) in naher Zukunft auch?

Gut möglich, dass Boardpartner dann versuchen werden zu AMD zu wechseln, aber ob das so erfolgreich sein wird wie seiner Zeit bei XFX (welche neben Sapphire wohl mittlerweile schon als weiterer, hoch qualitativer "Haus-Hersteller" von AMD angesehen werden), wird man abwarten müssen.

Wenn Gainward/Palit sowie Inno3D und/oder Zotac zu AMD wechseln sollten, fände ich das schon klasse :D. Bei EVGA gab es ja in der jüngeren Vergangenheit schon Gerüchte bzgl. eines Wechsels, diese wurden aber seitens EVGA dementiert.

Die großen 3 Mainstream-Boardpartner beider Chip-Entwickler (ASUS, GigaByte und MSI) dürften wohl auch mittel- bis langfristig weiterhin nVidia GPUs in Ihren Angeboten führen.

Ob eine ähnlich gierige Unternehmenspolitik seitens nVidia auch dafür verantwortlich war, dass MS und Sony bei Konsolentechnik auf AMD setzen, der Preis der Nintendo Switch Konsole so hoch angesetzt werden musste und Apple sich von nVidia als GPU-Partner vor Jahren verabschiedet hat?

Möglich wäre es, der gemeine Kunde scheint damit aber immer noch weniger ein Problem bzw. Lehre daraus gezogen zu haben, basierend auf den Verkaufszahlen.
 
Zuletzt bearbeitet:
schön zu sehen das alte AMD-Karten im Gegensatz zu den alten Nvidia-Karten besser dastehen (im Vergleich zu aktuellen Grafikkarten des jeweiligen Herstellers)
Nvidia schert sich im Gegensatz zu AMD "einen Dreck" um ältere Karten :freak:, (Bestands)kunden und vernünftige Preise.
 
Zuletzt bearbeitet:
zeedy schrieb:
Jaja, das ist halt das neue Totschlag Argument der Nvidia Fanboys. Zu Maxwell Zeiten waren plötzlich viele geil drauf, Geld durch niedrigeren Stromverbrauch zu sparen. Aberwitzige Jahresrechnungen waren die Folge :lol:

Man sollte die Kirche im Dorf lassen, es gibt bei AMD immer wieder Leistungsverbesserungen durch Treiber, aber erstens sind diese so klein, dass sie kaum der Rede wert sind und zweitens nicht für 2 Jahre alte Spiele...

Wenn ich bedenke, dass ich mich damals zw der GTX 660 und der legendären HD 7870 kaum entscheiden konnte, muss ich fast lachen. Die eine eine Speicherkrüppel Gurke die schlecht gealtert ist und heute quasi irrelevant ist, die andere eine immer noch solide und effiziente Gaming Karte. Keine andere Karte habe ich so lange gehabt, und keine war so kühl und leise.

Ich hab leider die 660 gewählt. Die schlechteste Karte, die ich seit 1997 gekauft habe. Rot wird es als nächstes 100%ig.
 
Also wenn ich zurücküberlege hab ich bislang alles richtig gemacht.
Ati 9600
8800gtx
Gtx 460
R9 380x (vielleicht n kleiner fehler, hätte auf die 480 warten sollen, aber mir reicht die karte)

Amd "altert" halt wegen rohleistung etwas besser. Und wie sagt man so schön. You get what u pay for.
Nvidia muss man halt sagen sind 2-jahres-karten, amd hält sich länger aber man muss anfangs mit erwas geringerer leistung leben.

Beide seiten haben ihren vor und nachteil.
 
ich bin ein NVIDIA kunde. ich kümmere mich "einen dreck" um ältere karten da ich alle 1-2 jahre neu kaufe.

und jetzt?

scheint zu passen ;-)
 
nur ein Mensch schrieb:
Was die Häufigkeit / die Vorkommen der seltenen Erden angeht hat Cool Master recht. Sie sind nicht so selten, nur weil sie so heissen. Allerdings wird das Angebot überwiegend künstlich verknappt.

Genau auf das wollte ich hinaus. "Selten" bedeutet in dem Zusammenhang statt ~7,5 Gewichtsprozent wie bei Alu halt nur 2 oder 3 Gewichtsprozent. Das ist trotzdem noch so viel, dass wir dies wohl niemals abbauen werden. Es wird in Zukunft aber natürlich deutlich schwerer werden. Aber wo eine Nachfrage ist ist auch ein Willen.

nur ein Mensch schrieb:
Allerdings ist der Anteil der Energiekosten sowie der Beitrag der Umweltverschmutzung pro Produkteinheit bei solchen Elektronik Bauteilen nicht gering, hier liegt Cooler Master falsch

Klar der Abbau ist nicht super aber wenn man sich das Produktleben anschaut ist es kein echtes Problem. Zudem wie du schon sagst kann man das Zeug ja auch recyceln. Dazu kommt es wird ja nicht nur eine GPU hergestellt sondern auf dem Waffer sind das 15 oder mehr auf einmal.
Das gleiche Problem hat aber auch das E-Auto. Wenn man sich dessen CO2 Bilanz mal anschaut hat man alleine durch den Akku schon um die 1 Mio KM auf der Uhr. In langer sicht gesehen ist es aber deutlich besser als ein Verbrenner da das Auto ja nur einmal hergestellt werden muss und der Akku auch nicht alle 6 Monate getauscht werden muss. Von div. Flüssigkeiten erst gar nicht angefangen.

tic-tac-toe-x-o schrieb:
Du darfst das vielleicht noch sagen, so alt wie deine GPU ist. Aber schau dich mal bei den "Stromsparern" um, die jedes Jahr die Grafikkarte wechseln. Die Produktion is auch nich so gut für die Umwelt. :)

Ich wüsste halt nicht warum ich aktuell eine neue GPU bräuchte. Leistung langt mir noch locker aus und wenn nicht wird der Regler halt etwas nach links gedreht. Wobei alle Blizzard Spiele auch auf 1440p und den besten Settings laufen, abgesehen von WoW wenn viele Leute vor/bei mir sind.

Die Produktion spielt effektiv keine große Rolle sobald das Teil gekauft wurde. Da müsste man sich vor dem Kauf gedanken machen ob man das unterstützen möchte. Nach dem sich jemand eine neue Karte kauft wird die Alte ja nicht einfach weg geschmissen und im Wald vergraben. Sie wird entweder verkauft, wo sie noch mal Jahre ihre Dienste leisten kann oder geht auf den Wertstoffhof und wird recycelt.

Ich hatte z.B. meine Karte auch wegen dem Stromverbrauch gekauft. Meine GTX 285 hatte sich verabschiedet und ich hatte eine GTX 570 bekommen, welche leieder ein Stromfresser war bzw. ist. Die hatte ich dann verkauft und meine aktuelle gekauft. Die hat sich mittlerweile schon lange bezahlt gemacht und ich bin glaube nun seit 2 Jahren oder so über dem Break-Even-Point.
 
Cool Master schrieb:
Sie wird entweder verkauft, wo sie noch mal Jahre ihre Dienste leisten kann oder geht auf den Wertstoffhof und wird recycelt.

Das ist zu optimistisch gedacht. Ich denke, es gibt auch mehrere Leute, wie mich, die locker 3 noch funktionstüchtige Grafikkarten im schrank liegen haben(oder irgendwo anders in einer Ecke rumgammeln).... Kann man immer gebrauchen zum gegentesten :)
 
@Echoz

Es gibt Menschen, die haben genug Zeit zum Zocken, und nein es ist nicht zwingend "Krank" das auch 4h am Tag zu tun (Abends nach der Arbeit/Wochenende). Nicht nur Erwachsene zocken, auch Kinder/Schüler. Und wenn man dann noch einen Familien Rechner hat, an dem Geschwister abwechselnd spielen (So war das in meiner Familie), dann ist die Kiste locker 8h am Tag im Betrieb, wovon dann auch 6 gespielt werden. Am Wochenende noch länger. Zu mal die Preise der GTX 1060 und Rx480 nah zu identisch waren. Wenn es nur die Kapazität des Speichers und nicht die Leistung des Chips ist, welche limitiert. Dann stellt man die Texturen etwas runter und es läuft immer noch.
 
Zuletzt bearbeitet:
@Zuckerwatte

Da spricht ja nichts dagegen. Ich habe auch noch ältere HW einfach um Fehler auszuschließen :)
 
Der Sprung von 960 auf 1060 ist krass. Bei AMD zwischen 380 und 480 aber ähnlich.

MichiSauer schrieb:
...Amd "altert" halt wegen rohleistung etwas besser...
Das trifft den Nagel auf den Kopf, auch dank des größeren VRAMs. Wer bei Erscheinen eine R9 290X gekauft hat, hat damals die richtige Entscheidung getroffen :)
 
tensai_zoo schrieb:
@Echoz

Es gibt Menschen, die haben genug Zeit zum Zocken, und nein es ist nicht zwingend "Krank" das auch 4h am Tag zu tun (Abends nach der Arbeit/Wochenende). Nicht nur Erwachsene zocken, auch Kinder/Schüler.

Es geht um Hochrechnungen und die sehen vor, dass man regelmäßig jeden Tag min. 4 Stunden zockt. Also echt an 365 Tagen im Jahr sogar an Weihnachten und an Feiertagen mit der Familie :D

Meiner Ansicht nach ist es eher unrealistisch, dass man eher das eingesparte mit einer Nvidia rausholt.

Schließlich, zahl man vom ersten Tag an auch Strom für die Nvidia Karte, welcher nicht in diese Rechnung einfließt er zeigt nur die Differenz wie lange man spielen muss um das gesparte Geld einzuholen.

........ AMD: 250 €/ Nvidia 300 € / Jährlicher Stromverbrauch AMD: 40€ / Nvidia 20 €

1.Jahr.)AMD: 290 €/ Nvidia 320 €
2.Jahr.)AMD: 330 €/ Nvidia 340 €


Diese Szenarien sind nur dann realistisch, wenn der Nvidia Nutzer seine Karte im Schrank verstaut und nicht damit zockt, dann hat er eventuell nach dem ersten oder zweiten Jahr die Kosten wieder drinnen und konnte keinen einzigen Tag zocken :D
 
Das mit dem Stromverbrauch beim Spielen darf doch am Ende jeder selber entscheiden...und darüber kann man auch nicht streiten sondern lediglich seine persönliche Meinung sagen. Wenn ein Nvidia nutzer dann seine Schreibtischlampe mit 60 Watt birne anhat ist der Vorteil auch vertan, genauso wie ein AMD oder NVFermi user vielleicht die Heizung abdrehen kann im Winter...
Kaufgrund für mich sind:

a) Eine gewisse Leistungschwelle und dann Preis/Leistung. Aktuelle Spiele sollten laufen, ich brauche aber kein High-End.
b) Lautstärke/Kühlung (und damit Stromaufnahme)
c) Mein vertrauen in den Boardparnter. Bisher hatte ich eigentlich immer ein "Asus" karte, die ausnahme, eine Sparkle 9800GT passiv...bei der ein paar Kondensatoren hochgegangen sind....was die Karte aber nicht interessiert hat.

AMD hat immer ein zwei Spiele und Benchmarks bei denen die Performance der Architektur besser ist. Bei den Aufgeführten COD und COH schlägt das AMD modell immer sein zugewiesenes Nvidia pendant. Auch in der Vergangenheit.
Aber dieser "Blindes Huhn" Vorteil bei dem ich mit meiner Grafikkarte irgendwann ein Spiel spielen können werde was zufällig meine Architektur begünstigt während die anderen interessanten Spiele alle Ruckeln ist ja quatsch. Beim Kauf zählt die Leistung im "Hier und jetzt".
Es ist ja auch kein Vorteil wenn man rabatt auf Erbsensuppe bekommt, aber gerne Lasagne hätte.


Bei der Speichermenge bin ich noch nicht davon überzeugt, dass diese zwingend ein limitierender Faktor ist. Zumal die tatsächlich verwendete Menge nicht gemessen wird. Sind 8 Gb vorhanden reserverviert der Treiber/spiel 7 Gb, sind nur 4 gb vorhanden reserviert der Treiber/Spiel eben nur 3.
Was das Spiel nun "braucht" oder was es vorgibt weiß man nicht.

Bei "Doom" konnte man die maximalen Einstellungen ja auch für weniger bestückte karten freischalten..und hatte gute FPS werte.
Hier gab es ein Software-Lock. Genauso wei COD mal Spieler mit weniger als 6GB ram aussperren wollte...obwohl es nur 1-2 GB belegt.
Schon vor Erscheinen der Playstation 4 (2014) mit AMD-Technik konnte man immer wieder lesen das man mindestens 4 oder 8 GB speicher bräuchte, weil das Zukunftssicher sei (Abgeleitet aus dem gemeinsamen Ram/VRAM).
Ich würde dennoch sagen, dass ein Durschnittsspieler (1920x1080,60Hz panel) heute mit einer 2 oder 3GB karte gut dabei ist.
Auf die breite gesehen finde ich die Absolute Menge des Speichers also fast nicht aussagekräftig. Da müsste man schon in die Software gehen und sich fragen ob man vielleicht auch unsauber geschriebene Titel oder Spiele mit Textur-Mods probieren will.

Jedoch ist die Speicherausstattung am ende nicht so wichtig wie die verbaute GPU. Was nutzt ein Riesiger Speicher wenn die GPU generell zu langsam ist ?
 
Also man müsste auch bei Verbrauchsvorteilen ganz genau hingucken. Schließlich ist die Grafikkarte wieder nur teil vom Gesamtsystem. Und dann läuft die Karte unter Volllast ganz anders als Idle.

Wie gesagt, es sind so viele Faktoren, dass man es nur sehr grob betrachten kann, oder viele Daten braucht, die nur jeder für sich rausfinden kann und daher eine Diskussion müßig macht.
Die 1060 ist immer sparsamer. Im Idle braucht sie 6.5 Watt, die RX480 braucht 15. Unter last sind es 120 gegen 160 Watt.

Bei 4h/Tag unter Volllast sind das 0.160 kWh Differenz oder (bei 25cent/kWh) 4 cent, oder 14,6€ im Jahr. Auf zwei Jahre, wenn man danach beide Karten wegschmeißt, würde das einen Aufpreis von ca 30€ Rechtfertigen. Nicht zu vergessen, dass Weniger Leistung auch einfacherer Kühlung und weniger Throtteling bedeutet.
Hier fehlt aber wieder die Effizienz des Netzteils bei Gesamtlast. Läuft das Netzteil mit 90% Effizienz dann Müsste man nochmal 10% draufrechnen.

AMD hats geschafft seine Leistungshunger von über 300 Watt auf 160 Watt zu drosseln. Das ist schonmal nett. Nvidia ist aber nochmal besser.

Zahlen:

http://www.pcgameshardware.de/Geforce-GTX-1060-6G-Grafikkarte-264678/Tests/GTX-1060-Review-1201931/
 
Wie kommt man eigentlich immer wieder darauf, dass wenn jemand weniger Stromverbrauch bei einer GPU gut findet, dann aber automatisch seinen Strom mit alten Glühbirnen oder antiken Kühlschränken verbrät. Entweder lege ich Wert auf wenig Stromverbrauch im ganzen Haus oder ich lasse es.

Ich finde es traurig, wie man hier in dem NVidia Thread krampfhaft versucht AMD GPU's als das gelbe vom Ei aussehen zu lassen und auf welchem Planet war eine R9 290X eine gute Entscheidung?
Wer will denn 2017 noch mit einer R9 290X rum gurken? Wenn es nach manchen Leuten hier geht braucht man auch keinen Ryzen weil der Bulldozer reicht ja auch noch vollkommen aus.

Seit Mitte 2016 gibt es die GTX 1070 die für mich eine sehr gute GPU ist und die bis Heute von keiner AMD GPU geschlagen wird. Wie traurig ist dass denn von AMD?
 
@tensai_zoo
Gut, dannnimmste halt den Familien-PC aka Cherrypicking. NAtürlich kann das Familienkollektiv eine nVidia-Karte verbauen.. dafür ist der MArkt ja da. Ich spreche von Einzelfällen, und wer da über 13oo Stunden pro Jahr daddelt, suchtet in meinen Augen doch schon sehr stark.

Ich bin Frührentner mit starken körperlichen Einschränkungen nach einem Verkehrsunfsall, und könnte jeden Tag 12 Stunden zocken...mach' ich aber nicht. Mit den paar Titeln die ich aktuell zocke (Anno2070, Doom, CoD-IW und mein geliebtes CoD-WaW@Veteran) komme ich auf keine 400 Stunden im Jahr. Und das sogar mit 6,7 Stunden Anno-Sessions.
Mir fällt die Vorstellung sehr schwer, das gesunde Menschen soviel Zeit mit Gaming verbringen (können).

Ich kenne auch solche Spezialfälle, von vom Papa bis zu den Kids von Morgens bis Abends gedaddelt wird... aber die haben ebenfalls andere Probleme als 20€ mehr/Jahr auf der Stromrechnung. Da laufen auch 2 Fernseher (im Wohnzimmer selbstverständlich mit Dolby 7.1 Anlage), Waschmaschine, Wäschetrockner, Herd, Backofen, Kühlschrank, Radio, Beleuchtung etc im Dauerbetrieb., da sind 20 von mir aus auch 40€ mehr Jährlich Peanutkrümmel.

Prizipiell geht es mir immer um die völlig unnötige Dramatisierung ala AMD-Stromfresser, das ist nur ein viel genutztes Totschlagargument von Fanboys oder einfach Leuten die denen nachplappern. Oder Sie wissen es einfach nicht besser bei ihnen die technische Bildung fehlt.
Wenn ich überhaput das Argument Effizienz bei PC Hardware in Betracht ziehe und aus diesen Gründen Intel und Nvidia verbaue, dann ist es für absolut kompakte und superleise ITX-Rechner. Da zählen auch die 2,3 Kelvin höhere Temperatur wegen 50W mehr an Wärmeenergie in einem (sanft) belüfteten Gehäuse.

Ich bin - im E-Werk ausgebildeter - Energieeltroniker, habe Industrie- und Windrakftanlagen in Betrieb genommen. Zum Thema Energie(-kosten) brauche ich mir nichts erklären zu lassen ;)

Und abschliessend zur Erinnerung: Eine Grafikkarte ist keine Glübirne. Nur weil in fordernden Benchmarksequenzen 200W (Maximal) fürs Gesamtsystem angezeigt werden, heisst es noch lange nicht, daß auch 200Wh an Energie (bzw die Kosten dafür) verbraucht wird.

@Oldmanhunting
Die Leistungsaufnahme im Idle ist war auch höher, dafür bietet AMD aber Zerocore, wo die Grafikkarte null Energie benötigt, wenn der Monbitor/ Fernseher aus ist.
Mein PC läuft auch quasi rund um die Uhr, aber wenn er irgendwas rechnet, geht der Monitor nach 5 Minuten aus. ODer wenn ich mal größere Dateien downloade (16k Leitung).. da muss der Monitor auch net an sein.
Als Nvidianer der ersten Stunde (bzw. ersten Graka) ist meine RX470 Nitro 8G meine erste Graka von AMD, und ich bin begeistert! Maximale Leistungsaufnahme <130W mit UV und kaum wahrnehmbare Lautstärke.
Und im meinem Fall auf Dauer sparsamer als Nvidia dank Zerocore und meiner geringen Daddelzeit.
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
auf welchem Planet war eine R9 290X eine gute Entscheidung?
Wer will denn 2017 noch mit einer R9 290X rum gurken?
Auf diesem ? & Ich....Schon damals bei der Wahl GTX 780(ti) oder 290(x)er bzw. GTX 970/980 oder R9 390(X). Wie oft lese ich aktuell das die 780er rausfliegen oder teilweise schon GTX 970/980 weil der Speicher nicht mehr reicht ? Was bringt einem Stromsparen wenn die Karte nur 2 Jahre hält ((obere)Mittelklasse).

Meine R9 390 wird im Sommer 2 Jahre alt und kann gerne VEGA überspringen (je nach Kauflust). Habe keinen Grund aktuell aufzurüsten & wegen dem Strom bestimmt nicht, da gibts andere Sachen die mehr Geld sparen/Umweltfreundlicher sind.

Seit Mitte 2016 gibt es die GTX 1070 die für mich eine sehr gute GPU ist und die bis Heute von keiner AMD GPU geschlagen wird. Wie traurig ist dass denn von AMD?
Traurig von AMD sich auf die Mittelklasse zu konzentrieren, da wo am meisten zu holen ist.... AMD hatte meist immer die schnellsten Karten der Generation, jetzt mal nicht und alle heulen rum. Wird Zeit das VEGA kommt und Mäuler stopft :king:
 
EchoeZ schrieb:
Mir fällt die Vorstellung sehr schwer, das gesunde Menschen soviel Zeit mit Gaming verbringen (können).

Wieso? 4 Stunden für ein Hobby ist doch nichts. Wenn ich meine zwei größen hobbys zusammen rechne (Sportschießen und Fotografie) komme ich auch ohne Probleme auf 30 Stunden. Kommt halt auf den Charkter an wenn man eher introvertiert ist sehe ich da kein Problem und wenn jemand eher extrovertiert ist wird er die Zeit halt nicht in Anspruch nehmen.
 
4 Stunden täglich.. und das 365 Tage im Jahr? Nur zocken... finde ich nicht gesund. Du hast ja mehrere Hobbys, die nicht sitzend und auf die Glotze starrend machbar sind. Dagegen spricht ja nichts. Schiessen und Fotografieren finden ja nicht vor dem Monitor statt.
Wenn ich einen PC sorgfältig montiere, gehen je nach Aufwand (evtl. Wakü etc) auch 3-6 (oder mehr) Stunden drauf. Das ist für mich auch Hobby, wie früher Moutainbiking, Klettern, Surfen, Joggen, Motorrad fahren.. das ist aber alles etwas anderes als Daddeln ;)


Wie das Dauerdaddlen enden kann, sieht man ja hier
https://www.youtube.com/watch?v=GsqUZkmO-zk
und hier
https://youtu.be/YersIyzsOpc?t=15

und persönlich habe ich solche Fälle (nicht soo extrem) auch kennen gelernt.
 
Zuletzt bearbeitet:
Zurück
Oben