Test Nvidia-Grafikkarten im Test: GeForce GTX 460, 560, 660, 760, 960 und 1060 im Vergleich

Ich denke wir brauchen uns nicht darüber unterhalten, dass FullHD in den meisten Haushalten der Quasi-Standard ist. Das wird auch noch eine Zeitlang so bleiben. Ich persönlich könnte mir aktuell auch gar nicht vorstellen einen größeren Monitor als 24" hinzustellen.
Und auf 24" brauch ich definitiv kein Auflösung über 1080p.

Und 4k ist halt Nische und wird auch in naher Zukunft eher eine Nische bleiben und deswegen ist eine xx60 für den "etwas anspruchsvolleren" Mittelklasse-Spieler zumeist auch absolut ausreichend. Es wird ohnehin wohl sogar mehr Leute geben, die noch eine Klasse tiefer greifen.
 
kachiri schrieb:
Und 4k ist halt Nische und wird auch in naher Zukunft eher eine Nische bleiben

4K ist sowieso kein "Problem", da sich FullHD Inhalte wunderbar auf 4K hoch und auch runterskalieren lassen. Man kann so 4K für seinen Windows Desktop nutzen und in FullHD spielen.
 
  • Gefällt mir
Reaktionen: cruse
Atze-Peng schrieb:
Leistungsverdoppelung alle 2 Jahre. Was genau ist daran enttäuschend? Das ist enorm, wenn man sich das mal überlegt. Alle 2 Jahre sind die GPUs DOPPELT so stark.
Falsch, nach 8 Jahren müsste die Leistung nach deiner Rechnung 1600% betragen. Im Test steht was von knapp über 500%, das ist dann doch ein ziemlich grosser Unterschied.
 
  • Gefällt mir
Reaktionen: cruse
xexex schrieb:
4K ist sowieso kein "Problem", da sich FullHD Inhalte wunderbar auf 4K hoch und auch runterskalieren lassen. Man kann so 4K für seinen Windows Desktop nutzen und in FullHD spielen.
Floppy5885 schrieb:
Aber zocken heutzutage immer noch soviele in Full HD?
Ich nutze seit 2015 kein Full HD mehr.
Mein TV hat 4K und mein Monitor hat WQHD.
Die in meinem Freundeskreis nutzen alle WQHD-4K, bis auf einer der hat noch FHD.

Ich finde auch ehrlich ab 24" aufwärts würde ich mir niemals FHD holen. Das sieht doch grausam aus. Da selbst Spiele in FHD auf einem WQHD oder 4K deutlich besser aussehen.
WQHD hätte man auch noch in den Test integrieren können.

Eine Umfrage auf CB wäre nicht schlecht

FHD auf einem WQHD/4K monitor sieht besser aus? wie kommst du denn darauf?
das bild ist einfach nur extrem blurry, nichts ist besser als die native auflösung.
 
Das hängt halt auch stark von der Interpolationsfähigkeit des Monitors ab.
Bei FullHD auf einem 4K Monitor gibt es die wenigsten Probleme da statt ein Pixel eben genau vier Pixel dann FHD entspricht.
Die Zwischengrößen wie WQHD dagegen sieht man deutlich insbesondere bei Schriften einen mehr oder weniger deutlicher Unterschied.
 
Zurzeit einer GTX 460 wurde zumeist in einer HD Auflösung gespielt . Bezahlbare Monitore hatten eine 1280 er Auflösung. Die handelsüblichen Fachbildschirme hatten eine 1050 er Auflösung. In fFHD hätte man mit der Rechenleistung der 460 kein Spiel ohne Ruckler zocken können. Die 460 war damals trotzdem der Mercedes unter den Grafikkarten, weil die stärkeren Brüder die 470 und 480 mit Hitzeproblemen kämpften und den Takt senkten, sodass sie langsame liefen als eine 460 bzw nur unwesentlich schneller.
 
Siegfriedphirit schrieb:
Die 460 war damals trotzdem der Mercedes unter den Grafikkarten, weil die stärkeren Brüder die 470 und 480 mit Hitzeproblemen kämpften und den Takt senkten, sodass sie langsame liefen als eine 460 bzw nur unwesentlich schneller.
Also eine 480er konnte ich auch mal mein eigen nennen. Klar die Temps waren hoch (~90°C), aber runtergetaktet hat da nie was. Die lief immer in bestmöglicher Performance, egal was für ein Programm lief. Das alles in 1920x1200 Pixel ohne Probleme.
Wenn ich mich noch richtig an die Tests der Karte erinnere, war da auch nie was zu lesen, dass die runtergetaktet hat. Die heutigen (noch aktuellen GF-Karten) werden schon künstlich ab 84°C runtergetaktet. Die könnten durchaus mehr leisten als sie es in Wirklichkeit tun, wenn da auch 90°C oder höher erlaubt wäre. Ich denke nicht das die Grafikchips dabei Schaden nehmen würden. Vertragen haben die alten Fermis damals locker mehr als 110°C. Die aktuellen würden das sicherlich auch.
Man hat die aber wahrscheinlich deshalb abgeriegelt, da sie sowieso schon die schnellsten Modelle sind und man mit den jetzt kommenden Touring-Chip noch Luft nach oben haben wollte.
Also wenn die 460 der Mercedes war, dann war die 480 ein Lamborghini.
 
Mhh also 400% in 8 Jahren halte ich für gewagt. Mich wundert es nicht, dass eine 8 Jahre Karte in modernen Spielen schlechter abschneidet. Egal ob diese DX11 beherrscht oder nicht, sie wurde für andere Voraussetzungen entwicklet. Ich finde es spanndend wenn noch ein typisches Spiel aus jeder Generation (welches sich in Benchmarks unauffällig verhält) getestet und vergleichen würde.
 
  • Gefällt mir
Reaktionen: Zero_Point
Aber die alten Karten werden ja auch in den Treibern nicht mehr optimiert. Da wäre bestimmt noch was drin.
 
Lors schrieb:
FHD auf einem WQHD/4K monitor sieht besser aus? wie kommst du denn darauf?
das bild ist einfach nur extrem blurry, nichts ist besser als die native auflösung.
auf wqhd wird's "blurry", auf 4k eher nicht. höchstens pixelig. ein kleiner aber feiner unterschied.
der Vorgänger von wqhd ist 1280x720
projectneo schrieb:
Mhh also 400% in 8 Jahren halte ich für gewagt.
gewagt? der eigentliche test ist an dir vorbeigegangen?
hemmi1982 schrieb:
Aber die alten Karten werden ja auch in den Treibern nicht mehr optimiert. Da wäre bestimmt noch was drin.
naja viel nicht, wozu auch? durch treiberoptimierungen werden aus 4 fps keine 40..
 
cruse schrieb:
gewagt? der eigentliche test ist an dir vorbeigegangen?
Ist der Beitrag von projectneo an dir vorbeigegangen? Er hat doch genau erklärt wo seine Bedenken sind. Die Spiele wurden nicht für die alten Karten entwickelt, mit Kepler hat sich einiges geändert.
Dazu bekommen Fermis keine Treiber mehr und lt. Spielehersteller erfüllen sie nicht einmal die Mindestanforderungen. Dass so eine Karte unter FullHD und hohen Details total einbricht, sollte jedem hier im Forum sofort klar sein und somit auch, dass die 400% mit der Realität nichts zu tun haben. Daher ist der Test auch unbrauchbar, da nur etwas aussagt, was auf so ziemlich jeder Spielepackung steht: diese Karten reichen heute nicht mehr.
 
slumpie schrieb:
Falsch, nach 8 Jahren müsste die Leistung nach deiner Rechnung 1600% betragen. Im Test steht was von knapp über 500%, das ist dann doch ein ziemlich grosser Unterschied.

Zu viel getankt am WE? Verdoppelung = 100% Leistungszuwachs alle 2 Jahre. Wie du da auf 1600% in meinem Beitrag kommst, müsstest du mir noch erklären.
 
Atze-Peng schrieb:
Zu viel getankt am WE? Verdoppelung = 100% Leistungszuwachs alle 2 Jahre. Wie du da auf 1600% in meinem Beitrag kommst, müsstest du mir noch erklären.
2^(8/2) = 2^4 = 16 = 1600%
Ergänzung ()

Oder so wie es Jesterfox gerade erklärt hat.
 
cruse schrieb:
Und was wäre dann ein realistischer Test gewesen?
Ältere Spiele ab ca. 2010/11 bis etwa 2015/16. In jedem Fall Spiele, bei denen der Hersteller garantiert, dass sie auf einer 460 laufen. Nicht alles auf Maximum (zumindest nicht bei den neueren Titeln), ggf. kein Full HD. Die Texturauflösung bei neueren Spielen auf Minimum. Bringt bei der 1060 praktisch keine Mehrleistung, verhindert jedoch, dass bei Karten mit 1GB, bei denen der Speicher überläuft, gnadenlos einbrechen. Denn dass mit 6GB mehr los ist als mit 1GB sollte jedem klar sein. Ebenso dass eine 8 Jahre alte damalige Mittelklassekarte heute auf FullHD nichts mehr reißt.
Ggf. auch nicht den 8700K OC nehmen. Natürlich verhindert er ein CPU-Limit, allerdings bezweifle ich, dass jemand mit so einer CPU eine GTX460 hat und damit spielt. Ich würde eher einen 6600K nehmen.
 
Und damit würden die neueren Karten wohl gnadenlos in ein CPU Limit rennen... was würde das beweisen? Wer auf alte Spiele steht und ne alte CPU hat braucht keine brandneue Grafikkarte? Das wäre doch genauso schon vorher klar...
 
  • Gefällt mir
Reaktionen: incurable
Zurück
Oben