Test Test: Nvidia GeForce GTX 460

Also ich bin grundsätzlich auch eher skeptisch gegen Speicheroverkill eingestellt, Hauptspeicher wie Grakaspeicher. Man muss allerdings sehen, dass in einer heutzutage üblichen Auflösung von 1900x1200, teilw. auch 1680x1050 eben doch signifikante Unterschiede messbar sind, auch mit niedrigem AA/AF. Das ist durchaus ein Novum gegenüber Tests vergangener Tage, wo "Speicherdickschiffe" nur bei exotischen Auflösungen und in Regionen zwischen 5-20 fps punkten konnten.
(Beispiel: CB Test der GTX 460@ME2: Link )

Zusätzlich sollte man auch den Hintergrund der aktuellen Spielelandschaft bedenken. Da gibt es ne Menge Open/Big World Zeugs, das grundsätzlich eher mehr Grakaspeicher benötigt, um große Areale oder detailliertere Weitsicht darstellen zu können, selbst wenn es grafisch insgesamt gar nicht soo toll ist.

Dem steht, bezogen auf die GTX 460, ein Aufpreis von ca. 20-30€ gegenüber. Und da komme ich eben zu dem Schluss, dass das für die meisten Gamer bei der gebotenen Mehrleistung in spielbaren Settings/Auflösungen und den speziellen Anforderungen vieler neuerer Games doch ne sinnvolle Mehrausgabe ist. Wären es 50€ oder noch mehr, wäre das schon viel kritischer zu sehen.

Von den neuen 2GB Klötzen rate ich allerdings auch ab. Da geraten die Leistungsfähigkeit der GPU, die Größe des (voll genutzten) Speichers und natürlich der Preis einfach in ein zu großes Missverhältnis zueinander.
 
Zuletzt bearbeitet:
Ist jetzt die 768MB Version bescdhnitten? Ich meine wegen der ROPs z.B. Ist nur eine Verständnisfrage.

Also kann man sagen die GTX 460 786MB zu 1024MB verhält sich wie HD5750 zu 5770 (Wegen deaktivierter Teile) oder wie muss ich das verstehen?
 
Gemäß Hier! (und dem folgenden Text) ist die Speicherbandbreite durch Weglassen eines (von 4) Speichercontrollern samt der zugehörigen 8 ROPs reduziert, d.h. die max. Menge an Daten, die gleichzeitig von/zu GPU-Kern/RAM transportiert werden können, sind bei der 768 reduziert.

Schau auch auf das Bildchen auf der rechten Seite (Hier): Einer von den 4 vertikalen Balken ("Memory Controller") samt der zugehörigen 8 ROPs (die 8 kleinen blauen horiz. Strichelchen unter/über L2 Cache) ist bei der 768 deaktiviert, während von den 8 grünen "Mosaiken" (Streaming- Multiprocessor) bei beiden 7 aktiviert sind.

Bei der HD 5770/5750 ist es quasi umgekehrt (siehe Hier): Man erkennt an der Tabelle, dass die Speicheranbindung bei beiden identisch ist aber dafür an den Shadereinheiten reduziert wurde.

Platter ausgedrückt: Die 768 rechnet zwar genauso schnell wie die 1024er aber die Datenautobahn zum Transport der Daten ist schmaler.


Ist jetzt die 768MB Version beschnitten?
Ja, ist sie ! Denn in kritischen (=rechenintensiven) Situationen, in denen die 1024 noch gerade so die berechneten Daten übertragen kann, wird die 768 ausgebremst. Wobei man sich natürlich fragen muss, wie wahrscheinlich so eine Konstellation ist...

Also...so hab ich das jedenfalls verstanden :lol:
 
Zuletzt bearbeitet:
Ist Metro in dem Test auf "High" getestet oder auf "Very High"? So ganz komm ich auf 1920x1200, Very High, AAA+16xAF und Tesselation nämlich mit meiner 460 OC nicht ran.
 
Ja, ist sie ! Denn in kritischen (=rechenintensiven) Situationen, in denen die 1024 noch gerade so die berechneten Daten übertragen kann, wird die 768 ausgebremst. Wobei man sich natürlich fragen muss, wie wahrscheinlich so eine Konstellation ist...

Also...so hab ich das jedenfalls verstanden

Hast du richtig verstanden und diese Konstellationen sieht man bei jedem brauchbarem Test, weil da nämlich die 1024er Version immer mehr "davonzieht", je mehr (SS-)AA und Auflösung ins Spiel kommen. Das ist nämlich genau ein Szenario, in dem die ROPs beansprucht werden.
 
diese Konstellationen sieht man bei jedem brauchbarem Test, weil da nämlich die 1024er Version immer mehr "davonzieht", je mehr (SS-)AA und Auflösung ins Spiel kommen.
Stimmt ganz genau. Weniger ROPs bei der 768 da weniger VRAM und somit weniger "BUMS" bei AA.

Aber warum diskutiert Ihr hier? Ist doch überall bekannt!:rolleyes:
 
Ich für meinen Teil diskutiere hier nicht sondern habe mich aufgrund der Äußerung:

Also...so hab ich das jedenfalls verstanden

bemüßigt gefühlt hier einen auf Checker zu machen. :lol:
Nichts weiter. ;)
 
Ich möchte mal Kritk zur Testmethodik im weiteren Sinn loswerden:

a) Mit der GTX 260 216 und der HD 4870 werden genau zwei Karten der alten NV- bzw. ATI-Serien mit getestet.
Das ist an sich zu begrüßen, dennoch ist es schade, dass ihr GTS 250, GTX 275, GTX 285 und GTX 295 sowie HD 4850 (X2) und HD 4870 X2 weglasst. Selbst die HD 3870 und große 9800er von Nvidia wären imho noch angebracht.

Klar, so sind die Listen etwas kürzer, aber ganz ehrlich, die genannten Karten würden keinen Leser stören.
Der Nutzen eurer Tests wäre aber viel größer, weil es immer noch für die allermeisten Leser interessant und wichtig ist, die Leistung aktueller Kartenserien in Relation zu der eigenen Grafikkarte zu stellen.
Durch euren Test kann ich mich zwar entscheiden, welche der neuen Karten besser ist (und dazu auch den Preis in Betracht ziehen), aber ich weiß längst nicht, ob sich etwa der Umstieg von einer GTX 275 auf eine GTX 460 lohnt oder der Umstieg von HD 4850 auf eine HD 5830.

b) Wenn ihr schon die HD 5750 mit testen, dann nehtm doch auch die GTS 250 in den Testparcours mit auf. Sie ist Nvidias direkte Konkurrenz zur HD 5750 und teilweise ja auch zur HD 5770.

c) Ich kann nicht nachvollziehen, wieso ihr die Frame-Werte der HD 5750 prinzipiell ab 1920 Bildpunkten ausspart. Den einerseits sind auch in Full HD noch die meisten aktuellen Spiele gut bis sehr gut spielbar mit einer HD 5750, andererseits wäre auch hier der Vergleich zu einer HD 5850 beispielsweise interessant für alle, die überlegen, aufzurüsten.

Fazit:
Will ich - wie die allermeisten Aufrüster - nicht von einer aktuellen Karte auf eine noch potentere aktuelle Karte aufrüsten (Enthusiast), sondern meine alte HD 48xx oder GTS 250 oder GTX 2xx gegen eine modernere Karte austauschen, muss ich erst umständlich drei verschiedene Tests nebeneinander öffnen, die ich dann irgendwie zu vergleichen versuche.
Besser: Auch ältere/schwächere Karten noch eine Weile im Parcours behalten, auch wenn's für euch mehr Arbeit ist. Den dankbaren Lesern nützt es so am meisten.
 
Auch ältere/schwächere Karten noch eine Weile im Parcours behalten, auch wenn's für euch mehr Arbeit ist.

Die werden nicht jedes Mal mitgetestet sondern nur ihre Werte übernommen. :)

Klar, so sind die Listen etwas kürzer, aber ganz ehrlich, die genannten Karten würden keinen Leser stören.
Der Nutzen eurer Tests wäre aber viel größer, weil es immer noch für die allermeisten Leser interessant und wichtig ist, die Leistung aktueller Kartenserien in Relation zu der eigenen Grafikkarte zu stellen.
Durch euren Test kann ich mich zwar entscheiden, welche der neuen Karten besser ist (und dazu auch den Preis in Betracht ziehen), aber ich weiß längst nicht, ob sich etwa der Umstieg von einer GTX 275 auf eine GTX 460 lohnt oder der Umstieg von HD 4850 auf eine HD 5830.

Da mag eventuell ein Problem sein, dass bei den kleinsten Kleinigkeiten, die da aus Gründen des Zeitdruckes vielleicht nicht so genau behandelt werden, riesige Flamewars im Forum entstehen können. Soviel Undank für so viel Arbeit ist nicht jedermans ache. :)
 
Auf Seite 2 ist ein Fehler:

Taktrate und TMUs sind bei der 768MB Version und der 1GB Version identisch, somit _muss_ auch die Pixelfüllrate identisch sein (in dem Fall: 18900).

Die Reduzierung der ROP-Einheiten und des Speicherinterfaces haben jedenfalls keine Auswirkungen auf Pixelfüllrate :)

Grüße TheShaft
 
TheShaft schrieb:
Die Reduzierung der ROP-Einheiten und des Speicherinterfaces haben jedenfalls keine Auswirkungen auf Pixelfüllrate :)

Die Pixelfüllrate ergibt sich aus dem Produkt der Anzahl der ROPs und dem Kerntakt.

Vermutlich meinst du die Texelfüllrate, welche durch die TMUs bedingt wird. Und die ist richtig, da gleich, angegeben.
 
Zuletzt bearbeitet:
Ich habe heute von EVGA die GTX 460 mit 768 MB Bekommen als Ersatz für meine Defekte 8800GS.

Also Leise ist was anderes finde ich. Es ist eine twas hohes brummendes und in einem bestimmten Frequenzbereich fiepend wirkendes Geräusch.

Laufen sich die Lüfter noch ein? Mich drängelt es jetzt nach einem Dännset (hatte ich eh schon überlegt, habe eh 2 Case Lüfter und dicken 120mm Netzteil Lüfter (SeaSonic S12II), da staut sich auch mit Dämmstoff nicht viel.
Messe zwar auch nur 41dB, trotzdem übertönt es meinen TV , welcher immerhin mit 53dB dröhnt gerade.

Zum Stromverbrauch, im Idle habe ich 19W mehr als OnBoard Only. Das ist schon einiges, wenn auch noch im Rahmen.


PS: Ja ich weis Thema 1 Jahr alt....
 
Lade dir vielleicht den nVidia Inspector hier aus der Downloadrubrik herunter und regle den Lüfter herunter. Afterburner sollte dafür ebenfalls reichen. Ändert sich dann etwas bzgl. dem Störfaktor?
 
Ich glaub der ist schon auf minimum ;)

Bei 40% geht es los mit dem Tool ...
aber habe derzeit eine Decke über dem Rechner liegen und die Heizung dröhnt gerade. Muss warten bis es abens ist dann ist es ruhiger ;)
Die Decke über dem PC hat schon gut geholfen. Denke mal Dämmaterial wird es auch.


Im übrigen dachte ich das ich evtl. strom sparen kann durch untertakten, aber damit ändert sich nix bleibt alles gleich. (Hmm ok wenn ich TV Karte abschalte taktet der echt auf 50W runter, aber Stromverbrauch bleibt gleich... bzw. schwankt +/-5W wie unter etwas last mit TV Karte lach)
 
Zuletzt bearbeitet:
Dann müsste man mit nibitor die Minimallüfterdrehzahl im Bios herunterregeln ... das wäre zumindest eine Option. Ich habe das mal bei einer nervtötenden evga GT 430 gemacht, die in Windows konstante 60% rennen wollte, bei 30°C GPU-Temperatur ... danach war Ruhe, man muss nur aufpassen, dass die %-Werte nicht zu gering sind, sonst läuft der Lüfter erst nicht an, heult dann nach einer Zeit auf (weil die Temperatur steigt), um sich wieder auszuschalten und es geht von vorne los.
 
Zuletzt bearbeitet:
Zurück
Oben