Test Test: Nvidia GeForce GTX 260 (216 Shader)

MixMasterMike schrieb:
Das sagt dir vielleicht ob es sich dabei um eine Übertaktete Version handelt, mir jedoch nicht :s
Nächste mal einfach den Abschnitt "Technische Daten" lesen.

Jake_Dunn schrieb:
FUR-Mark ist kein Game und der bench ist nichts Wert
Vollauslastung juckt nicht mehr?
Na gut, aber warum hat man dann 800 ALUs verbaut?

Pepsito schrieb:
Nur wegen Lost Planet und Coh ist die neue 260 GTX schneller als die 4870.
Stimmt nächste mal werden nur AMD Spiele getestet.

Oder man könnte in Gothic 3 und Bioshock die Geforces mit AA quälen, damit die Radeons dank no AA an Raum gewinnen können.

Pepsito schrieb:
Damit verbraaucht man dann auch weniger strom als mit einer 260 GTX.
btw die 260 kann man auch "modifizieren":
Unter Last nochmal erheblich weniger Verbrauch + im Idle auch noch mal ein Stück runter.

Aber du bist doch immer der, der gewiese Aussagen in den Raum wirfst und dann abhaust?
 
@ Pepsito

Was bist du für ein Witzbold?! :rolleyes: Ich weiß natürlich, dass der GDDR5 schluckt wie blöde - aber was hat der mit PP2 zu tun?! Der wird halt nicht runtergetaktet, kA warum.

Ich "Schlauberger" habe das bereits mehrfach getestet ... also reiß mal die Klappe nicht so auf :freak:

cYa
 
Naja bei PP2 wäre es eben schön gewesen wenn diegrafikkarte im IDL diverse sektoren des chips bzw. der karte deaktivieren würde! So könnte man eben noch mehr strom sparen, das alleinige runtertakten hilft zwar auf jedenfall aber der verbraucht geht ab einer bestimmten magischengrenze von 200/200 nicht mehr runter! ^^

Glaube die grenze ist sogar noch höher bei PCGH gabs da mal einen sehr schönen test!
 
Das bestätigt, dass mein Kauf der 4870 mit 1 GB für 221 Euro richtig war.
Mal sehen, ob Nvidia mit der nächsten Generation wieder was reisst.
 
zur karte selbst is ja schon das meiste gesagt worden. Der Test ist auch wie immer gut formuliert.

Was mir jedoch übel aufstößt ist die Tatsache, das CB es nicht hinbekommt in der mittlerweile etablierten 1920 x 1200 Aufslösung Tests zu zeigen.

Statt dessen wird in 2560 getestet, die zwar den Enthusiasten passen wird, aber von den allerwenigsten wohl tatsächlich verwendet wird.

VOTE FOR 1920 x 1200 :D

mfg
 
Eigentlich sind die Karten mittlerweile viel zu potent. Wenn ich lese, dass diese weit über 100 fps mitmachen. Wieviele Leute zocken auch mit 1600x1200?

Man sollte sich wirklich überlegen was man wirklich braucht. Der Stromrechnung wirds auch bedanken.
 
Unyu schrieb:
Vollauslastung juckt nicht mehr?
Na gut, aber warum hat man dann 800 ALUs verbaut?


Wenn du so argumentierst musst du dann aber bitte auch die performance nur in Spielen testen wo sie zu 100% genutzt wird, z.b. grid.

Du kannst nicht auf der einen Seite sagen die Karte verbraucht im Maximum mehr, ist aber im Durchschnitt langsamer.


Entweder vergleicht man Performance UND Verbrauch im Durchschnitt oder beides im Maximum (und dann schlägt die 4870 problemlos eine 280gtx).
Eins geht nur.


Du kommst auch nicht auf die idee einen c2d gegen einen c2q zu testen, bei den performancetests mit einem aktiven core beim quad, beim verbrauch aber mit allen 4.
Wäre genau der gleiche Blödsinn.



@ topic : verstehe nicht warum die 8.9cat Werte nicht genutzt werden wo sie doch zur Verfügung stehen. Bei den minimalen Abständen in der Spitzengruppe sind 4% Unterschied nun wirklich sehr entscheident für die Rangfolge.
 
Muscular Beaver schrieb:
@y33h@
Ich auch, also bin ich wohl kranker als du wenn ich das merke. :p

Naja, Einbildung ist auch ne Bildung ;)

Letztens kam ein witziger Test im Fernsehen, da wurde Leuten auf der Straße absolut identischer Wein abgeboten, allerdings in zwei verschiedenen Flaschen. Der eine Wein sollte ein günstiger sein, der "andere" war angeblich ein 100€ Wein. Obwohl vom Geschmack absolut identisch, hat EINE! von glaub 20 Testpersonen gemerkt, das die gleich schmecken.
Wenn man sich also ne 70€ teurere Graka einbaut, *vermutet* man ja automatisch, das man deutlich besser unterwegs ist. Ist bei den CPUs eigentlich dasselbe, obwohl man praktisch keinen Unterschied beim Zocken merkt, glauben INTEL-Besitzer, das sie VIEEEEEEEEEEEEL schneller unterwegs sind als AMD-User (Weil der INTEL war ja viel teurer) :freak:

BTW würd mich auch mal interessieren, was deine Probleme mit der 4850 waren?

Ich schmeiß auch mal so in den Raum, das die GTX280 bei mir voll verkackt hat, die war so schlecht, da ist meine 3870 ja deutlich besser unterwegs...:freak: /IRONIE/
Kleine Begründung hier und da würd zu deutlich mehr Glaubwürdigkeit verleihen!

B2T: Die 260 (216) hat schon ihren Sinn, da können NVIDA Fanboys auf die Benches verweisen und sagen: "JA, die 260 ist ja viel schneller als die 4870 usw. kauf dir bloß ne 260!!!" Und der unbedarfte Verbraucher kauft sich halt ne normale 260 am besten noch zum Preis der 216 und steht hinterher dumm da. SUPER!!!!!einseinself

Ansonsten bekommt an zum vermutlich bissl günstigeren Preis einer OCten 216 die Performance einer 280, von daher schon ganz passabel. Allerdings kommt man da mit einer OCten 260 auch annähernd hin :rolleyes:

Naja, ich bin ja immer für möglichst viel verschiedene Produkte und Auswahl, weil Konkurrenz belebt das Geschäft. Von daher find ichs gut, das NVIDIA das Teil rausbringt. Also find ich das Teil nicht absolut sinnfrei, aber weitgehend.

Und da die "normale" 260 weiterläuft (logisch, weil immer noch genug kaputte Chips übrig sind), wird sich am Preis auch nix weiter tun, die 216 dient so gesehen nur dazu, das Image der 260 aufzuwerten.


@Realsmasher: Sehr gute Antwort, sehe ich genauso. Eigentlich müsste man, um das genau vergleichen zu können, jedes Spiel hernehmen und benchen und zusätzlich für jeden Bench den Stromverbrauch auslesen. Da steht die 4870 mit Sicherheit lang nicht so schlecht da wie mitm hergeholten FURMARK. Am UT3 Benchmark kann mans andeutungsweise sehen (der wird ja für die Leistungsaufnahmemessung herangezogen auf CB). Da ist das P/W-Verhältnis für die 4870 auch besser als bei der 260².
 
Zuletzt bearbeitet:
Irgendwie witzig. Jetzt baut NVidia Stromsparfunktionen ein, dafür hat ATI/AMD nun die leisen Kühler. Es ist halt ein ewiges hin und her :p

Realsmasher schrieb:
Wenn du so argumentierst musst du dann aber bitte auch die performance nur in Spielen testen wo sie zu 100% genutzt wird, z.b. grid.

Du kannst nicht auf der einen Seite sagen die Karte verbraucht im Maximum mehr, ist aber im Durchschnitt langsamer.


Entweder vergleicht man Performance UND Verbrauch im Durchschnitt oder beides im Maximum (und dann schlägt die 4870 problemlos eine 280gtx).
Eins geht nur.

Ich kann Dir nur z.T. zustimmen. Im Durchschnitt schlägt dann aber die 280gtx die 4870. Denn beim Durchschnittsverbrauch darf man nicht vergessen, dass Karten viel länger im idle betrieben werden als unter Last und da fährt die 4870 so viele Minuspunkte ein, dass sie das nirgendwo mehr aufholen kann. Mich regt dieser Punkt auch ordentlich auf. Leistungsmäßig ist die Karte (4870) top, Lautstärke top, Preis top. Aber der Verbrauch im idle ist ne Katastrophe. (Witzig, dass die NVidia Karten weniger verbrauchen, aber leuter sind)
 
Zuletzt bearbeitet:
Genau das ist es ja nur weil manche sachen teurer sind müssen sie nicht gleich besser sein!
Ich hab selbst AMD nen Rechner und hatte vorher intel CPU NV Board gehabt! Die CPU leistung war eigentlich identisch nurdas ich für mein AMD system die hälfte bezahlt hab! Der einzigste unterschied war die graka damals hatte ich ne X1950XTX drinne und nen C2D E6400 ^^, das sys war vor einem jahr teuer, mein jetziges AMD system war um welten billiger ^^
 
Pepsito schrieb:
Es wär auch mall schön gewesen wenn ihr nur mit 5 Karten getestet hättet mit aktuellen Treibern.Man sieht ja das der Cat 8.9 das ergebniss geändert hätte.Bei Nvidia gabs bestimmt auch treiberverbesserungen.


https://www.computerbase.de/2008-08/bericht-nvidia-geforce-177.83/8/#abschnitt_performancerating

Wobei der GTX260² mit einem neueren Treiber getestet wurde, und der 260 zumindest mit einem Treiber der neuer ist als der erste in diesem Test.

zivilist schrieb:
Wieviele Leute zocken auch mit 1600x1200?
1680x1050 wird schon einigermassen verbreitet sein.
 
KAOZNAKE:
Danke für deine Arroganz. Einfach mal so Behauptungen in den Raum werfen. :daumen:
Es hat einen Grund warum ich so sensibel in der Sache bin. Und das ist weil ich sehr lange FPS Spiele kompetitiv bei 25-40 FPS gespielt habe. Da war jeder Frame mehr ein Segen und jeder Frame weniger hat mich ziemlich sauer gemacht und meine Leistung in den Keller gedrückt.

Die Gründe kannst du auf meinem Profil lesen. Ich will hier nicht schon wieder die Fanboys verärgern, da ich das schonmal gepostet habe und nur stumpfe Flames geerntet habe. Du fängst aber auch schon gut an...
 
Die GTX 260 AMP² (übertaktet + mehr Einheiten) verbraucht im 3DMark Mother Nature fast so viel wie eine 3870. http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/24.html
:o

Realsmasher schrieb:
Du kannst nicht auf der einen Seite sagen die Karte verbraucht im Maximum mehr, ist aber im Durchschnitt langsamer.
Habe ich auch gar nicht, ich habe mich nur erkundigt, ob eine Vollauslastung nicht interessant ist. ;)

Du hast natürlich recht, wenn man den Furmark Vebrauch vergleicht, muss man auch gleichzeitig die Furmark Leistung vergleichen.
Oder man zieht einen Schlussstrich, nachdem sich AMD seit 8.8 scheinbar von der Vollauslastung abgewendet hat und sagt: "Vollauslastung juckt nicht mehr." <- Genau der Punkt hat mich ja interessiert.
 
Bekomme doch immer wieder ein lächeln ins Gesicht wenn ich so die Fanboy-Kommentare von Kasmopaya und Unyu lese. Wieviel zahlt euch Nvidia nochmal? (Würd mich mal interessieren.)
Danke euch beiden, so wird das WE doch gleich viel schöner.
 
Weiß jetzt nicht was die Meldung mit dem Stellenabbau hier zu suchen hat, aber ich weiß noch weniger was mit "passt ja zu NVidia" gemeint sein soll.
 
An alle ATI-Starrköpfige.

Es geht hier um Grafikkarten: Fachgespräch: Nvidia GTX (216 Shader) Nicht um eine andere, verstanden! Welche das die dies hat oder ob sie Montags zusammen gebaut wurde!

Für mich ist immer in diesen Test etwas interessant: Technik, Lautstärke, Temperatur, Stromverbrauch und ich schätze am Ende das Fazit der Tester.
Wünschen würde ich mir, aber das nicht mit so einen High-End System getestet würde. Nun ja, die Frames Angaben sind damit doch alle Makulatur und darüber streiten sich welche. Vielleicht wollen sie, aber auch nur Beiträge sammeln und hoffen das es ab so und soviel etwas gibt.

-------

Ich finde den Leistungschub ordentlich und das OC potential enorm.
Wie man die Lautstärke drosseln kann würde ich zu gerne wissen.
Vermutlich eine Sonntagskarte.
 
Zuletzt bearbeitet von einem Moderator: (Doppelpost zusammengefügt - bitte Editbutton benutzen!)
Kasmopaya schrieb:
Vorteile 260 GTX:
- bessere AF Qualität, flimmerfrei

Nachteile:
- ein wenig teurer, aber auch wieder gleich, wenn man sie mit der 4870 1 GB Version vergleicht ->höhere Netzteil Anschaffungskosten, Stromverbrauchskosten...

Zwei Anmerkungen:
Flimmerfrei halte ich für übertrieben. Den Videos einiger User zufolge, welche ich vor ein paar Monaten auf einem anderen Board mal betrachtet habe, flimmert auch die 260 GTX, allerdings subjektiv weniger und an anderen Stellen als z.B. die ATI-Karten.

Höhere Netzteil Anschaffungskosten ist jetzt schon etwas übertrieben. Viele kaufen sich ihr Netzteil ohnehin überdimensioniert, so dass es eigentlich keine Mehrkosten darstellt und die Stromverbrauchskosten egalisieren die Preisdifferenz auch nicht so schnell. Dann eher den Verweis, dies der Umwelt zuliebe zu tun...
 
@Straputsky: Da die Vor- und Nachteile von einem Fanboy stammen, würd ich da nicht so viel draufgeben. Das die Punkte mehrheitlich für die Nvidia-Karte sind dürfte ja wohl klar sein. Für die 4870 könnte ich auch noch ein paar Punkte hinhängen, aber was hab ich davon? Richtig, nämlich nix. Ich kauf das, was "für mich" das Bessere ist. Und da ich mich selber bestens auskenne bin ich zum Glück auch nicht darauf angewiesen mir irgendwelche komischen und einseitigen Posts durchzulesen.
 
Straputsky schrieb:
Flimmerfrei halte ich für übertrieben.
Solange Nyquist nicht verletzt wird und der LOD Regler unberührt bleibt, hat er nunmal Recht.

Wenn der Entwickler meint es soll flimmern, dann hilft nur noch Spiel wegschmeissen.

Edit: Klikidiklik dein 1. Kommentar passt besser in eine PM, wenn du wirklich Anworten auf deinem Weg zur Erleuchtung suchst.
 
Zuletzt bearbeitet:
Zurück
Oben