Test Test: Nvidia GeForce GTX 260 (216 Shader)

Hallo CB, wie kommt ihr zu diesen Ergebnissen?

Lautstärke IDLE:

GeForce GTX 260 = 47 Dezibel
GeForce GTX 260²= 46,5 Dezibel

Lautstärke Last:

GeForce GTX 260 = 55 Dezibel
GeForce GTX 260²= 49 Dezibel

Temperatur GPU IDLE:

GeForce GTX 260 = 43 °C
GeForce GTX 260² = 40°C

Temperatur GPU Last:

GeForce GTX 260 = 78°C
GeForce GTX 260²= 73°C

Temperatur Rückseite Last:
GeForce GTX 260 = 59°C
GeForce GTX 260²= 66°C

Da die GPU und das Kühlsystem identisch sind, gehen wir davon aus, dass Zotac die Wärmeleitpaste etwas effektiver auf den Bauteilen angebracht hat.

Ihr habt doch die Zotac aufgeschraubt, habt ihr das bei der Standard260er nicht gemacht ?
Ausserdem befindet sich auf der Rückseite keine Wärmeleitpaste ! ;)
 
@X-Factor1982
wer lesen kann ist klar im Vorteil!
hättest du meinen post komplett gelesen, müsstest du eig. darauf kommen das ich mich auf die quad cores beziehe!
Und bei gleichem takt liegt ein phenom mit einem core2quad nunmal ca. gleich auf;)
Das ein alter X2 nicht an die leiustung heran kommt ist auch mir klar, aber da brauch man auch nur mal auf das alter der architektur schaun, dann weiß man bescheid das er da einfach nicht ganz mithalten kann.
Den sinn für realität scheinst mir nur du verloren haben!
schaust du mal hier klack
Dann siehst du wie wichtig eine cpu bei den modernen spielen geworden ist:)
Und da ist es wurst was für eine CPU ich drin hab, ab einer gewissen auflösung und dementsprechenden details limitiert einfach die graka und das ist so.
Aber du kannst gern in low details 800*600 spielen und dich dran freuen das du mit deiner intel cpu mehr frames hast:D

PS:
dein test ist ja sehr aussagekräftig ein synthetischer benchmark O_o solltest dich vielleicht mal von deinen tagträumen abwenden und dich mehr der realität zu wenden ;)
ich kann dir genauso gut einen test vorknallen der speicherlastig ist und wo der AMD den intel wegbasht.... aber das ist nunmal nicht aussagekräftig.
Den wenn ich mir eine GTX 260 kauf möchte ich damit spielen, also schau ich mir auch ausschließlich die spiele benches an und da tuts eine günstigere CPU einfach auch.

mfg
 
Zuletzt bearbeitet: (Ergänzung)
Radeon HD2900 XT, 1.280x1.024 ... mehr sag ich nicht.

btw weiß ich nicht, was CB bei Anno 1701 misst, wenn ich mir mal diese Anno-Benches anschaue. Im Übrigen geht GRID voll auf die CPU --> Benchmark.

Ich sehe bei keiner mit bekannten Page, dass ein X4 bei gleichem Takt im Durchschnitt deutlich vor einem gleich getakteten Core2Quad liegt.

cYa
 
@ y33H@
bei deinen tests wurde nur in 1024*768 getestet und auch ohne AA.
Ich hab jedoch gesagt das wenn ich in z.b. 1680*1050 und 4 fach AA spiele es keinen unterschied macht ob ein intel oder amd in meinem pc steckt.
ich respektiere deine tests zwar sehr, jedoch spiele ich selbst anno 1701 und das nur mit einem 2 jahre alten 5600er AMD in verbindung mit einer 8800 GT und da ruckelt nichts zu keiner zeit, auch nicht wenn ich ziemlich am ende bin und fast alle inseln besiedelt habe.
Von daher kann ich das ergebnis von cb eher nach vollziehen.
Und von der effizienz pro takt kann man durchaus sagen das sie in etwa gleich sind, es gibt halt einfach keine anwendung womit man dies eindeutig feststellen könnte.
Mal ist die eine vorne mal die andere, von daher schenken sie sich nicht alzuviel.
wobei ich den q6600 bzw. q6700 meine, die 9000 wurde ja etwas verbessert und liegt somit etwas darüber. wobei sie allerdings auch preislich sehr darüber liegt.
hätte ich vielleicht deutlicher sagen sollen, meine beim pro takt vergleich natürlich phenom und q6600.
Hatte sich nur preislich angeboten einen q9XXX zu wählen in meinem beispiel, da diese sehr teuer sind für meinen geschmack und mir beim gamen keinen alzu großen vorteil bieten im gegensatz zu günstigeren modellen und das ist gut in 90% der games der fall ;)

mfg
 
Anno ruckelt ja auch nicht, dass kann man ja bei 15 Fps noch zocken, wenns sein muss ;) Ich habe es auch wochenlang gespielt, daher weiß ich wovon ich spreche.
Ein Q6xx0 ist bei gleichem Takt tatsächlich nur leicht bis kaum vor einem Phenom X4.

Ich tüftel grade an Warhead-CPU-Benches, da lassen sich in "very high" selbst mit ner 88GT noch Fps rausholen - zumindest mit meiner CPU @ 4,4 GHz :D

cYa
 
@ y33H@
ich hab anno als es rauskam noch mit einer 6600 GT gespielt ich weiß zwar nicht ob es 15 fps oder weniger waren aufjedenfall ist der spielspaß gleich 0:(
Von daher ist es nicht ganz so empfehlenswert:D
Mit ner 7900 GS oder 8800 Gt macht das gleich mehr spaß :)
Übrigens den fehler bei trackmania hab ich endlich gefunden es lag an den spielern, hab einfach die anzahl der angezeigten fahrzeuge auf 6 veringert und schon war der wert wieder bei 30-50 fps was zum ordentlich fahren ausreicht :)
Bei der CPU hätte ich es gleich anderst schreiben sollen, aber für mich schien es verständlich, da ich ja weiß was ich mein :D
4,4 GHz mit stickstoff kühlung oder :D
Wenn ich übertakt wird das meistens nichts, hab bei meiner 8800 GT auch ne ziemliche OC krücke erwischt :(

aber bevor ich mehr vom thema abschweif geh ich ins bett, machs gut
gute nacht @ all

mfg
 
4,4 GHz bei 1,27v mit einem Thermalright HR-01 Plus und nem Noiseblocker XL1. Recht hitzig, etwas über 85°.

cYa
 
Wie kann eine Grafikkarte, die mehr leistet, ansonsten aber identisch ist, gleichzeitig leiser und kühler sein?! Haben die einen neuen Kühler verbaut?
 
@Mitch O'Neil
Das Testmodell kommt wohl mit gesenkter Spannung daher, wie auch scheinbar bei techPowerUp.

FreeZer_ schrieb:
Unyu jetz geh mal nich jedem mit deinen 100 verschiedenen AA-Sorten auf den Wecker. 98,5% aller Zocker werden wahrscheinlich nichtmal wissen, dass es verschiedene Formen gibt.
Ich kann nicht dafür, das es mehr als 2 offizielle Modi gibt und das man sogar im Spiel immer öfter die Möglichkeit zwischen mehreren hat.

Und wie man ja sieht herscht Aufklärungsbedarf, nur das scheinbar fast keiner aufgeklärt werden möchte. Es ist halt einfach zu behaupten: "ab 8x bracht man eine AMD Karte" / "bei hoher Qualität ist Nvidia schrott".
Diese Behauptungen sind einfach nicht zutreffend.

Richtiger wäre: "Bei 8xQ (MSAA) hat AMD einen Performance Vorteil, Nvidia hat seit 2 Jahren hier Probleme" / "zu hoher Qualität brauchts mehr als nur einen mittelmäßighohen AA Modi, sondern auch AI-off und HQ und TAA/AAA"

Was kann ich daraus schliessen, das die Behaupung immer wieder kommt?
Gezielte Flames? Leseunwilligkeit? Sind einige scharf auf die Zahl 8 und auf flimmernde Shader? Oder etwas anderes?

FreeZer_ schrieb:
Belassen wir es doch einfach bei dem normalen, ingame-aktivierbaren AA. Nur so wird es auch massentauglich.
Oft genug hat man im Spiel mehr als nur die Wahl X oder Y.
 
MunichRules schrieb:
Ihr habt doch die Zotac aufgeschraubt, habt ihr das bei der Standard260er nicht gemacht ?
Ausserdem befindet sich auf der Rückseite keine Wärmeleitpaste ! ;)
Natürlich haben wir das, nur habe ich jetzt nicht mehr so genau im Gedächtnis, wie die WLP auf der GTX 260 genau ausgesehen hat ;)
Eine Spannungssenkung von Zotac kann da natürlich auch eine Rolle spielen.
 
Lieber Muscular Beaver!

Da muss ich nochmal mit dir drüber reden ;) Wo fang ich am besten an?

Also deine Gründe in deinem Profil wären da:

1. Grafikfehler in einigen nicht weit verbreiteten Spielen.

OK, obwohl dies ärgerlich ist und in deinem Fall mit einer Geforce nicht der Fall ist, lass dir gesagt sein, das dir das mit einer Geforce trotzdem genauso passieren kann. In so einem Fall ist es jedenfalls immer ratsam, den Support auf so etwas aufmerksam zu machen, evtl. kann damit auch vielen anderen geholfen werden.

2. Sehr hoher Verbrauch im idle.

Ich brauche dir wohl nicht erst die Leistungsaufnahme aus dem aktuellen Test der 216 verlinken. Da liegt die 4850 für eine Grafikkarte dieser Leistung in einem sehr guten Bereich. Sie verbraucht im idle grad mal 30W mehr als die sparsamste Graka, dies ist sogar weniger als eine popelige 40W Glühlampe. Während dies sicher nicht perfekt und auch verbesserungswürdig ist, kann ich dein Argument nicht ganz nachvollziehen. Die 216 liegt im Übrigen im selben Bereich.

3. Richtig mieser Treiber.

Schwer nachvollziehbares Argument. Da kann man sicher genug Leute finden, die genau dasselbe über den Geforce-Treiber behaupten. Also arg subjektiv. Ist ja auch klar, man ist was anderes (=besseres?) gewöhnt und tut sich schwer mit einer anderen Herangehensweise. Vielleicht greift hier auch das "Argument", der ATI-Treiber wär eine alles-oder-nichts-Politik. Das kann ich persönlich nicht nachvollziehen, da A.I. Standard im Prinzip das gleiche (gute) Bild liefert, wie A.I.-off. Nur mit wesentlich besserer Performance. Also wo ist das Problem? (Da bin ich ja mal gespannt unyu ;)) Mir gefällt der ATI-Treiber wesentlich besser, obwohl ich jahrelang ne Geforce hatte (bin aber davor immer am hin- und herwechseln gewesen).

Bleibt noch das Thema mit den für dich nachvollziehbaren 10% fps-Unterschieden. Wenn nicht mal yeehah einen Unterschied sieht, darf man wohl zu Recht kritisch hinterfragen. Wenn du einen Unterschied bemerkst, ists ja gut. Bloß dann frag ich mich, warum du im kompetetiven Bereich mit einer Framerate spielst, wo man so einen Unterschied bemerkt? Stellen die Pros nicht immer sogar die Grafikdetails auf minimum, damit die Framerate steigt bzw. irgendwelches Grafikblendwerk nicht mehr so sehr ablenkt? (Kenn mich nicht weiter aus, deswegen frag ich)

@Mitch O'Neil: Das kann schon an der Serienstreuung liegen, manche Chips laufen halt besser als andere, warum auch immer. Ein anderer Grund können abgesenkte Spannungen (evtl. auch in der Streuung begründet) sein. Die geringere Lautstärke kann einem besseren Lüfter (wieder Serienstreuung ;)) geschuldet sein. Sprich, CB hatte evtl. beim Test der "alten" 260 ein extrem mieses Modell erwischt und jetzt vielleicht ein extrem gutes. Deswegen lohnt es sich auch nicht, wegen ein paar frames hier und ein paar Watt da und ein paar Dezibel dort rumzustreiten.

@Unyu: Das mag ja alles sein, aber die Leute beziehen sich nunmal auf das was hier getestet wurde. Alles andere ist ja auch Blödsinn.
Mach DU doch mal einen Fred auf, indem schön alle AA-Modi von NVIDIA erklärt werden (ATI wirst du ja kaum bringen können ;)), schön mit ein paar (wenigen) Benches (damit man ungefähr weiß, was jeder Modus an Lesitung frisst) und Bildern und ein paar Worte dazu warum das jetzt viel schöner ist als nur 4xAA oder was weiß ich. Den Link zu dem Fred kannste schön in deine Signatur packen. Da hätten wir alle viel mehr davon als nur Worte, denn Bilder sagen mehr als tausend Worte. Da kann sich jeder selbst ein Bild machen.

@the witcher: Ich kann dir nur 100% zustimmen! Aber bei einigen Leuten gibts da irgendwie ne Denk-Blockade oder irgendwelche nicht nachvollziehbaren Vorurteile. Kann man nix machen, muss jeder selber wissen, ob er für in der Realität kaum auftretende Geschwindigkeitsvorteile das Doppelte ausgeben will.
 
Wegen ein "paar" Dezibel streite ich mich wohl! Ich hasse es, das Geräuschaufkommen eines Staubsaugers mit einer Grafikkarte zu überbieten...
 
Hier vergessen wieder Leute, dass Dezibel nicht linear steigen. Wenn eine Karte 40 Dezibel laut ist, und eine andere 50, dann ist die andere nicht ein bisschen lauter, sondern doppelt so laut.
 
@Freezer: Hääh??? Hat einer was anderes behauptet? War mir sowieso schon klar...

@Mitch O'Neil: Das dürfte kaum der Fall sein, dazu empfehle ich auch einfach mal die Messmethode bei CB zu studieren: "Beide Messungen werden im Abstand von 15 cm zur Grafikkarte durchgeführt. Die Messung erfolgt für das gesamte Testsystem."

Was ich sagen wollte ist, das die gemessenen Werte bei ein und demselben Grakamodell (Also von mir aus zwei identische GTX 280 von EVGA) durchaus beträchtlich voneinander abweichen können. Deswegen kann man die Messwerte als Indiz, aber nicht als ultimative Referenz sehen.
 
@ Wolfgang

Meine Güte eine Halbwertszeit wie Polonium hast du :D
Kannst du das nächste mal Äpfel gegen Äpfel vergleichen und nicht Birnen !
Im Klartext, ich nehme die Zotac260er Version1 und die Zotac260er Version2 und vergleich sie dann und nicht irgendwelche Hersteller die immer irgendwie vom Standarddesign abweichen können !

@ Freezer

Wenn du schon anfängst, warum schreibt CB nur Dezibel und nicht dB(A) oder was sie sonst für einen Filter benutzen.
Warum wird nicht Sone verwendet, das ist doch angeblich viel näher am menschlichen Höhrvermögen! Die c't macht das schon lange!
 
Zuletzt bearbeitet:
Das ist alles das Referenzdesign, abgesehen vom Aufkleber und dem BIOS gibts da eigentlich keine Unterschiede.
 
meiner meinung nach sagt der test gar nichts aus! die ham ja noch nicht mal die neusten treiber für die HD4870 benutzt, wie will man die karten dann fair vergleichen?
 
@FreeZer_ bei normalen dB(A) liegt ist das aufjedenfall anders,

10 dezibel ist zehnmahl so laut, 3 dezibel mehr ist doppelt so laut. kannst du viel im internet nachlesen

oder versteh ich das gaze falsch? oder verwechsel ich was?
 
Jeder meckert über die nicht richtig funktionierende 2D Umschaltung bei ATI 48er Serie.
Fackt ist das bei dem Nvidia Treiber das auch nicht richtig funktioniert. Beispiele ICQ, Internetbrowser usw. Hier kann von einer Stromsparfunktion auch nicht gesprochen werden.
Schon komisch das solche Programme als 3D erkannt werden.:kotz:
 
Was ist ein Fackt?! Ich kenne nur Fakten und die sagen bei mir, dass meine Geforces in 2D trotz FF und ICQ runterschalten ;)

cYa
 
Zurück
Oben