Test Test: GeForce GTX 285 OC von Asus und Zotac

@ RediMischa:

Für welche Grafikkarte hast du 380 Mäuse hingelegt? Nich für die GTX 285 oder???
 
Dai6oro
Scheinbar wurde jemanden auf die Finger geklopft, so viele GTX 280 wie jetzt im Umlauf sind, da müssten maßig neue Berichte über den Heatbug in Umlauf sein, im Vergleich zu den Monaten nach Release.
 
Meine Pallit 285 fiept ab und an in Spielmenüs ansonsten im normnalen Betrieb alles ruhig.
Übertakten kann ich sie auf die Zotac Amp! Werte, ohne den Lüfter hochdrehen zu müssen oder sonstwas. Sie läuft dann rockstable.
Standardtakt reicht mir aber vollkommen.
 
Bingood schrieb:
Meine Pallit 285 fiept ab und an in Spielmenüs ansonsten im normnalen Betrieb alles ruhig.

Bei meiner EVGA auch, geht mir darum auch sowas von am Popo vorbei die paar Sekunden Gefiepe in manchen Menüs.

Jenergy schrieb:
Mich würde nen Test der EVGA GTX 285 FTW interessieren. DAS ist OC! :D (mal ehrlich: die Asus TOP ist n'Witz)

Die SSC Taktraten auf der normalen EVGA 285 brachten in Crysis oder Far Cry 2 gerade mal so 3FPS beim vergleichen, bei den paar MHZ mehr der FTW kannst dir also noch so einen oder zwei dazu denken wohl, auch kaum der Rede wert eigentlich.
Hab meine nur auf SSC Level gelassen, weil sie weder heisser noch lauter wird so, aber so wirklich was bringen tut das nicht.

Wer für eine GTX 285 OC mehr bezahlt, ist selber schuld, lohnt nicht!
 
@holdrio
stimme Dir völlig zu !

Wenn man diverse Foren mal studiert, könnte einem auffallen, dass Werks-OC Karten und besonders die "extrem" geocten Karten häufig technische Probleme bereiten,
d.h. sie halten nicht, was sie versprechen - stabilen Betrieb mit den OC-Einstellungen.
Zumindest ist das Risiko wohl höher (nachzulesen im "Probleme"-Forum, es sind oft
OC-Karten, die Bluscreens oder Rests auslösen).
Also mehr Geld bezahlen und dann technische Probleme haben...
Nein Danke.
 
So, meine GTX 285 ist heute nun auch angekommen. Gut ist, dass sie nicht im 2D-Modus Tinitus-artig herumfiept wie meine vorherige Zotac GTX260 (55nm). Schlecht ist, dass sie wirklich unter Last gut hörbar herumfiept, aber zum Glück nur bei hohen Fps. Insgesamt gesehen ist das Fiepen aber merkbar aufdringlicher als bei meiner 8800GTX und der genannten Zotac. Die Zotac war wiederum merkbar leiser als die 8800GTX (und ergo als meiner jetzige GTX 285), was das Fiepen angeht.

Was noch auffällt:
- Mittels RivaTuner lässt sich der Lüfter nicht unter 40% regeln, was mir aber schon bekannt war.
- OC´ng mit dem RivaTuner klappt zwar, aber das 2D Profil wird stumpf ignoriert => OC-Taktraten bleiben permanent erhalten => getestet mit RivaTuner 2.21 und 2.22
- Im Gegensatz zu allen anderen Karten vorher (8800 GTX, GTX260 [55nm, 65nm] und GTX280) fällt sofort auf, dass sich die Karte bei vielen Anwendungen auf hochtaktet, was vorher nicht der Fall war. Selbst bei Photoshop oder diversen Torrent-Clients taktet sich die Karte auf 648/1476/1242 hoch. Hardware Acceleration bleibt in dem Moment auf 0 laut RivaTuner Monitoring, was also nicht unbedingt das Verhalten erklären würde - das alles war vorher definitiv nicht der Fall. Woran liegt das wohl? Habe seit heute den neuen 181.22er Treiber drauf. Ob der das Ganze verursacht? Müsste ich also mal austesten...
 
Zuletzt bearbeitet:
@Jenergy

für die evga gtx285 hab ich 380eus gelegt^^...hatte die mit einem q9650(340eus) zusammen bestellt und da leider der q96 da noch nich lieferbar war(erst 2wochen später) hat sich in dieser wartezeit natürlich gewaltig was am preis getan:rolleyes:
naja mir egal...hauptsache ich hab meine hw:evillol:
 
Wolfenstein 2k2 schrieb:
- Mittels RivaTuner lässt sich der Lüfter nicht unter 40% regeln, was mir aber schon bekannt war.

Mit dem EVGA Precision gehts bis 25% runter.

Wegen hochtakten, sei mal froh hast du nicht 2 Monitore dran, dann taktet sie wie schon die 260 und 280 auch sogar überhaupt nie runter, das könnten die Nvidioten wirklich mal endlich fixen hmpf.:freak:
 
@ RediMischa:

Ging mir genauso, habe auch ne GTX 260 55nm bestellt. Für 260 euro :freak:
 
Das EVGA-Precision Tool lässt sich zwar auf 25% einstellen, die Lüfterdrehzahl bleibt aber auf 40%, da tut sich nix.
 
Ati hatte das Spulenfiepen tatsächlich bei den 1900XTX Karten (zumindest bei mir mit OC, unter Last), allerdings fiepen weder meine HD3870 noch meine HD4850 (beide massig oc). Auf NVidia-Seite fiept sowohl die 8800GTX eines Freundes, als auch die 8800GT GS GLH (Gainward 1024MB) meines Bruders.
Ist also kein neues Problem.

Da es jetzt aber explizit erwähnt wird, stellt sich mir die Frage, ob es bei den G200b Karten wohl störender ist bzw, häufiger auftritt?
Scheint zumindest so. (Am Netzteil sollte es nicht liegen, sondern in der Tat an weniger hochwertigen Bauteilen)

@Kasmopaya

es auf den Preiskampf zu schieben, ist wohl nur eine Ausrede,
denn wenn die Karten soviel teurer zu produzieren sind,
dieser Mehraufwand aber nicht im selben Maße mit mehr Leistung einhergeht und damit ein weit höherer Preis nicht gerechtfertigt ist (bzw. vom Kunden nicht gezahlt wird),
liegt die Schuld klar bei NVidia!
(falsche Marktinterpretation, Fehlplanung des Chip- und Platinendesigns (preismäßig nicht konkurrenzfähig)

dein Vergleich mit den CPU's bezüglich Effizienz, hinkt meiner Meinung nach, denn eine GPU ist nachwievor nicht mit einer CPU zu vergleichen, da sie komplett anders aufgebaut ist, bzw. andere Anwendungsbereiche hat. Nur weil eine GPU für einige wenige Anwendungen, die bisher der CPU vorbehalten waren, sinnvoll (mit Geschwindigkeitszuwachs) einsetzbar ist, kann sie eine schnelle CPU nicht ersetzen. Eine GPU nach heutiger Bauart, kann auch durch CUDA nicht darauf getrimmt werden alle Berechnungen, welche eine CPU ausführen kann, durchzuführen (bzw. wenn überhaupt nur mit enormen Leistungseinbußen). Da aber umgekehrt eine CPU alles kann, was eine GPU kann, werden wir sehen wie gut eine solche Lösung (Intel's Larrabee) funktioniert. Jedenfalls brauchen heute die stärksten Grafikkarten weiterhin auch die stärksten CPUs um ihre Leistung zu entfalten...



ich bleibe bei meiner Meinung, dass die GTX285 wohl nur für NVidia selbst interessant ist, und man als Kunde zur jetzt teilweise sehr günstigen GTX280 greifen sollte, wenn man vor der Wahl zwischen beiden steht.


edit: kein runtertakten bei Dual-Monitorbetrieb, ist doch wirklich eine Schwachstelle... (ich arbeite seit 3 Jahren mit zwei Monitoren, und habe gerade wegen der vielen Treiberprobleme, die ich dabei mit meiner 8800GT GS GLH (hat jetzt mein Bruder) hatte, wieder auf ATI gewechselt. )
 
Zuletzt bearbeitet:
Dass das Fiepen an der schlechteren Qualität der Bauteile der 285 liegen soll,
wage ich zu bezweifeln. Meine MSI GTX260 (192!!!) hat genauso gefiept, sogar eher noch etwas mehr. Da war von einem abgespeckten PCB oder schlechten Spulen noch keine Rede.

Sicherlich ist die 285 für Nvidia interessant, da sie billiger produziert werden kann.
Andereseits macht sie alles ein bisschen besser als die 280 und hat somit auch für den Kunden ihre Berechtigung.
Aufgrund des geringen Abstandes ist die 280 für den wirtschaftlich denkenden Kunden
natürlich die schlaueree Wahl - zumindest solange es die 280 noch gibt.

Ich hab mir die 285 trotzdem gegönnt - man muss ja nicht immer vernünftig sein......
aber das muss jeder selbst entscheiden.
 
Naja wer nicht gerade einen zweiten Monitor dran hat, hat mit der 280 dafür klar höheren 2D Stromverbrauch, was die gesparten Eurölis beim Kauf schon wieder etwas relativiert.
Dazu etwas weniger 3D Leistung und etwas mehr Lüfterlärm, ob das wirklich so ne schlaue Wahl ist muss halt jeder selber wissen, bei der Wahl nahm ich eindeutig lieber gleich die 285.

Von "günstig" im eigentlichen Sinne kann bei der 280 ja auch keine Rede sein, vernünftig sind die beide längst nicht mehr ;)
 
Und man kann das Runtertakten nicht per RivaTuner erzwingen, wenn man 2 Monitore dran hat (sprich: 2 Profile anlegen mit 2D / 3D Taktraten und ggf. manuell auswählen?
 
Könnten die Leute, die ne 285er haben, die Spannung auslesen und hier posten? Würde mich interessieren^^
 
Mit welchem Programm denn? RivaTuner zeigt nichts an, NiBiTor auch nichts (die Version, die es könnte, 4.8 oder so, ist glaube ich nicht umsonst bekommbar momentan).

PS:
OK, habe gerade NiBiTor 4.7 runtergeladen. Zeigt mir jede Menge Müll an, aber bei den Spannungen kann ich zumindest 1,25V und 1,05V auswählen. Wahrscheinlich liegen unter Last 1,15V an und 1,05V im Idle.
 
Zuletzt bearbeitet:
gpu-z (aktuelle version). Damit gehts. Bei sensors ganz unten bei VDDC.

Will eig nur die Last-Spannung wissen^^
 
Zuletzt bearbeitet:
Hi, bei gpu-z 0.3.1 habe ich bei Sensors keine VDDC Anzeige. Habe mal 2 Screens gemacht

image107.jpg


image108.jpg


oder übersehe ich da was ?
 
hm komisch. bei mir sind da noch mehrere anzeigen oO
naja trotzdem danke @IceMan62.

vllt wissen ja andere mehr über die spannung
 
Es kann schlicht an der Treiberversion(OS) liegen, IceMan62 verwendet 181.22 und du, Roenoe ? Die Unterstützung durch GPU-Z ist laut Revision History vorhanden, einfach 1-2 Versionsnummern bei den nVidia-Treibern zurück gehen und testen.
 
Zurück
Oben