Test GeForce GTX 285 im Test: Nvidia mit sinnvollem Upgrade der schnellsten Grafikkarte

Danke für den schönen Test ein tripple SLI währe auch noch interesant gewesen aber hat schon ordentlich Leistung der Preis ist natürlich ein schöner Auflschlag zur 295 genauso wie der Stromverbrauch.
 
Was das Fiepsen angeht, so würde ich da auch gerne mehr darüber erfahren, was da die Ursache ist. Meine GTX260 (65nm) hatte das anfangs auch (ein paar Tage), doch dann war es weg und ist seit dem auch nicht mehr da. Würde mal gerne wissen, ob es bei den Nutzern der 55nm Karten auch nach ein paar Tagen weg war/ist oder ob es bei den neuen bleibt.
 
Kein Hammer, aber auch keine Verschlimmbesserung => ein vernünftiges Produkt und genau das, was man erwarten konnte => geht in Ordnung.
 
IchmagToast schrieb:
Nur würde ich noch zur GTX 280 greifen,für unter 300€ lohnt es sich einfach mehr als ein übertakteter graka nur in 55nm...

surfix schrieb:
Ich würde auch noch zur GTX280 greifen. Der preis ist sehr gut. Und an der taktschraube kann man selber auch drehn.

es ist ja nicht so,dass man eine GTX285 nicht besser übertaketen bzw untertakten oder untervolten kann,gell^^

göschle schrieb:
Solider und unterm Strich, empfehlenswerter Refresh für all diejenigen, welche noch keine GTX2XX
.

oder einen RV770^^

Roenoe schrieb:
naja, ich bereue den kauf meiner gtx 280 nicht, läuft 713/1458/1332 @1,06V. kann nicht meckern^^

bereuen auf jeden fall nicht,trotzdem würde ich jetzt jedem eine GTX285 empfehlen, in den nächsten 2 wochen wird sich der preis auch noch anpassen.

Hätte ich jetzt keine 4870GS würde ich mir glaube ich sogar fast eine GTX285 kaufen.


gruß
 
also, so wie ich das sehe, bringt die GTX285 in der Hauptsache Vorteile für NVidia und kaum für den Kunden!

Der Chip lässt sich günstiger produzieren und sie sparen scheinbar auch an anderen Bauteilen (fiepen zeugt bei Spulen oft von niedriger Qualität, bzw. Betrieb am Rande der Belastbarkeit (Überspannung))

Die Vorteile für den Kunden sind begrenzt, denn im Vergleich zur jetzt preisgesenkten GTX280(die wohl nur mehr abverkauft wird) ist sie teurer und erreicht, vielleicht mit Ausnahme des RAMs, wohl keine OC Wundermarke, welche mit der GTX280 nicht auch annähernd erreicht werden kann. Wenn jetzt auch noch Hybrid Power wegfällt (auf der NVidia Seite nicht mehr vermerkt) bleibt wohl nur noch die Leistungsaufnahme als positiver Punkt übrig.

Ein Vorteil für alle: Die GTX280 ist dafür momentan wohl ziemlich empfehlenswert (solange es sie noch gibt)
 
Hi,
ich hätte ne Frage zu dem Testmuster. Warum macht ihr den Sprung von 1680x1050 direkt zu 2560. Ich fänd ne Auflösung von 1920*1200 oder Full HD recht interessant. Die 22" TFTs werden ja mittlerweile auch mit Full HD ausgestattet.
beste Grüße
Baconman
 
"Doch im Gegensatz zu Nvidia hat ATi das Problem der Mikroruckler noch nicht angegangen, weswegen eine Radeon HD 4870 X2 im Endeffekt manchmal langsamer ist, als es auf dem Papier eigentlich aussieht. Zudem fehlt einem die Möglichkeit, CUDA-Programme oder GPU-PhysX auszuführen, wobei der Mehrnutzen zurzeit noch eine Nischenerscheinung ist."

Dann sollte man aber auch gerecht sein und z.B. sagen das ATI seit der 3xxx DX10.1 unterstützt, obwohl es auch eine Nischenerscheinung ist.
Bin kein ATI fanboy oder so, aber beim Fazit sollten doch alle Pro und Contra Seiten aufgezählt werden??! Oder??!
 
ja, aber im prinzip genauso wenig ein Argument wie CUDA oder PhysiX. Von demher ist es wurst..


gruß
 
Cuda ist wieder etwas anderes und sollte nicht in einem Satz mit PhysX und D3D10.1 genannt werden.
Es ist ein Argument, nur für den 0815 Spieler eventuell nicht. Gibts dazu Umfragen?
 
Fred Fredburger schrieb:
Wieso wurde denn die 9800 GX2 aus sämtlichen neuen Tests verbannt, find ich persönlich ziemlich schlecht.

Neues Testsystem-->Keine 98GX2 mehr da zum testen-->rausgefallen. Find ich aber nicht so schlimm, weil man eh nur noch Restbestände bekommt, die Karte ist ja EOL. Sonst schaut man sich halt die Benches von damals an und denkt sich den Rest dazu.

sonnendieb schrieb:
Wann kommen denn endlich mal Tests mit Auflösungen von 1920 *1200 oder haben das immer noch zu wenige?

Kannst du dir ganz leicht selber denken: Einfach 30% von 1680 rauf oder 30% von 2560 runter, dann hast du deine fps. Die gewählten Auflösungen sind optimal, in 2-3 Jahren kann man dann mal 1280 rausschmeißen, aber das benutzen ja noch viele. 1680 ist ja Mainstream und 2560 fordert die Karten mal so richtig.
Noch was dazwischen schieben, ist unnötiger Aufwand.

GreatEvil schrieb:
Was fuer ein Test. Da wird mit ner zweifelhaften (falschen) Begruendung erklaert, warum der 8.11er bei Ati verwendet wird. (Obwohl der originale 8.12 denn genannten Fehler ueberhaupt nicht hat.)

Zum anderen ist eine Vergleichbarkeit von 280 und 285 nicht gegeben, da unterschiedliche Treiber genutzt wurden.

Sorry, aber diesen Test haettet ihr euch in dieser Art sparen koennen.

Man, so groß ist der Unterschied auch nicht, denk dir halt noch 1% dazu, ob der 8.12 keine Macken hat, weiß keiner genau, also lieber Nummer sicher.
Vergleich zwischen 280 und 285 genau das Selbe. Die Taktratenerhöhung von 10% passt genau mit 10% Leistungssteigerung, wozu soll man da noch mal ein Haufen Zeit verschwenden und die 280 noch mal durch den Parcour jagen?

Würdige mal lieber die Arbeit von CB, die du dir hier kostenlos anschauen kannst.

@Wolfgang: :daumen: guter Test.
Noch ein kleiner Fehler: Technische Daten, 2. Abs.:
"Die Shadereinheiten werden auf der GeForce GTX 285 mit 1.476 MHz angesprochen, was 234 MHz über dem Niveau der GeForce GTX 280 liegt."
Mein Windows Taschenrechner und auch mein Kopf sagt mir, das es 180MHz sind, aber vielleicht versteh ich was falsch. Bei der 280 steht jedenfalls was von 1296, nicht 1242 MHz

Für 330€ voll OK die Karte, auch wenn ich in der heutigen Zeit nicht mehr bereit wär, das zu zahlen. Für 22" reicht ne 4850 für 1/3 schließlich locker. Aber OK.

(+)Stromverbrauch relativ erfreulich
(+)Leistung natürlich über jeden Zweifel erhaben
(+)CUDA und Kram
(-)Lautstärke lässt zu wünschen übrig
(-)Noch kein DX10.1 ;)
(-)Kein Hybrid Power, für den ders nutzen kann jedenfalls.


göschle schrieb:
Dank des ausführlichen Tests, werde ich mir demnächst eine bestellen.

Is ja dein Ding, aber wie man so liest, hatten die ersten Mainstream Chips von NVIDIA in 40nm schon Tapeout, also noch 3 Monate und man wird die wohl so langsam erwerben können. Dann kanns jedenfalls nicht mehr lang dauern, bis die 40nm auch beim Highend ankommen.

Kommt natürlich drauf an was du hast und was du brauchst, aber wartenkann sich schon noch lohnen.
 
Insgesamt ein ordentlicher Nachfolger der GTX 280. Das Spulenfiepen scheint bei der neuen GTX-Serie allerdings schon chronisch zu sein. Ebenso unverständlich, daß der Lüfter der Karte unter Windows mit 40 % Drehzahl läuft. Ist bei meiner GTX 260 das gleiche Problem, nur per EVGA Precision Tool auf 25 % eingestellt, ist der Lüfter wirklich leise.
 
Den Test kann man sich schenken :rolleyes: die GTX280 (sowie die anderen NV`s) mit altem Treibern und die GTX285/GTX295 mit neuem, dadurch wird das Performancerating total verzerrt und die Beurteilung ist daher nonsens.
Und dann noch den 8.11 bei den ATI Karten (ausser X2) :freak:
 
Und einmal mehr ein Danke für den Test.

"Doch im Gegensatz zu Nvidia hat ATi das Problem der Mikroruckler noch nicht angegangen..."


Ich finde es schonmal sehr gut, dass ihr auf das Problem und auch auf die Aussagekraft durchschnittlicher FPS eingeht und Frameverläufe zeigt.

Nun würde es mich interessieren, ob ihr bei SLI- und CF-Lösungen mal einen zweiten Balken in / neben die Diagramme einfügen könnt, die die (vermutlich gefühlten) FPS aus den jeweils längeren Frametimes zeigen, nach der üblichen Formel

(1 Frame / x ms) * 1000 ms/s = 1000/x FPS

und daraus dann den Durchschnitt.


Das würde ein wenig mehr Anschaulichkeit verleihen: "So fühlt es sich mit Mikrorucklern wirklich an." (Ich weiß, Gefühle in Zahlen auszudrücken... aber die FPS von Single-Chip-Lösungen "fühlt" man genauso bzw. genauso wenig.)


Edit: Mit "Frametimes" oben sind natürlich "Frametime-Differenzen" gemeint, also 30ms-0ms, 50ms-30ms, 80ms-50ms, 100ms-80ms usw.
 
Zuletzt bearbeitet: (Eventuelle Unklarheit bereinigt)
Danke an CB für den Test.
Verstehe aber auch nicht (wie Jake_Dunn schon angemerkt hat) warum ihr mit unterschiedlichen Treibern getestet habt...

Gibt ja auch noch andere Reviews und unterm Strich wird auch dort klar, das die GTX285 verdammt fix ist und zudem im IDLE sehr viel Strom einspart. Daher könnte ich mir gut vorstellen meine ollen G80er durch die GTX285 zu ersetzen (eventuell im SLI).

Die ganze Mikrorucklerdiskussion kann ich persönlich nicht mehr hören. Fakt ist, jeder Mensch empfindet anders und jeder muss für sich selbst entscheiden ob man bei Multi-GPU-Systemen "ES" spürt oder nicht...
Habe ja selber 2x8800GTX im Einsatz und konnte letztens 2x280GTX und HD4870X2 bei mir testen. Habe bei allen bisher (zum Glück) NICHTS von Mikroruckeln verspürt, weder bei NV noch bei ATI... Flüssiger wie flüssig geht nunmal nicht!

Das Fiepen scheint auch ein Thema für sich zu sein und eventuell auch von verwendeten anderen Komponenten abzuhängen. Bei mir jedenfalls konnte ich kein/kaum Fiepen feststellen. Bei den Besitzern der GTX280er bzw. HD4870X2 schauts aber bissel anders aus. Wir haben die Grakas natürlich mal in jedem Rechner getestet und bei dem einen fiepst es, beim anderen jedoch nicht oder kaum (nur wahrnehmbar bei Ohr direkt an Graka).
Sollte ich mir eine oder zwei 285GTX holen und es dann bei mir störend Fiepen, dann wäre es ein no go und die Karten gingen sofort wieder zurück! Kann ja nicht angehen das man viel Geld ausgibt und durch sowas einen der Ganze Spass verdorben wird...
 
michafol schrieb:
"Doch im Gegensatz zu Nvidia hat ATi das Problem der Mikroruckler noch nicht angegangen, weswegen eine Radeon HD 4870 X2 im Endeffekt manchmal langsamer ist, als es auf dem Papier eigentlich aussieht.

Ich möchte mal echt wissen wie man zu so einer Aussage kommt. :rolleyes:

Hier mal die Frameverläufe einer HD4870X2 aus dem CB Gafikkartentest 2008 und dem diesigen Test. (Jeweils die Obere Kennlinie)
Dabei fällt einem sehr schnell auf das die GTX295 mal schlechtere mal bessere Frameverläufe erzeugt als die X2 ! Wobei die X2 an bessere überwiegt !!

https://www.computerbase.de/2008-12/test-grafikkarten-2008/18/#abschnitt_frameverlaeufe_highend HD 4870X2

https://www.computerbase.de/2009-01/test-nvidia-geforce-gtx-285-sli/19/#abschnitt_frameverlaeufe GTX295

Also NV hat es zwar geschafft etwas gegen die Microruckler zu tun aber sie haben sich nur auf das Niveau von ATI begeben.

Zudem fehlt einem die Möglichkeit, CUDA-Programme oder GPU-PhysX auszuführen, wobei der Mehrnutzen zurzeit noch eine Nischenerscheinung ist."

Wozu auch ?
ATI macht ihr eigenes Ding was sich Stream nennt.
Da braucht man kein CUDA mehr !
Und GPU-PhysX ist doch nur bei 3DMarkVantage nützlich da man dann einen hohen CPU-Score hinbeschei..en kann was aber mit GPU wohl nichts zutun hat.
Zudem gibts schon lange die Physik-Berechnung mittels einer GPU durch Havok.

Dann sollte man aber auch gerecht sein und z.B. sagen das ATI seit der 3xxx DX10.1 unterstützt, obwohl es auch eine Nischenerscheinung ist.
Bin kein ATI fanboy oder so, aber beim Fazit sollten doch alle Pro und Contra Seiten aufgezählt werden??! Oder??!

So sehe ich das auch.
Wenn es umgekehrt währe das NV DX10.1 unterstützen würde und ATI eben nur DX10.0. Dann würde man sich wohl ständig anhöhren müssen wie rückständig die ATI-Karten wohl währe die ja nichtmal DX10.1 schaffen. ;)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Spulenfiepen für 330€? Damit disqualifiziert sich die Karte selbst. Interessiert sich Nvidia denn nicht mehr für die Qualität ihrer Produkte? Heatbug bei GTX280, Spulenfiepen bei den 55nm GPUs. Was nützt einem eine schnelle Karte wenn man ein hochfrequentes Fiepen unter Last hat? Nvidia sollte sehr schnell was daran ändern.

mfg
 
Leider kommt heutzutage nur alle Schaltjahre mal eine fehlerfreie Grafikkarte auf den Markt. Sowas wie die G92 wird man wohl noch eine ganze Weile vermissen müssen. Es ist eine unglaubliche Dreistigkeit von den Grafikkarenherstellern, nur noch mangelhafte Produkte auf den Markt zu bringen. Man bezahlt hunderte Goldstücke und soll dafür trotzdem Mängel hinnehmen?! Kauft man denn ein Auto mit 2 Rädern, nur weil der Hersteller meint, dass es auch so fährt?! Schleift halt ein bisschen, aber wayne interessierts... Der Otto-Normal-Verbraucher kauft doch eh alles. Erst kamen die fönähnlichen Lüfter in Mode und jetzt das Spulenfiepen noch dazu. Geht es eigentlich noch? Logisch, ich muss nur meine Teufelanlage auf 100 % stellen und dann höre ich das alles nicht mehr! Diesen ganzen Wahnsinn muss man doch nicht ertragen, oder doch? Ich habe mittlerweile 2 Konsolen hier stehen, obwohl ich schon immer Befürworter der PC-Spiele war. Selbst eine XBOX 360 ist leiser als eine aktuelle High-End Grafikkarte unter Last! Wenn dieser Irrsinn so weiter geht, verabschiede ich mich auch vom PC-Gaming. Wie schon geagt hat man z.B. mit der G92 bewiesen, dass es auch anders geht, aber solange die Hersteller von diesem Ideal abweichen, entferne ich mich immer mehr davon, dem PC als Spieleplatform meine Treue zu schwören.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Was nützt einem eine schnelle Karte wenn man ein hochfrequentes Fiepen unter Last hat? Nvidia sollte sehr schnell was daran ändern.
Nvidia wird daran überhaupt nichts ändern, aber es kommen ja schon die ersten Eigendesigns der Boardpartner. Okay, ob Palit in der Hinsicht besser wird, darf man bezweifeln, aber bei Gigabyte hätte ich Hoffnungen, wobei die ja wieder zu ultralauten Lüftern ohne Lüftersteuerung neigen. Vielleicht Gainward (gleicher Laden wie Palit, aber etwas hochwertiger), Asus oder MSI? Wir werden sehen.

Ich gebe dir Recht, es ist grotesk und offensichtlich führt der Wettbewerb leider nicht zu einer vielfältigen Auswahl und qualitativ hochwertigen Produkten, sondern produziert nur noch das Billigste vom Billigen, ohne dass man überhaupt noch eine Möglichkeit hat, für ein paar Euro mehr ein Qualitätsprodukt zu bekommen. Die GPU hat so ein Murks-PCB jedenfalls nicht verdient, der beeindruckende, komplexeste Chip im Consumer-Bereich wird auf Elektroschrott gelötet. Schande. :freak:
 
Mitch O'Neil schrieb:
Wie schon geagt hat man z.B. mit der G92 bewiesen, dass es auch anders geht, aber solange die Hersteller von diesem Ideal abweichen, entferne ich mich immer mehr davon, dem PC als Spieleplatform meine Treue zu schwören.


was bitteschön war den am G92 toll? vrambug, stromverschwenderisch und nicht überragend schneller als andere karten?

und zum thema lautstärke, mein pc ist leiser als eine Wii, und leiser als eine Xbox360 erster generation.. und das mit halbwegs potenter leistung. Es ist nur alles eine Frage der Hardware.


gruß
 
Zurück
Oben