Bericht Vorschau: Nvidia GeForce GTX 285

Schön und gut aber sollten die Taktraten stimmen, hat nVidia ein Problem.
Karten wie die MSI N280GTX OC HydroGen takten schon mit 700MHz Core.
Wer kauft eine 285 wenns die 280 noch schneller und vllt. noch billiger gibt!?
 
Die Massen an Käufern, die davon ausgehen werden, dass eine GTX 285 eben besser ist als eine 280.
Abgesehen davon wäre noch abzuwarten, wie es um die Leistungsaufnahme steht.
 
ja, genau die Leistungsaufname ist für viele Nutzer wichtig. Und wenn die GTX285 sich mit satten 50 Watt weniger begnügen wird, bin ich bereit 20€ mehr zu zahlen.

Also höchstens 360€, mehr nicht. das ist meine Schmertzgrenze.
 
wenn sie es wirklich hinkriegen bei gesteigerter leistung einen verbrauchsärmere, kühlere und damit leisere karte hinzukriegen wäre das wirklich eine verdammt gute leistung, und vor allem für den angepeilten preis von 350-380 euro eine verdammt interessante karte. allerdings rechne ich fast damit,dass sie anfangs über 400 kosten wird.


zudem wird sie,wenn sie wirklich kühler und verbrauchsärmer wird, auch weniger an leckströmen zu kämpfen haben, und somit noch taktfreudiger auf übertaktung reagieren.

aber nette idee mit dem "simuliertem" test^^



gruß
 
Wie zu erwarten war, die knappen 10% Mehrperformance zur GTX280@stock. Kann aber auch jeder GTX280-Besitzer simulieren ;).
Wenn allerdings die Wärmeentwicklung und der Stromverbrauch stimmen sollten, ein netter und würdiger "Nachfolger" der GTX280.

Mfg
 
naja, nachfolger würde ich es nicht gerade nennen, eher ein großer bruder. für einen nachfolger wären 10% ziemlich wenig. optmierung kann man es auch nennen.


gruß
 
Sorry aber dieser Test ist mehr oder weniger Quatsch!
1. Eine übertaktete GTX280 ist kein Vergleichswert,
2. Man sollte gtx280 auf Taktraten-Niveau der GTX285 halten...
3. Die Taktraten sind doch noch unbekannt...
4. Ne GTX285 ist ne überarbeitete GT200 GPU die ganz anders reagiert und arbeiten wird...

Sorry aber man muss manchmal Kritik ertragen können...

P.S. Ich wette ich kriege ne Verwarnung xD

Ich freu mich schon auf die Verwarnung... Dafür das ich ne Meinung habe :D
 
Zuletzt bearbeitet von einem Moderator:
Omg? Wenn Kritik, dann wohl bei dir. Was du meinst ist wohl die Dual-GPU Karte mit dem Namen GTX295...die GTX285 IST "nur" eine Übertaktete Version, von dem her ist die Vorschau mehr als gerechtfertigt...

E: Zumindest editiert, dennoch völliger humbug wie BobbyBest richtig feststellt.
 
Zuletzt bearbeitet:
Eine übertaktete GTX280 ist kein Vergleichswert,
Man kann also auf einmal eine manuell übertaktete Karte nicht mit einer werksübertakteten vergleichen, naja wenn das so ist...

Man sollte gtx280 auf Taktraten-Niveau der GTX285 halten...
Die Taktraten sind doch noch unbekannt...
Erste Seite gelesen?
Ne GTX285 ist ne überarbeitete GT200 GPU die ganz anders reagiert und arbeiten wird...

Genau eine GTX260 55nm reagiert auch anders als eine 65nm-Version.
Die neue wird bei Last nämlich blau...
 
Juuuungs! Abwarten und Tee trinken!

Wir sind alle angespannt und kochen vor Wut, das ist normal, das ist menschlich.

Ich bin auch schon seit ein paar Tagen auf der Palme da ich auch wie ihr ungeduldig bin! Aber das ist ein Marketingtrick der uns beherscht. Ist von Nvidia gewollt....
 
NIDIA ist halt Preislich unter Druck geraten.
Vor allem die 260er hat/hatte keinen ausreichenden Leistungsvorteil um 100€+ mehr kosten zu dürfen. NVIDIA musste also handeln.

Im ersten Schritt haben sie die 260er etwas in der Leistung verbessert in dem sie sie der 280er angenähert haben.
Der zweite Schritt ist jetzt so stark wie irgend möglich die Kosten zu senken um profitabler zu werden. Dazu wurde unter anderem folgendes gemacht:
- Shrink um mehr Kerne pro Wafer zu erhalten und dann die Ausbeute zu erhöhen
- billigeres Board. Vereinfachte Stromversorgung, einfachere Kühlung, usw.
Das Ziel war Kosten sparen und nicht geringerer Verbrauch oder gesteigerte Performance.

Das die Temperatur nicht gesunken ist liegt wohl daran das eben nicht darauf optimiert wurde und die (geringen) Vorteile des Shrinks durch den geänderten Kühler aufgefressen werden. Selbes gilt wohl auch für den Verbrauch. Nicht drauf optimiert und die Vorteile des Shrinks werden durch das einfachere Board zu nichte gemacht?

Der dritte Schritt dürfte die 285er sein. Hier soll wieder mehr Abstand zu den anderen Karten gewonnen werden um den höheren Preis zu rechtfertigen.

Da die 285er und die 260/55 den selben Kern haben kann man davon ausgehen das sich bei der 285er auch nichts an interner Performance getan hat, sowie das sie auch nicht viel sparsamer sein wird.
Da die 285er höher getaktet ist, könnte es sogar sein das sie unter Last wärmer wird (je nach Änderungen der Kühlung) bzw. das sie auch einen geringfügig höheren Verbrauch hat.
Im Idle könnte der Verbrauch sinken, aber unter Last würde ich das nicht erwarten.

Die Frage wird sein wie sich die 55er Strukturgröße takten lässt. Dadurch das die Wärme jetzt auch einem kleineren Die entsteht, kann es auch schlechter sein.
 
Marketingtrick? Das ich nicht lache...

Bei der GTX285 ists ja noch nicht sicher inwiefern sich der Stromverbrauch verhält...die 10% Mehrleistung sollten aber bestätigt sein.

Dennoch, 10W mehr, bei gleicher Leistung und vermutlich auch gleichem Preis KANN man nicht gut heißen.
Zudem, was heißt nich optimiertes Board? Soll es jetz auch noch Unterschiede in der Verlustleistung zw den Boardpartnern geben? Das wär arm.

E: Woher kommen sonst die Gerüchte "Ihr maximaler Stromhunger würde sich von 236 auf 183 Watt senken, womit statt eines Acht- und Sechs-pin-Stromanschlusses nur zwei Sechs-Pin-Pipelines ausreichen würden."
Hört man ja auch schon öfter...
Klar bei der GTX285 sind die Chips voll funktionfähig und bei der GTX260 leicht defekt. Dennoch keine Rechtfertigung in 10W Mehrverbrauch. Wie gesagt, mir stinkt da was.
 
Zuletzt bearbeitet:
Ich möchte hier die NVIDIA nicht verteidigen, aber es ist von dem System in dem wir leben vorgegeben, dass es leidergottes in erster Linie um die Gewinnmaximierung geht!

Es sind solche Systeme wie Zinssysteme (Verschuldungen), die unsere Gesellschaft von innen auffrisst. Klar, dass die Qualität und Kundenfreundlichkeit dann Platz machen müssen.

Daher geht es leider auch bei NVIDIA in letzter Zeit nur um das Geld!
Deswegen bin ich mal gespannt was da auf uns zukommt, will ja schliesslich eine GTX285 kaufen...

in diesem Sinne....
 
Zuletzt bearbeitet:
Volker schrieb:
@ unter mir: Wozu die CPU tauschen. Der QX9770 ist schon bei 3,2, aber erst recht bei bei 4 GHz der schnellste Prozessor für Spiele. Da kommt kein Nehalem ran.

Wie kommst du zu dieser schlussfolgerung volker;)

Schonmal HT deaktiviert beim nehalem bei nicht threadoptimierten spielen.
 
Zuletzt bearbeitet:
r4yn3 schrieb:
@scully: Grob geschätzt
https://www.computerbase.de/2008-11...treme-edition/25/#abschnitt_performancerating

Wies mit deaktivierten HT aussieht kann ich aber auch nicht sagen.

Deshalb hab ich ja extra auf deaktivierung von HT hingewiesen.Das ist bei "älteren" spielen zum teil die bremse beim nehalem.Mit der nächsten spielegeneration wird das sowieso hinfällig sein;)

Da ja nun beide amd sowie auch intel native quad cores im rennen haben u sich die spieleentwickler darauf einstellen können u müssen.
 
Zuletzt bearbeitet:
Naja, sagen wir mal eher sie sollten sich darauf einstellen :)
 
Gute Frage...aber was sagst das mir, sag das den Spielentwicklern.
Mal sehen wann ein Spiel kommt das sich zw Dual und Quad Cores verhält wie Supreme Commander bei Single und Dual Cores ^^ (GTA4 außen vor)
 
Zurück
Oben