Bericht Vorschau: Nvidia GeForce GTX 285

Nunja ist halt nur ein Ausblick und kein Test.
Etwas Sinnlos fand ich ihn jedeoch trotztem, denn wenn Nvidia sagt (nagut, die sagen viel) dass die eigen, verbesserte Karte ca. 10% schneller ist, kann man ja davon ausgehen, das es stimmt.
Aber ich hätte es interessanter gefunden, wenn ihr versucht hättet, eine GTX 295 via SLI zu simulieren.
 
r4yn3 schrieb:
Gute Frage...aber was sagst das mir, sag das den Spielentwicklern.
Mal sehen wann ein Spiel kommt das sich zw Dual und Quad Cores verhält wie Supreme Commander bei Single und Dual Cores ^^ (GTA4 außen vor)


Na far cry2 ist doch schon ein erster gehversuch in diese richtung:)
 
Zuletzt bearbeitet:
scully1234 schrieb:
Mit der nächsten spielegeneration wird das sowieso hinfällig sein;)

Da ja nun beide amd sowie auch intel native quad cores im rennen haben u sich die spieleentwickler darauf einstellen können u müssen.

Spieleentwickler sind darauf angewiesen das sich ihre Spiele verkaufen.
Dazu müssen sie ausreichend 'neues' bieten, aber gleichzeitig das Spiel so gestalten das es möglichst viele Leute spielen können.
Was nutzt es einem Entwickler wenn er ein Spiel herausbringt das 100k Leute gut finden, aber nur 5k Leute kaufen, da es nur auf ihren Rechnern läuft?

Sie werden sich also immer an dem Ausrichten was die Masse hat und nicht an dem was einige Poweruser haben.

Außerdem muss man die Entwicklungszeiten beachten. Spiele die jetzt gestartet werden kommen wohl zum Weihnachtsgeschäft 2010 in den laden.
Da ist es dann auch schwer auf Grafik/CPUs einzugehen die Anfang 2010 zu kaufen sind.
 
Du gehst davon aus das Spieleentwicker den selben Wissensstand haben wie du.
Ich behaupte einfach, dass es zumindest von der Seite der Grafikkartenhersteller (TWIMTBP) schon ein wenig Voraussupport gibt.
 
Kunibert_KA schrieb:
Spieleentwickler sind darauf angewiesen das sich ihre Spiele verkaufen.
Warum sollten sie sich nicht verkaufen,nur weil sie multicore support bieten:)

Kunibert_KA schrieb:
Sie werden sich also immer an dem Ausrichten was die Masse hat und nicht an dem was einige Poweruser haben.

Stimmt deine aussage auch für damals z.B crysis oder gehen wir noch ein stück zurück far cry?

Diese spiele waren damals ihrer zeit auch vorraus was die hardware betraff,haben sich aber trotzdem verkauft wie die hölle.
 
Zuletzt bearbeitet:
@scully: Ich meine mal einen Artikel gelesen zu haben, in dem stand, dass Crytek mit den Verkaufszahlen von Crysis nicht zufrieden war, der Grund dafür war halt die viel zu hohen Systemanforderungen, also wenn ich mir das so durchlese glaube ich nicht das Crysis eingeschlagen ist wie eine "Bombe", wie das mit Farcry damals war weiß ich nicht.
Mfg
 
seit wann hoeren grafikkarten auf namen?
das schlaegt doch dem fass die krone ins gesicht!

davon ab, wird so ein rechner immer mehr zum stromverkoster. wer will sich sowas schon ans girokonto binden? die versalzene abrechnung duerfte bei einigen die milch zum gluehen bringen.
 
naja hab total mit großen augen geschaut durchgeklickt und dann^^
werte wurden duch oc blablabla errechnet^^
naja sry bin entwas enttäuscht von euch
 
loool ey...

die werte dürften mit einer echten 285gtx quasi annähernd identisch sein ;)
da muss man nicht gleich weinen gehen.

mfg
 
Könnte CB mal bei Ihren Benchmark Tests auch daran denken richtig zu testen?
Beim Blick auf Stalker Clear Sky ist mir aufgefallen, dass die Ergebnisse noch unter denen liegen, welche mein AMD 4200 ausspuckt.
Dabei weiss doch inzwischen jeder, dass bei Stalker CS nur ein kleiner Fehler in der Zuweisung der CPU cores dafür verantwortlich ist.
Bei Stalker lässt sich das ganz einfach nach dem Starten durch einen Taskswitch in den Taskmanager beheben. Dort nimmt man alle Häkchen bis auf CPU Core 0 raus ( findet man bei der Affinität zum Prozess), klickt auf ok, und dann setzt man wieder alle Häkchen rein und klickt nochmal ok. Nach einem Taskswitch zurück in Stalker CS dürfte das Game jetzt richtig abgehen.

Das ist wirklich kein grosses Ding, daher weiss ich nicht warum CB dieses Spiel auf einem Intel QX9/4 immer noch mit 15,9 Frames bencht, was der Last auf einem Core entspricht.

???

Tortzdem, ein schönes neues und erfolgreiches Jahr + vielen Dank an die CB Redaktion für ihre tolle Arbeit im letzten Jahr! und an die anderen natürlich auch! \D
 
Zuletzt bearbeitet:
Ich finde diesen Test sehr realitätsnah und denke, er wird mit maximal 1% Abweichung die Performance der GTX-285 wiederspiegeln.
 
Mein Gott ist das hier wieder ein Gezeter. Langsam nervt das ja sogar mich, der sonst auch nicht mit der Kritik hinterm Berg hält.

Es steht da groß und breit "Vorschau: Ausblick etc.."
Wenn man nicht in der Lage ist sich auf ein wenig gut gemeinte Theorie einzulassen und den Ergebnissen nicht glaubt, dann sind sie eben hinfällig und man muss auf richtige Ergebnisse und die NDA warten.
Warum ist die Graka bzw. deren Bild wohl geschwärzt? Vllt. weil es sie noch nicht offiziell geben darf?

@Topic
Sollten sich die Gerüchte um den Stromverbrauch bewahrheiten, wäre das ein lobenswerter Schritt. Ich persönlich finde die Entscheidung falsch, der GTX260 in 55nm einen kleinere Kühler aufzusetzen. Es spart vllt. 3Euro und die Endkunden mit Silentambitionen hält es womöglich vom Kauf ab. Offenbar dürfen jetzt immerhin Alternativkühler produziert und veräußert werden.

Meine subjektive Sicht der "Fehler":
- Die 8800gtx und Ultra waren extrem stromhungrig.
- Man änderte die Struktur und lieferte den G92. Dieser war aber plötzlich beschnitten in der Speicherbandbreite und Speichermenge; 512Mib.
- Man möbelt dieselbe Architektur bis zum Erbrechen auf und verkauft die 8800 als 9800gt und verdient sich mit irgendwelchen GTX+
Versionen eine goldene Nase mit alter Technik
- Der Nachfolger in Form der GTX260 & 280 verbraucht abermals extrem viel Strom.
- Deren Nachfolger (GTX260² 55nm) wird beschnitten im Kühlerdesign und verbraucht offenbar noch mehr Strom.​

Wieso kann man denn nicht einfach mal alles auf einmal richtig machen :) Diese Sichtweise beinhaltet mit Sicherheit Fehler, aber im Großen und Ganzen wird man doch veräppelt.
 
Zuletzt bearbeitet:
man wollte eben beim die-shrink einfach doppelt und dreifach profitieren.
- bessere wafer-ausbeute
- kleinere/günstigerer kühler
- kleineres pcb (mit weniger layern?)

mfg
 
anscheinend 3-4 tage. kann ich mir aber kaum vorstellen
 
Die Seite Expreview hat in ihrem Artikel "GeForce GTX285 Gets Reviewed" alle Benchmarkergebnisse von Computerbase kopiert und stellt das in der Einleitung so hin, als hätte CB eine echte GTX 285 getestet und dabei bewusst gegen das NDA vertoßen:
Despite of the NDS limitation, German hardware site ComputerBase has posted a detailed review on the performance of GeForce GTX285.
Wobei mit NDS limitation auch etwas anderes gemeint sein könnte, ich gehe aber davon aus, es sollte NDA heißen und es handelt sich nur um einen Übersetzungsfehler aus dem Chinesischen.


Ganz schön dreist, finde ich...
 
Krass zu sehen wie Nvidia in den 55nm Chips abgeht, bin mal gespannt ob AMD in 40 nm wieder auf zeitlichen Vorsprung bauen kann oder gleich mit den echten Chips konfrontiert wird.
 
Zurück
Oben