News GTX 285 10% schneller als GTX 280?

Naja 10% ist nicht schlecht, aber es lässt darauf schießen das Sie ein wenig an der Taktschraube gedreht haben hies ja erst 648Mhz solle die GTX285 bekommen vielleicht ist es ja doch ein wenig mehr, oder es war ein wenig mehr wie nur ein Shrink.
 
Habe meine XFX GTX 8800 für 130€ verkauft und warte jetzt mit 7600GT unter der Haube auf GTX285 oder GTX295! Tendenz zu GTX285 natürlich ;)
Meine Prognose: 360€ für 285 und 440€ für 295.
 
Nacho_Man schrieb:
Ich bin der Meinung dass sowohl ATI als auch Nvidia beim Start einer neuen Generation die treibermässigen Optimierungen für
eine dann alte Serie zurückfahren , hoffe das kam klar rüber .
Die Leistung einer Vorgängerkarte selbst wird natürlich nicht beschnitten .

Wie sollte man sowas denn belegen , ausser man ist in der Entwicklung natürlich ? ^^
......

Das kann man über NVidia wirklich behaupten, bei ATI wäre mir das noch nicht aufgefallen. Als damals die 2X0GTX Karten rauskahmen hatte ich mit den neuesten Treibern bei meiner 8800GTX immer weitere Performanceverluste. Das hat mich irgendwann so aufgeregt das ich sie verkauft hab. Mir wollte das einfach nicht eingehen, wie man seine langjährigen Kunden so verarschen kann. Sicher war die 8800GTX da nicht mehr die neuste Karte, aber trotzdem noch gut im Rennen! Ich hatte damals bei Cryshit auf einmal keine 30 sondern nur noch 27 PFS... an manchen Stellen sogar noch größere Differenzen. Lol, nein danke NVidia, ich kauf mir keine Karte die ein Jahr später vom Hersteller gegen die Wand gefahren wird...
 
Artikel-Update: Bei ]Fudzilla[/b] gibt es passenderweise die ersten Vorstellungen zu den Taktfrequenzen. Demnach wird der Chip der GTX 285 mit 648 MHz betrieben, der Shadertakt liegt bei 1.476 MHz. Der GDDR3-Speicher wird mit effektiven 2.480 MHz auf sehr hohem Niveau liegen. Zum Vergleich: Die GTX 280 kam mit 602, 1.296 und 2.200 MHz daher.
 
Ha wie ich oben schon vermutet habe sind es doch die 648Mhz die schon einige zeit durchs Netz schwirren.
 
GPU und somit Shader Takt sind noch nicht am Limit (mit 55nm schafft man vielleicht 750 - 800 MHz (in weniger Fällen oder halt mit Vmod), aber aus dem GDDR3 wird man kaum mehr rausholen können, vielleicht 1250 MHz.


Btw. - sollen nun alle 55nm Modelle doch eine "5" am Ende tragen ?

Ich dachte nV würde nix am Namen verändern und GTX 280 sowie 260 würde bleiben - was natürlich, wenn es nicht expliziet auf der Verpackung gekennzeichnet wäre, so manchen Kunden veräppel könnte.

An für sich ist das aber die bessere und ersichtlichere Lösung - die Karten sind schneller, also ist die Nummer höher.
 
Zuletzt bearbeitet:
Mir wären die Namen nach grich. Götter lieber als die Zahlen.

z.B. wie bei AutoHiFi-Spezialisten Hifonics ---> Protos, Atlas....
 
@thek

schonmal dran gedacht was da alles dranhängt? mal überlegt wieviel schneller eine GPU im gegensatz zu einer CPu ist? Der ganze speicher? Der eigene Kühler, die Schnittstelle etc etc ...

eine CPU ist ca. 4x4 cm gross und sorgt nichtmal für die eigene kühlung. wie kannst du das mit grafikkarten vergleichen? im übrigen haben die damaligen prozessoren weniger als die hälfte verbraucht.

hier z.b.
http://www.macinfo.de/hardware/strom.html


Vorallem wenn man die leistung mal hochrechnet. deine geforce 2 gts als beispiel ...
dann kam die geforce 3 ultra ... dann die geforce 4 4600ti, dann glaube ich die 6000er reihe ... dann die 7000er reihe ... dann die 8000er und wenn man dann mal schaut .. ist eine gtx 280 schneller als 2 8800gtx. rechne das doch mal hohc von der leistung her? Um an diese Leistung zu kommen ... müsstest du ja eine unmenge von deinen geforce 2 zusammen packen ...

http://www.tomshardware.com/de/snea...i-4600-chip-in-sicht,testberichte-405-14.html

Da sieht man einen leistungssprung zwischen GEforce 3 und 4600 ... so sieht es dann auch zur 6000er reihe aus und so weiter ...
 
Volker schrieb:
News-Update: Bei ]Fudzilla[/b] gibt es passenderweise die ersten Vorstellungen zu den Taktfrequenzen. Demnach wird der Chip der GTX 285 mit 648 MHz betrieben, der Shadertakt liegt bei 1.476 MHz. Der GDDR3-Speicher wird mit effektiven 2.480 MHz auf sehr hohem Niveau liegen. Zum Vergleich: Die GTX 280 kam mit 602, 1.296 und 2.200 MHz daher.

Warum wird jetzt auf Fudzilla verlinkt und so getan, als wäre das eine Neuigkeit? Darüber habt ihr bereits am 17.12, siehe Post 7, berichtet und die Quelle war seinerzeit Expreview.
 
Zuletzt bearbeitet:
drago-museweni schrieb:
Naja 10% ist nicht schlecht, aber es lässt darauf schießen das Sie ein wenig an der Taktschraube gedreht haben hies ja erst 648Mhz solle die GTX285 bekommen vielleicht ist es ja doch ein wenig mehr, oder es war ein wenig mehr wie nur ein Shrink.

Die GPU selbst ist sicherlich nur ein reiner Shrink, aber die Karte selbst halt nicht (hat schließlich andere Taktraten). Die 10% Mehrleistung dürften aber auch das obere Limit für die Karte darstellen. Die gesunkene Leistungsanforderung und der wohl kühlere Chip sind die eigentlichen Neuerungen.
 
Marc53844 schrieb:
Da sieht man einen leistungssprung zwischen GEforce 3 und 4600 ... so sieht es dann auch zur 6000er reihe aus und so weiter ...

Naja, einige 1GHz-CPUs lagen schon irgendwo bei 60W; ein Grafikchip damals bei 10W. Heute hat die CPU 4 Kerne a 3 GHz (also ohne jede Verbesserung in der Architektur zu berücksichtigen Faktor 12), immer noch 60W (idle wesentlich weniger!) und der Grafikchip 200W...

Bei dem Grafikchips kann man für einen groben Überblick stur die Füllrate der beiden vergleichen: Faktor 30; also nur unwesentlich mehr, als die Verbrauchssteigerung...
 
TheK schrieb:
...der Stromverbrauch mag zwar gegenüber dem unmittelbaren Vorgänger recht deutlich sinken; vergleicht man diese Zahlen allerdings mit Highend-Karten von vor wenigen Jahren, sind sie dennoch aberwitzig hoch. Noch der Verbrauch einer GeForce 2 GTS war damals im Vergleich zum Gesamtsystem bedeutungslos...

Schon irgendwie seltsam, dass die CPU-Hersteller es geschafft haben, dass der Stromverbrauch unter Last trotz massiv gestiegener Leistung seit Jahren konstant geblieben ist, wogegen Grafikchips diese inzwischen weit weit überholt haben...
Schauen sie sich mal an,wie viele Gigaflops moderne Gpus haben.Vergleicht man dann auf der Basis Gigaflop pro Watt,sieht es für die Cpus richtig schlecht aus...
 
Man nehme einfach eine GTX280 und taktet sie auf die vermeintlichen Taktraten (648/1476/2480) der GTX285 hoch. Dann weiß man, wie schnell "die Neue" sein wird. Wahrscheinlich in etwa auf dem Niveau einer Zotac GTX280 AMP! (700/1400/2300). Was mich viel eher interessiert, ist der Stromverbrauch und die GPU-Temperatur, und damit einhergehend die Lautstärke des Lüfters. Letzterer sollte bei niedrigeren Temps auch langsamer drehen können unter Last. Natürlich bin ich auch gespannt, welche OC-Versionen es von diversen Herstellern geben wird und wie gut sich der neue 55nm Chip generell übertakten lässt.
 
Zuletzt bearbeitet:
Ich finde die 10% mehr als glaubhaft wegen der höheren Taktraten. Gut übertaktbar scheint der 55nm Chip ausserdem noch zu sein, sogar noch besser als der alte.
10% sind auch nicht wenig (wie einige hier behaupten). Ich schätze, mit sanften overclocking wird man leicht auf das Leistungniveau einer GTX280 kommen.
Jetzt müssen nur noch schnell die alten gtx260 verkauft werden damit auch die neuen preisgünstig angeboten werden. Hoffentlich noch im Jänner. :cool_alt:
 
TheK schrieb:
Naja, einige 1GHz-CPUs lagen schon irgendwo bei 60W; ein Grafikchip damals bei 10W. Heute hat die CPU 4 Kerne a 3 GHz (also ohne jede Verbesserung in der Architektur zu berücksichtigen Faktor 12), immer noch 60W (idle wesentlich weniger!) und der Grafikchip 200W...

Bei dem Grafikchips kann man für einen groben Überblick stur die Füllrate der beiden vergleichen: Faktor 30; also nur unwesentlich mehr, als die Verbrauchssteigerung...

Die Füllrate ist da so ziemlich der schlechteste Vergleich. Man darf nämlich nicht vergessen, dass viele Dinge, die damals die Performance extrem in die Knie gezwungen haben (AA, AF, Multi-Texturing, Licht) heute teilweise "im Schlaf" nebenbei berechnet werden, ohne die Performance wirklich zu beeinflussen (natürlich nur in gewissen Grenzen, aber immerhin).

Diese Dinge verbessern sich auch von Generation zu Generation und das ist eine enorm wichtige Sache. Die Füllrate ist gar nicht so entscheidend, denn die macht nur bis zu einer gewissen Grenze Sinn. Die Karten leisten heutzutage halt auch wesentlich mehr als früher. Da macht es wesentlich mehr die reine Rechenleistung zu vergleichen.

Glücklicherweise gibt es aber auch eine ganze Reihe von recht sparsamen Karten. Viel problematischer als die maximale Leistungsaufnahme der Karten finde ich die Idle-Leistungsaufnahme. Das Anzeigen eines Windows-Desktop ist nämlich so aufwändig geworden, dass eine HD 4870 dafür 90W verbraten müsste. Glücklicherweise haben die andere HD 4xxxx-Karten z.T. gute Stromsparmechanismen (insbesondere die kleinen wie die HD 4830 bieten recht viel Leistung bei geringer Leistungsaufnahme). Es wird also wichtig, dass die Hersteller endlich mal RICHTIGE Stromsparmechanismen integrieren. Gerade durch die massiv-parallele Struktur ließen sich diese sehr einfach realisieren. Einfach nur Spannung und Takt senken ist einfach nicht zeitgemäß und v.a. nicht ausreichend. Für Aero braucht man keine 800 Stream-Prozessoren, da könnte man alles bis auf einen Block komplett ausschalten. Und den einen Block heruntertakten und dann die Spannung senken. Ähnliches könnte man evtl. sogar mit dem Speicher machen (heruntertakten, Spannung senken UND einen Teil abschalten). Allerdings weiß ich nicht wieviel der Speicher wirklich verbrät. Eine HD 4870 X2 mit 2GB GDDR4 verbraucht idle nur ~10W mehr als eine HD 4870 mit 512MB GDDR4.

Am besten wäre es, wenn man das ganze einstellen könnte. (z.B.: ich will idle nur 128MB GDDR4 nutzen; der Rest kann abgeschaltet werden) oder: im idle wird der Arbeitsspeicher mitgenutzt!
 
Schade, dass sie keinen GDDR5 Speicher hat, der hätte sicherlich noch ordentlich Leistung dazugebrahct.
Naja, wenn sie nicht mit Wucherpreisen auf den Markt kommt, dann könnte sie meine nächste Grafikkarte werden.

Greetz.
 
$co®pion schrieb:
10% sind auch nicht wenig (wie einige hier behaupten). Ich schätze, mit sanften overclocking wird man leicht auf das Leistungniveau einer GTX280 kommen.
Jetzt müssen nur noch schnell die alten gtx260 verkauft werden damit auch die neuen preisgünstig angeboten werden. Hoffentlich noch im Jänner. :cool_alt:

Ähm, es geht hier um den Nachfolger der GTX280. Da braucht man kein OC, denn die GTX285er sind ja schon wegen erhöhter Taktraten ca. 10% schneller als die GTX280er @ Referenztakt.

Was die "neue" GTX260-216 in 55nm betrifft, so muss man auch hier einfach abwarten, wie gut sie sich übertakten lässt. Denn die Taktraten bleiben ja im Gegensatz zu GTX280 <=> GTX285 unangetastet, wenn ich mich nicht irre. Daher bleibt es auch bei der Bezeichnung GTX260 und nicht z.B. GTX265.
 
Zuletzt bearbeitet:
Zurück
Oben