News GTX 285 10% schneller als GTX 280?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.249
In wenigen Wochen soll in Form der GeForce GTX 285 das bisherige Single-GPU-Flaggschiff einen Nachfolger finden. Zwei in Asien publik gemachte Folien aus einer Nvidia-Präsentation zeigen auf, womit man es in etwa zu tun bekommen könnte.

Zur News: GTX 285 10% schneller als GTX 280?
 
10 prozent aus taktsteigerung waren wohl zu erwarten
dementsprechend kann man nach nvidia preispolitik wohl schließen bei 10 prozent mehrleistung zur gtx280
wird es nen preisaufschlag von sicherlich 20prozent geben
 
"Wie üblich sind die Benchmarks von einem Hersteller mit großer Vorsicht zu genießen. Im Mittel will Nvidia bei acht Spielen und 3D Mark Vantage eine Steigerung von zehn Prozent sehen."
 
Ich denke eher , Nvidia trickst treiberseitig wieder und lässt die neue besser aussehen .

Wenn die Standard-Taktraten gleich bleiben sollen jedenfalls .

@Unyu : Natürlich ist die Aussage haltlos , deswegen habe ich sie auch schon vor deinem Vorwurf begrenzt .
Bis auf die unbestätigten Taktsteigerungen wird NICHTS an dem Chip geändert , da stimmst du mir ja zu .
 
Zuletzt bearbeitet:
Die Taktraten der GPU und des Speicher sind noch nicht bekannt, aber da die Leistungssteigerungen irgendwo herkommen müssen, dürfte es dort Änderungen zur GTX 280 geben.
So ganz unbekannt sind die 8/11/14% nicht.
http://en.expreview.com/2008/12/16/...hows-improved-frequency-of-nvidia-gtx285.html

Nacho_Man

Danke für die haltlose Aussage.
Edit: Das "wieder" hast du in keiner Form begrenzt oder belegt.
Und der Rest: Höher Takt = Mehr Leistung ; Shrink + weniger Spannung = Weniger TDP - Was sollen da noch unsinnige Behauptungen?
 
Zuletzt bearbeitet:
Ist gut wenn die 285 erscheint. Dann wird die gtx280 wohl günstiger:D und vllt auch die gtx260 und folglich die 4870.
 
@ Volker

Warum sind die Taktraten bisher nicht bekannt?
Ihr habt doch selbst schon die Taktraten gepostet (648/1476/1242 MHz). Diese würden die 10 prozentige Leistungssteigerung auch gut widerspiegeln.

Klar, offiziell von Nvidia sind sie nicht abgesegnet worden, es gab aber meines Wissens in der Zwischenzeit auch kein Dementi?!
 
Zuletzt bearbeitet:
mall sehen was die karte kostet, betsimmt wieder wie anfang die gtx280 um die 550 euro.
Bei einem Preis von 500 euro und dafür 10-20% mehr leistung wird die karte sich nicht lohnen. Vor allem frage ich ich mich mit welchem system Nvidia ihre karte testen
 
Ich bin der Meinung dass sowohl ATI als auch Nvidia beim Start einer neuen Generation die treibermässigen Optimierungen für
eine dann alte Serie zurückfahren , hoffe das kam klar rüber .
Die Leistung einer Vorgängerkarte selbst wird natürlich nicht beschnitten .

Wie sollte man sowas denn belegen , ausser man ist in der Entwicklung natürlich ? ^^

Zu 55nm noch : Die Fertigungstechnik bei TSMC stimmt mit dem Shrink dann vollkommen mit der von AMD/ATI überein , oder ?
Ich frage mich schon woher dann der niedrigere Stromverbrauch kommt .
Frisst die GTX280 nicht sowieso einiges weniger als die TDP "verspricht" ?
 
10% sind ja schon eine Steigerung, nur die Frage was diese Steigerung kosten wird.
Ich glaube die GTX285 wird anfangs sehr teuer sein.
 
Das ist eine typische Marketing-Karten/Produktionskosten-Spar-Karte!
Von der Leistung:
Wirkliches Plus an Nutzen gegenüber der alten Karte: 0% (nein, Entschuldigung: 10%, die aber auch nur mit fest dran glauben wirklich spürbar sind und auch nur dann einen relevanten Unterschied ausmachen).
Stromaufnahme:
In wie weit die Stromaufnahme sinkt, muss sich erst in Tests zeigen. Wie wenig "TDPs" aussagen, sieht man ja bestens an den CPU-Herstellern.
 
Zuletzt bearbeitet:
Wärs demnach möglich eine GTX280 und eine GTX285 im SLI laufen zu lassen ?
 
Zanza schrieb:
mall sehen was die karte kostet, betsimmt wieder wie anfang die gtx280 um die 550 euro.
Bei einem Preis von 500 euro und dafür 10-20% mehr leistung wird die karte sich nicht lohnen. Vor allem frage ich ich mich mit welchem system Nvidia ihre karte testen

Der Preis wird zu Beginn bei 399 USD liegen und damit in etwa auf dem jetzigen GTX-280-Niveau.
 
Wieso sollte das nicht möglich sein ?

Für die GTX295 soll doch heute angeblich ein begrenztes Review mit von Nvidia ausgesuchten Spielen ausgegeben werden ...

Sorry surfix , habe ich falsch verstanden , glaube nicht dass das möglich ist . Nvidia wird dem bestimmt einen Riegel vorschieben .
 
Zuletzt bearbeitet:
Nacho_Man
Da die alte Generation die selben Treiber frisst und die Archtitektur gleich ist, profitieren alte weiterhin.

Ja wo soll die Ersparniss wohl her kommen? :rolleyes: Weniger Spannung?
Das AMDs RV6xx und RV7xx auch in TSMCs 55nm daherkommen, kannst du nicht zum Vergleich nehmen, wenn du deren 65nm nicht findest.
Nimm G92b samt neuesten Bios auf der 9800 GTX+ http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_5.html#sect0, oder verlaß dich auf die News.
Die GTX 280 frisst weniger als die TDP glauben lässt, ja, wird bei der GTX 285 ebenfalls der Fall sein.... bleiben somit 30% Ersparniss bei 8-14% Mehrtakt = Über 40% energieeffizienter.
 
Mir gehen diese Diagramme auf den Sack in denen durch die Größe der Balken suggeriert wird, dass die Grafikkarte ein Drittel oder mehr schneller ist obwohl es am Ende nur 10% sind.
 
10% Leistungssteigerung sind ne schöne Sache, ok auch keine Welten, aber immerhin... besonders erfreulich ist aber der gesunkene Stromverbrauch. Jetzt muss nur noch der Preis stimmen.
 
Also, ich kann hier nicht gross Reklammieren, denn trotz 10% mehr Leistung singt die Stromverbrauch rechtlich merktbar.
Deswegen sind sicherlicher kühlere Temperaturen sowie Lautstärke zu erwarten, trotz die gleiche Kühlung wie vorhin (Leider).
 
Also ich muss sagen mir gefallen die Tabellen von nvidia immer gut, die haben da bestimmt ein extra Designerteam für die Dinger. Vor allem die Skalierung da haben sich bestimmt eine Menge Leute einen Kopf drum gemacht wie man die 10% doch noch richtig viel aussehen lassen kann :evillol:
 
...der Stromverbrauch mag zwar gegenüber dem unmittelbaren Vorgänger recht deutlich sinken; vergleicht man diese Zahlen allerdings mit Highend-Karten von vor wenigen Jahren, sind sie dennoch aberwitzig hoch. Noch der Verbrauch einer GeForce 2 GTS war damals im Vergleich zum Gesamtsystem bedeutungslos...

Schon irgendwie seltsam, dass die CPU-Hersteller es geschafft haben, dass der Stromverbrauch unter Last trotz massiv gestiegener Leistung seit Jahren konstant geblieben ist, wogegen Grafikchips diese inzwischen weit weit überholt haben...
 
Zurück
Oben