News Finale Taktraten der GeForce GTX 280/GTX 260?

Hallo, schade dass der Stromverbrauch so hoch ausfällt. Da möchte ich doch auf die 55 nm Variante warten und hoffen, dass die mit dem Stromverbrauch unseren Klimabedingungen gerechter wird. „Effektive Windows-Stromsparfunktion“ in diesem Kasten fehlt leider etwas und zwar ohne, das ich mir schon wieder ein neues Motherboard kaufen muss.
 
512Bit Speicherinterface.
Efizientere Shader daher alles niedriger getaktet.
Mfg
 
Sollten sich aus 1000MHz Speicher und 448bit nicht ca. 112.000 MB/s Bandbreite bei der GTX 260 ergeben und nicht 100.000MB/s ....??
 
Verbraucht die 260 genauso 236W wie die 280?

Ansonsten sind sie ja net grad billig und wo ist der Hybrid-Modus?
 
Die Taktraten sind (komischerweise) etwas gering. Ich hab KA aber war das bei NV schon immer so?
Warum steigt Nvidia nicht auch auf einen GDDR5 Speicher um? Sinnvoll wäre das ja bei einem Speicherinterface von 512. Der Preis wird (bestimmt) wieder übel hoch.
 
Warum steigt Nvidia nicht auch auf einen GDDR5 Speicher um?

Kostet Geld und ist nicht nötig - die Leistung wird sowieso wieder brachial, die Konkurrenz ausgestochen.

Naja, 65nm, die werden teils schon auf 750-800 MHz GPU Takt gehen ;).
 
Ob die 260 wirklich diesen preis halten kann? Dazu müsste sie ja schon eine ganze nummer schneller seina ls die 100$ niedriger angesetzte HD 4870. Dazu müsste der GT200 schon einiges an architekturverbesserungen bringen, denn allein durch die geringfügige erhöhung der jeweiligen einheiten sehe cih einen solchen performancesprung eher nicht.

Vulture_Culture schrieb:
Warum steigt Nvidia nicht auch auf einen GDDR5 Speicher um? Sinnvoll wäre das ja bei einem Speicherinterface von 512.

Gerade bei 512bit ist es eben NICHT sinnvoll - nvidia erhöht die bandbreite durch ein breiteres interface, ati erhöht sie durch schnelleren speicher, beides in kombination ergäbe eine völlig überdimensionierte Speicherbandbreite die keinerlei nutzen bringt und nur mehrkosten verursacht.
 
Zuletzt bearbeitet:
denn allein durch die geringfügige erhöhung der jeweiligen einheiten sehe cih einen solchen performancesprung eher nicht.

Und wodurch dann :freak:? Die Leistung des G92 ist schon sehr gut, einzig die Bandbreite limitiert - die GTX 280 hat beinahe die doppelte Shaderleistung und doppelte Bandbreite als der G92...
 
ich denke das ATI diesmal richtig abräumen kann, technisch sind die neuen HD 4000 karten spitze, bei den Nvidia modellen ist es so, das die leistungskrone erobert wurde nicht mehr und nicht weniger, technisch haben sie weit weniger zu bieten kein DX 10.1 kein Powerplay (stromsparfunktionen), zumindest wurde dies noch nicht bestätigt trotz eines verbrauches von 236 watt^^, teuer sind sie auch noch ohne ende 600 dollar... die karten werden sich wohl >1% der freaks holen, die "vernünftigen leute" die werden überwiegend zu den HD 4000 modellen greifen, da sie schnell bzw unter 200 € (229$ HD 4850) kosten werden. Hut ab ATI nach jahren mal wieder was richtig gescheites auf den markt gebracht, hoffe AFAA-Leistung bleibt auch stark!
 
Diese Karte ist ein Monster :verwandlung: mehr lässt sich da nicht sagen.
 
Na das ist doch ma ne Grakka ist das nicht schön.

Ich hab gelesen die soll doppelt so schnell wie die 9800gx2 sein also wenn das stimmt dann muss das teil ja ne mortz power haben
 
Vulture_Culture schrieb:
Die Taktraten sind (komischerweise) etwas gering.
Warum komisch?
Mehr Transitoren als bisher, weiterhin 65nm, wie soll man diesen Chip plötzlich so hoch takten können? Wunder?
Nur weil AMD einen winzigen 55nm Chip höher takten kann, kann man so ein 65nm Monster nicht auch gleich so hoch takten. :rolleyes:

NoD.sunrise schrieb:
denn allein durch die geringfügige erhöhung der jeweiligen einheiten sehe cih einen solchen performancesprung eher nicht.
Ironie?

Allein von den Daten ownt die GTX 260 eine 9800GTX mächtig weg.
 
@ unyu:
bissle erschockt über die doch ernüchternmden werte?

takt ist nun auch mal wichtig, aber diesen monsterstrombeißer kann man wohl nicht höher kriegen, ganz im gegenteil, wird ne ecke niedriger getaktet als ne 9800GTX.

nvidia hatte sich auch mehr erhofft, aber dann bleibts eben bei ner steigerung von 50% gegenüber ner 9800 GTX. wird ja auch "nur" 600$ kosten *g*

da kauf ich mir doch ne 4870 mit gddr5 für 329$ und bin 25% schneller als ne 9800GTX, wohl auf GTX260 niveau, die auch immerhin 450$ kostet.

der g200 ist n griff ins klo, ist nun mal so und die 280er kaufen sich keine 2% der zocker. ist eher was für ne freakshow der ungeküssten *ggg*
zu teuer, zu lahm fürs geld und zu hoher stromverbrauch... ach ja und von dx10.1 haben die auch noch nie was gehört und wird bestimmt määäächtig heiß.
 
Auf Gameswelt hab ich gelesen das die Karten nur 26.7cm sein sollen.Somit kürzer als aktuelle High-End Karten. Was nun?
 
luno89 schrieb:
Ist dieser kleine Chip in der Nähe der DVI-Anschlüsse der PhysX-Chip?
Oder ist der in der GPU integriert?

BulletHunter69 schrieb:
der kleine Chip regelt SLI, soweit ich das mitbekommen hab?

HOT schrieb:
Das wird ein RAMDAC sein, den hatte man beim G80 ja auch nicht integriert. SLI ist ja im Grunde nichts weiter als ein PCIe Anschluss mehr, der sitzt aber auf jeden Fall im Chip selber. PhysX-Code wird mit der brachialen Leistung auf der GPU berechnet werden.
Der zusätzliche Chip müsste ein NVIO-Chip sein. Der war zuletzt auf den G80-Karten zu sehen und ist zuständig für Ein- und Ausgangssignale sowie SLI bzw. Triple-SLI. PhysX wird über CUDA mit der GPU berechnet.
 
Alter Schwede die Daten der GTX280 sind schon beeindruckend, wenn diese dann wirklich soviel mehrleistung hatt, aber der Preis ist ganzschön happig ebenso der Stromvebrauch liegt jenseits von gut und Böse.

Ob alles wirlich so kommt werden wir bald sehen.



@machiavelli1986 13mm machen das Kraut nicht fett.
 
Zuletzt bearbeitet:
cosmicparty schrieb:
da kauf ich mir doch ne 4870 mit gddr5 für 329$ und bin 25% schneller als ne 9800GTX
Toll.
Und dann kaufe ich eben eine 9800 Ultra auf G92b Basis, bin 3% langsamer als die 4870 unterwegs, zahle dafür 229$. :rolleyes:
Scheint mir, als ob du meinen Beitrag und das G92b Thema nicht gelesen hast.

cosmicparty schrieb:
wohl auf GTX260 niveau, die auch immerhin 450$ kostet.
Falsch, erheblich angsamer.

"Just wait until June 17th when the newest series of GeForce GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."
 
Zuletzt bearbeitet:
Zurück
Oben