News Finale Taktraten der GeForce GTX 280/GTX 260?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Auch wenn weder die Radeon-HD-4800-Serie von ATi noch die GeForce-GTX-Grafikkarten von Nvidia (so die voraussichtlichen Produktbezeichnungen) der Öffentlichkeit vorgestellt worden sind, so gibt es eigentlich nicht mehr viel, was noch unbekannt ist.

Zur News: Finale Taktraten der GeForce GTX 280/GTX 260?
 
Toll, klingt nicht schlecht. Gelten die Angaben eigentlich als sicher oder nur Grüchte?
 
Zuletzt bearbeitet:
Das schaut ja mal super aus.
Die Leute mit 30" TFTs werden sich freuen. :p

Ist dieser kleine Chip in der Nähe der DVI-Anschlüsse der PhysX-Chip?
Oder ist der in der GPU integriert?

Kann einer an den Bilder sehen schon ob der Thermalright HR-03 GT pasen wird?
 
Ich denke mal, dass sich diese Angaben als wahr herausstellen werden... Doppelte Speicherbandbreite als die 98GTX... Dann bin ich mal auf Tests gespannt; und zwar irrsinnig.
 
na das klingt ja mal nach viel leistung.

Was mich allerdings etwas stört ist der 6 & 8 Pin anschluss, was darauf schließen lässt, dass die Karte über 225Watt verbrauchen wird (korrigiert mich wenn ich falsch liege), sonst hätten ja 2x6 pin ausgereicht.
Find ich schon arg viel auch für eine High-End Karte, vor allem, da bis jetzt noch keine Stromsparfunktion bestätigt wurde!
 
Nur den technischen Daten zufolge, scheint sich die GTX 260 nicht sehr weit von der 8800Ultra absetzen zu können.
Gerade die Shader takten bei den neuen Karten überraschend niedrig.
Nichtsdestotrotz bin ich auf die tatsächliche Leistung der Karten gespannt.
Finde ich positiv, dass es entgegen einiger Befürchtungen ein starkes Single-GPU-Design zu werden scheint und kein Dual-Chip-Design.

@intelfan
Die Angaben sind vermutlich so kurz vor der Vorstellung als sehr realistisch einzuschätzen.
 
Naja klingt alles interessant aber richtig spannend wirds wenn ATI /Nvidia in einem richtigen Test gegeneinander antreten... aber 240W sind ziemlich übel gerade im Vergleich zu den genannten 157W der 4870...
 
@ zorin

ja, noch dazu muss man anmerken, dass die 4870 über eine gute stromsparfunktion im 2D bereich verfügt, was den Durchschnittsverbrauch noch deutlich senken wird!
Vom Preisunterschied ganz zu schweigen.
 
Gut, die Frage ist halt ob die ATIs auch von der Leistung mithalten werden, dass glaub ich nämlich noch nicht so ganz...
 
Oh und alle habe gesagt das NVIDIA ATI deutlich auf Abstand halten kann. Wenn ich jedoch sehe das die GFLOPS gerade mal 30% mehr sind als bei der GTX, obwohl die fast 100% mehr Shadereinheiten hat, dann ist das ganz schön schwach, denn die 100% mehr Shadereinheiten machen den Chip in der Herstellung deutlich teurer. Ati soll ja laut den Specs 1000 GFLOPs schaffen, ist somit schneller jedoch deutlich günstiger, so das man fast 2 Grafikkarten für den Preis kaufen kann.
 
Elmex23 schrieb:
na das klingt ja mal nach viel leistung.

Was mich allerdings etwas stört ist der 6 & 8 Pin anschluss, was darauf schließen lässt, dass die Karte über 225Watt verbrauchen wird (korrigiert mich wenn ich falsch liege), sonst hätten ja 2x6 pin ausgereicht.
Find ich schon arg viel auch für eine High-End Karte, vor allem, da bis jetzt noch keine Stromsparfunktion bestätigt wurde!

Steht doch im Text, genauer lesen: "Die maximale Leistungsaufnahme liegt bei 236 Watt."

pimbolie1979 schrieb:
Oh und alle habe gesagt das NVIDIA ATI deutlich auf Abstand halten kann. Wenn ich jedoch sehe das die GFLOPS gerade mal 30% mehr sind als bei der GTX, obwohl die fast 100% mehr Shadereinheiten hat, dann ist das ganz schön schwach, denn die 100% mehr Shadereinheiten machen den Chip in der Herstellung deutlich teurer. Ati soll ja laut den Specs 1000 GFLOPs schaffen, ist somit schneller jedoch deutlich günstiger, so das man fast 2 Grafikkarten für den Preis kaufen kann.

Die GFlops sagen gar nix aus, die HD3870 hat fast soviele GFlops wie die Ulta (~500) und trotzdem keine Chance gegen diese!


Ansonsten finde ich das kleinere Modell eher uninteressant, der Leistungsabfall ist schon nicht ohne, wenn dann würde ich gleich aufs Top-Modell setzen, sofern der Preisunterschied nicht mehr als 33% beträgt.
 
Zuletzt bearbeitet:
So ein Mist, schon wieder 600$, da wird das wohl zu Beginn 550€ Kosten und ewig nicht unter 500€ gehen.
 
Da bin ich mal gespannt, wie die Karte bei den aktuellen/kommenden DX10 Games skalieren wird.
 
Interessant sind doch vor allem die recht niedrigen Shader-Taktraten. Da diese zumindest zu Anfang eher niedrig sind und sich auch die Texturleistung nicht so drastisch erhöht, sieht es für mich danach aus, als ob die neuen Karten nur in hohen Auflösungen wirklich punkten können. Dazu kommt natürlich noch der hohe Verbrauch sowie die tatsache, dass es nur Hybrid-SLI als Stromsparfunktion gibt.
Könnte natürlich auch sein, dass NV die Shadereinheiten an sich deutlich verbessert hat, wie beim Sprung von GF6 (NV40) auf GF7 (G70), aber das macht bisher nicht den Eindruck.

Stört mich aber nicht, da ich mich mehr für die beiden ATI Karten interessiere.
 
Man sollte evtl. die ? bei den Shader models der 8800 Ultra und 9800 GTX weglassen, die unterstützen meines Wissens nach sicher Shader model 4.0.

ebenso den Zahlendreher bei der Speichermenger der Ultra sollte man korrigieren auf die korrekte Zahl 768 MB.

Ansonsten interessant dass nVidia die neuen Cores sogar niedriger zu takten scheint als die 9800GTX. Das scheint zu implementieren dass die Leistungssteigerung durch eine bessere Core-Optimierung erreich wird und ein besseres Gesamtlayout als durch höheren Takt.
 
@luno89

der kleine Chip regelt SLI, soweit ich das mitbekommen hab?
 
Was für ein Monster: wohl über 500mm² Die-Fläche, wohl fast 2 Milliarden Transistoren, 235W TDP bei 600MHz Chiptakt (1,3GHz Shadertakt). Das wird ein irre schnelles Teil. Nur doof, dass er wohl keinen SM4.1 Support hat, was ja in einigen zukünftigen Programmen AA garantieren wird.

BulletHunter69 schrieb:
@luno89

der kleine Chip regelt SLI, soweit ich das mitbekommen hab?

Das wird ein RAMDAC sein, den hatte man beim G80 ja auch nicht integriert. SLI ist ja im Grunde nichts weiter als ein PCIe Anschluss mehr, der sitzt aber auf jeden Fall im Chip selber. PhysX-Code wird mit der brachialen Leistung auf der GPU berechnet werden.

Wenn man sowas sieht, hat Intel da nicht den Hauch einer Chance auf den Grafikmarkt einzusteigen, zumal man Larabree mit den gleichen Eckdaten auf 2009 verschoben hat, wieder mal. Das wird nix ;).
 
Zuletzt bearbeitet:
Quelle ist "The Inquirer"? Da sollte man aber noch ne dicke Warnung in der Meldung plazieren ;)
 
Mardy2802 schrieb:
So ein Mist, schon wieder 600$, da wird das wohl zu Beginn 550€ Kosten und ewig nicht unter 500€ gehen.

Hast Du keinen Bekannten in den Staaten ? 600 USD sind im Moment 380,95 €....;)
 
Iscaran schrieb:
Man sollte evtl. die ? bei den Shader models der 8800 Ultra und 9800 GTX weglassen, die unterstützen meines Wissens nach sicher Shader model 4.0.

ebenso den Zahlendreher bei der Speichermenger der Ultra sollte man korrigieren auf die korrekte Zahl 768 MB.

Ansonsten interessant dass nVidia die neuen Cores sogar niedriger zu takten scheint als die 9800GTX. Das scheint zu implementieren dass die Leistungssteigerung durch eine bessere Core-Optimierung erreich wird und ein besseres Gesamtlayout als durch höheren Takt.

Ich denke das Gegenteil ist der Fall. Es gibt doch keinen Grund warum Nvidia die Taktraten nicht hochschrauben sollte, wenn es problemlos möglich ist. Ich würde eher sagen sie können die Taktraten nicht höher machen oder wollen es nicht, weil es sich negativ auf die Stückzahlen auswirkt.

Die große Frage wird aber sein, ob die Karte die Rohleistung in Spieleleistung umsetzten kann.
Die HD2900xt hat das ja bekanntlich nicht geschafft.
 
Zurück
Oben