News Erstes Bild zur GeForce GTX 295 aufgetaucht

king_frool schrieb:
Die Alte(n) GTX260 sollten im Preis dadurch auch stark fallen und bieten dann evtl ebenfalls ein sehr gutes P/L
Da die GTX 2x0 in 55nm genauso heißen wie die in 65nm gefertigten Karten, wird der Preis sicher nicht runtergehen. Nvidia möchte verhindern, dass die alten Karten unter ihrem Wert verkauft werden.
 
@Sgt.Speirs da hat CB aber etwas anderes berichtet vor gut einem Monat .
Preissenkung Nvidia
 
ATi braucht vorerst keine Antwort, erstmal ist es an nV die X2 zu biegen.
Dann bleibt genung Zeit für nen Refresh seitens ATi.
 
Hm, mal eine Frage: Wenn das zwei identische GTX260 sind, die im Sandwichdesign zusammengeklebt werden, wie wird dann bitte die enorme Hitzeentwicklung abgeführt?!? Die GTX260 hat ja eine TDP von ~185W (ja, ich weis dass die nie ganz erreicht werden), angenommen die GTX260 im 55nm Design braucht dann unter Last noch - sagen wir - 170W. Dann nehmen wir die 170W doppelt und ziehen noch mal etwa 20 Watt ab (die HD4870X2 braucht ja auch weniger Strom als 2x eine HD4870, die Stromersparnis bei ATI ist aber wohl effektiver da hier ja nur ein PCB vorhanden ist und bei Nvidia ja im Prinzip zwei Karten fest miteinandner verbunden wurden ~> somit auch einige unnötige Stromfresser doppelt), dann wären da aber noch ~320W Heizleistung, die es gilt zu kühlen. Und wenn man mal annimmt, dass die beiden GTX260 identisch aufgebaut sind, dann würde das auch heißen, dass die beiden GPUs sich genau gegenüber liegen, nur durch den Kühler getrennt. Und bei dem geringen Raum stelle ich mir die Kühlung wirklich problematisch vor. ATI hat durch das größere PCB ja die Möglichkeit eines Triple-Slot Kühlers, wie er ja auch schon realisiert wird.
Fazit: Die GTX 295 wird sowohl in Hinsicht auf Leistung, als auch auf Temperatur auf jeden Fall eine echt heiße Karte! Bin mal echt nach dem Release auf erste Tests gespannt.

@Snoopmore: Witzige Idee, aber du wirst dich wohl mit zwei mal 8Pin PCIe Steckern begnügen müssen (denk ich mal)
 
Zuletzt bearbeitet:
Tja, die Kühlung kann wirklich zu einem großen Problem werden. Auf dem Bild sind die beiden PCBs ja nur locker miteinander verbunden. Man weiss also nichts über den tatsächlichen Abstand zueinander. Trotzdem ist davon auszugehen, dass es eine sehr laute Kühllösung wird und die Temps trotzdem an den 100°C kratzen werden.
 
Bereits eine 260-216 in 65nm verbrät oft weniger als eine HD4870 und ist bei gleicher Lautstärke kühler. Es ist also anzunehmen, dass eine GTX 295 leiser und/oder kühler als eine HD4870 X2 ist und zudem weniger Strom schluckt. Die 2x 260-216 in 55nm werden vll gar untertaktet und somit noch sparsamer sein ... abwarten. Ah ja, TDP-Angaben ... 4get it.

cYa
 
Zuletzt bearbeitet:
Das gibt eine Schraube aus stärkeren Netzteilen ---> noch-Stromhungrige Grakas ---> noch stärkere Netzteile, usw... Wer zum Teufel braucht das?
 
Mann oh mann...warum glaubt hier jeder 3te, das der Stromverbrauch zum stadard wird? Leute das sind Dual-GPU Karten, sowos kaufen idR nur Enthusiasten...und die wissen was sie damit machen.

Btw, jammert irgendwer bei der X2? Ihr wisst ja gar nicht ob die GTX295 mehr braucht als die.
Man glaubte auch bei ner GX2 "wie soll das nur funktionieren", und naja, es klappt ja wie man sieht.
 
wen ich das verstanden habe is ein GTX 295 eine dual karte aber eine GTX 280 nicht und eine GTX 260² auch nicht ^^ sehr komisch.
Blickt man da noch durch ^^?
 
Nvidia soll sich lieber mehr auf die Mid-Range Karten konzentrieren, wie z.B. eine GTX 250. Da streicht ATi derzeit mehr Kohle ein.

LG
 
die GTX295 sollte weniger verbrauchen als die 4870X2.. also kein grund zu aufregung :D

nach dem G92 debakel von A-Z und all seinen varianten, habe ich bei der GTX295 irgendwie ein viel besseres gefühl, auch wenn ich eigentlich abstand von dual-gpu system nehmen wollte..

bin auf die benches gespannt, denke aber das die 4870X2 in allen Bereichen geschlagen wird. vielleicht der idle-verbrauch geht an AMD, für mich extrem wichtig für die presse sicher nicht..
 
die 4870X2 verbraucht weniger als ein sli gespann aus 2x GTX260 :) und das mit PowerPlay-Bug :D

also JA!! y33H@ mit GDDR5 !!
 
Zuletzt bearbeitet:
5 Watt :D Bedenke - 55 nm wird die 295er. D.h. wohl weniger VCore/Takt, vll auch im idle.

cYa
 
okay könnte knapp werden, immerhin hat der GTX295 mehr ALUs nämlich 240 ..

wäre schön, aber denke der sieg geht da an AMD

im grunde haben beide karten sicher mehr potenzial, das jedoch erst der user erreichen wird .. siehe idle-spannung oder taktraten
 
Volle 240 ALUs? Das wäre freilich heftig. Leider hast du recht, per manuellem Nachjustieren ist noch viel zu holen.

cYa
 
Wirklich etwas wissen über die spekulierten, zukünftigen Nvidia-Grafikkarten tut man eigentlich nicht.

Naja, wenn man nix wissen tut, dann tut man halt spekulieren tun... ;)
 
die meldung lässt generell zu wünschen übrig was 'deutsch' im sinne von ausdruck und satzbau angeht.

"Wirklich etwas wissen [...] tut man eigentlich nicht."
"[...] scheinen nun zumindest teilweise nur noch [...]"
"So scheint es auf jeden Fall [...] geben zu werden."
...

da läuft es einem eiskalt den rücken runter, wenn man sowas lesen muss.
 
Zurück
Oben