News Aus Dual-GPU-GeForce GTX 260 GX2 wird GTX 295

Sebastian

Vice Admiral
Registriert
Apr. 2004
Beiträge
6.273
Schade, 2 PCB's, runter getaktet. Das macht ATI deutlich besser - ein PCB mit 2Chips zudem keien Senkung der Takte. So sollte ne Dualkarte aussehen!
 
Kann mir vorstellen das die Karte sogar schneller sein könnte in bestimmten Spielen als eine 4870 X2 - aber ebenso kann ich mir vorstellen das die Einstiegspreise der Karte bei 599€ liegen werden, zumin am Anfang.
 
es wird ganz auf die skalierung von SLI ankommen. aber insgesamt wird sie wohl "nur" gleihcschnell sein.


gruß
 
In meinen Augen ist das nicht der richtige Weg. Aber es gibt halt eine extrem kleine Zielgruppe, für die die Leistung vor allen anderen Aspekten steht.
Ich wäre durchaus bereit, für eine vernünftige Graka 250€ auszugeben, aber leider haben die meisten aktuellen Modelle jeglichen Bezug zu Verbrauch und Abwärme verloren. Für einen HTPC Benutzer, der auch Leistung will, ist das traurig.

Für mich wäre es interessant, aus den Shrinks mal maximale Sparsamkeit zu entwickeln und nicht immer nur maximale Shader und Mhz-Zahlen.
 
I-wie kommt in mir der Gedanke hoch, dass es hier um Imagepolierung gehen soll....
Werden wohl viele Leute denken, dass es sich um eine Single-GPU Karte handelt und der den Vorzug vor der 4870X2 geben.
 
hmm GTX295?!
Warum nicht GTX 290?

Klingt nach vielleicht gibt NV den neuen 55nm Teilchen doch ne neue Nummer?
GTX 265 und GTX 285?!

Aber finde es iwi wieder richtung Kundenbeschiss wenn da ne Karte angepriesen wird und von der Bezeichnung nicht mehr auf eine Dual geschlossen werden kann.
 
Bevor man sich eine Meinung bildet, sollte man abwarten, wie es wirklich aussieht. Der ganze Text basiert nämlich auf Vermutungen.

Das sowas hier für viele als Argumentationsgrundlage ausreicht, zeigt, wie man euch als Diskussionspartner einzuschätzen hat.
 
Oha der Nvidiaverfächter.
Mag ja sein das die 295 "DIE" Karte wird, aber ich bin der Meinung wie man Nvidia so kennt, Skaliert vorallem die Stromrechnung in ungeahnte Dimensionen. Und das die 4870 trotz geringerer Leistung wesentlich beliebter ist als die GTX280 bzw. GTX260 liegt bestimmt nicht nur am Preis sondern auch am Stromverbrauch.

Nvidia wird sich noch wundern. Die sind wie die Amerikanische Autoindustrie, und wundern sich dann das sie pleite gehen :D
 
Wie sieht es in diesen Zusammenhang eigentlich mit den Micro-Rucklern aus?

Wieder eine neue Dual-GPU-Card, basierend auf den Flaggschiffen der Serie und diese Kleinigkeit wird mit keinem Wort erwähnt :rolleyes: denn soweit ich weiß ist das doch immer noch ein Thema?
 
@AkShen Du weisst schon dass die Nvidia Karten dieses jahr "viel" sparsamer sind... oder??
 
Mir persönlich ist es eigentlich erst mal egal obs nun wieder eine Sandwichkarte wird oder wie bei ATI alles auf einem PCB Platz findet. Bei ATI kommunizieren die Chips auch nur über ein internes Crossfire und bisher konnte ich keinen Vorteil daran erkennen alles auf ein PCB zu platzieren. Die Karte könnte ganz gut werden, wenn der Stromverbrauch und die Lautstärke moderat bleiben, aber genau das bezweifle ich. Von der Leistung denke ich wird sie die ATI locker schlagen. SLI skaliert zurzeit einfach besser als Crossfire (konnte man vor nicht allzulanger Zeit auch hier auf CB nachlesen).

Trotzdem würd ich mir niemals eine Dualkarte holen, egal ob von ATI oder Nvidia, hat einfach noch zuviele Nachteile finde ich. Dann doch lieber eine 4870 oder ne GTX.

gruß nothe
 
Ich verstehe nicht, warum es 2 beschnittenen GT200b sein sollen, außer der Preiskampf.
So bleibt die FPS Krone erstmal beim GTX 280 Triple SLI.

Oh Herr towa, auf der Packung steht oft mehr als nur der Name der Karte.
 
hm mir wären 2x 1792MB oder gemeinsam genutzte 1792MB wesentlich lieber. Halt alles Geldfrage aber wenn man sich den Speicherverbrauch voon GTA4 reinzieht merkt man schnell dass 1GB bei weitem nicht ausreicht.
Ansonsten wird man über den Stromverbrauch ncht wahnsinnig meckern dürfen. Der G200b wird etwas sparsamer sein als der G200, zudem braucht dieser nicht wesentlich mehr Strom als ein R770, im Gegenteil, laut CB Test deutlich weniger in Idle und unter Last auch.
 
Triple SLI ist ein Witz wie CrossfireX:lol:

Oftmals sind 2 Karten schneller als 3 bzw. 4:freak:
 
@Ossi94
"Taktraten hin oder her das wird die beste Karte!!!"

Stimmt, zumindest für die NVidia-Welt, für eine gewisse Zeit, alles andere wäre/ist Spekulation. :rolleyes:
 
Zuletzt bearbeitet:
Hallo

Wie siehts jetzt mit der 55nm Verkleinerung bei den Einzelchipkarten aus?
Mir wurde gesagt, dass einige der Meinung seien, dass die "kleinere" Variante bereits im Umlauf seien...

Mir wäre (egal nVidia oder ATI) eine Zweichipkarte einfach zu teuer bei der Anschaffung und auch im Betrieb. Und dann kommen noch die Probleme wie Mikroruckler.
Leider drückt da die Ami-Mentalität bei nVidia durch, die "Ich bin der Beste/Grösste, egal was es kostet/verbraucht"-Mentalität.

Gruss
Nobody
 
Ossi94 schrieb:
Taktraten hin oder her das wird die beste Karte!!!
Nichts fuer ungut aber damit ist klar das du voreingenommen bist (oder Wahrsager)!

Ossi94 schrieb:
So oder so "skalieren" Nvidia Karten besser als die von ATI

:freak: Was skalieren denn die Karten von Nvidia besser als die von ATI ?????
Ich glaub eher du meinst MultGPU von Nvidia (SLI) skaliert besser als von ATI (CF)! :evillol:

Hellbend schrieb:
Wie sieht es in diesen Zusammenhang eigentlich mit den Micro-Rucklern aus?.... ich weiß ist das doch immer noch ein Thema?

Das schon aber es bringt doch nichts bei jeder neuen Karte das selbe Problem breit zu treten!
Erwaehnt werden sollte es natuerlich schon!

Ossi94 schrieb:
@AkShen Du weisst schon dass die Nvidia Karten dieses jahr "viel" sparsamer sind... oder??
?? Sparsamer als was? Eine alte Mikrowelle, ein E-Herd, ... ?? :lol:
 
Zuletzt bearbeitet:
Zurück
Oben