Geforce GX2 280 Oktober

@Wuffi

Naja wird wohl ehr in die ander Richtung gehen weil ein Sprecher von Nvidia mal gesagt hat das es später immer mehr DualGPU Karten geben wird.
Könnte sein das es gut wäre:D, wenn sie die Microruckler und so weg bekommen, weil eine GPU muss ja immer mehr berechnen wie PysiX und warscheinlich kommt noch mehr dazu.
 
Das glaube ich nicht. Wahrscheinlicher ist ein massiv getunter GT200b.

Allein Stromverbrauch, Abwärme; das riesige Speicherinterface.

das interessiert leute die 500€ oder mehr für ne graka zahlen herzlich wenig. das riesige speicherinterface ist wohl eher ein pluspunkt. bin auch mal gespannt und die angaben(wenn auch bestimmt nicht alle100% zutreffend) machen meiner meinung nach sinn. denke die graka wird sich bei ca 600-800€ einordnen. je nachdem wie sich die preise der 280gtx entwickeln. gibts ja teilweise schon für 450€ +
 
Zuletzt bearbeitet:
Vendetta schrieb:
Völlig uninteressant
Was bringt Dich eigentlich dazu, Deine private Meinung, die mich nicht interessiert, ständig als allgemeingültig hinzustellen?
Ich halte eine solche Karte für sehr interessant, sollte sie tatsächlich erscheinen. Und es gibt mit Sicherheit genügend User, die sich ebenfalls eine zulegen würden.
 
denke mal das soeine kühllösung verwendet wird (paar bilder weiter gucken), aber dann im dual- oder tripleslot design, nur so könnte man diese krankhafte abwärme in schach halten.

Greetz
 
Die 2x 150W der 4870 sind auch kein Kindergeburtstag.

Da sind 2x 120W einer G200b 280 kein Thema oder 2x 130W der G200 260. Meinst du nicht?

Ändert natürlich nichts daran, das man bisher nur von einer GTX 290 munkelt.
 
Zuletzt bearbeitet:
hmm
bin mal auf den vergleich gespannt gtx280 gx2 vs. 4870x2
ich würde es ja ati gönnen das sie mal schneller sind weil dann hätte nvidia ziemliche probleme!
 
Würde mal sagen, dass das n Fake ist, weil Man eine GX2 280 bestimmt nicht kühlen könnte :D Naja warten wir ab, ob sich der verdacht erhärtet
 
Unyu schrieb:
Die 2x 150W der 4870 sind auch kein Kindergeburtstag.

Da sind 2x 120W einer G200b 280 kein Thema oder 2x 130W der G200 260. Meinst du nicht?

Ändert natürlich nichts daran, das man bisher nur von einer GTX 290 munkelt.

wie kannst du annehmen,dass sich bei einem DIE shrink der TDP halbiert? die werden ordentlich die taktraten erhöhen,was dazu führt,dass es wie beim 9800GTX+ die selbe TDP gibt?


ode redest du jetzt vom Verbrauch?


gruß
 
Ich beziehe mich auf den Verbrauch.

Sonst könnte ich die 4870 (X2) nicht mit in den Vergleich nehmen.
 
naja,die 3870X2 verbraucht auch nicht das doppelte einer 3870.


gruß
 
Stimmt, sie verbaucht sogar mehr. ;)
hd4850_power.gif


Aber darauf will ich nicht hinaus.
180W sind heute möglich. Die 4870 braucht ~ 150W, davon soll eine X2 thermisch möglich sein.
Warum dann nicht von einem G200b?
(egal ob 250, 260, 270, oder 280)
 
Zuletzt bearbeitet:
toll,dass du immer mit der selben tabelle hier argumentierst.

nehmen wir mal die cb messungen:

https://www.computerbase.de/2008-06...f-und-hd-4870/30/#abschnitt_leistungsaufnahme

nur den lastfall, IDLE ist net aussagekräftig für die Kühlleistung.

es wären für die 3870X2 ca 115Watt mehr, und i glaub net,dass die 3870viel weniger frisst..

naja,seis drum..

ist überhaupt scho bekannt ob es eine GTX250-290 geben wird?


gruß
 
Die 4870 X2 wird stolze 275 Watt verbrauchen, nicht wie erst angenommen 250 Watt bzw. wie es viele vermutet haben 300 Watt.

Durch das 55nm-Verfahren wird die GTX 280 aber niemals auf 120 Watt kommen. Die wird immernoch bei ca. 170 Watt liegen. Eine GX2 also mindestens bei 300, sofern die Taktraten gesenkt werden.

Achja es gibt auch einen ganz einfachen Grund, warum die 3870 X2 mehr als doppelt so viel Strom frisst wie die 3870: Bei der X2 wurden die Taktraten noch einmal deutlich angehoben...
 
ich glaube auch kaum das es eine GX2 vom G200 geben wird, schon jetzt verlässt die G200 so langsam die gewinnzone.

warum nochmehr aufwand und kosten in diesen dinosaurier stecken, der nicht vom aussterben bedroht ist, sondern bereits stirbt.

könnte natürlich sein das nvidia schon viel zu weit ist und die GX2 bringen muss, und auf genug "bauern" zum "fangen" hofft ...

man sieht ganz deutlich wo der weg hinführt, jeder tag an dem nvidia an ihrem "alten" modell festhält ist ein verlorener. hoffen wir das der G200 möglichst schnell über die bühne geht damit platz für neues von nvidia ist.
 
Die sollten vor allem so schnell wie möglich auf die 55 nm umsteigen. Mit 65 nm können sie nicht mehr viel erreichen. Hoffe mal, dass man dann auch schnell zu 45 nm kommt, um bei den jetztigen High-End-Karten den Stromverbrauch drastisch zu senken. Der ist wirklich nicht mehr zu missachten...

Edit: Der nächste neu entwickelte Chip beider Hersteller sollte meiner meinung nach in 45 nm sein. Dann hat man endlich mal wieder einen leistungs- und verbrauchs-technischen Meilenstein, wie damals bei der 8800 GTX / Ultra. In 55 nm sollten (bei nVidia) nur noch Refreshs sein, aber ein neuer Chip sollte lieber noch einige Zeit auf sich warten lassen und dafür in 45 nm erscheinen. Jetzt versucht man, die Karte schneller zu machen, ohne das Fertigungsverfahren zu ändern, sodass man Leistungssteigerungen nur noch durch die Erhöhung des Stromverbrauchs schafft. Mann sollte wieder zum mehr oder weniger angenehmen (maximal) 160 Watt-Verbrauch pro Karte kommen und da so viel Leistung erzielen, wie möglich.
 
Zuletzt bearbeitet:
Fertigt TSMC Grafikchips überhaupt in 45nm?
 
Kleinste mögliche Größe ist bei TSMC im Moment 40nm ;)

Unyu schrieb:
Da sind 2x 120W einer G200b 280 kein Thema......

Abwarten und Tee trinken, ersten offiziellen Angaben zur Folge wird die DIE Größe auch nicht 412mm² betragen wie Du anfänglich mal angenommen hattest, sondern durch die schlechtere Umsetzungsmöglichkeit von TSMC kommt die Karte wohl auf 470mm² von daher würde ich nicht allzu optimistisch mit der TDP rechnen ;)
 
Zuletzt bearbeitet:
Unyu schrieb:
Die 2x 150W der 4870 sind auch kein Kindergeburtstag.

Da sind 2x 120W einer G200b 280 kein Thema oder 2x 130W der G200 260. Meinst du nicht?

Ändert natürlich nichts daran, das man bisher nur von einer GTX 290 munkelt.


Diese werte hören sich für mich mehr nach wunschdenken von nvidia an.
Nach dieser aussage hat dann die GTX280 weniger verbrauch als die 4870. und das direkt um 10-20% ? klingt für mich sehr unglaubwürdig, aber ich lasse mich da mal überraschen.

Wie sieht das eigtl. mit der Kühlung aus, der große Chip von Nvidia hat ja auch mehr fläche um die wärme abzugeben. Oder verpeile ich da etwas?
Un wenn alles nix bringt kommt sie innen "Kühlschrank" , da is innen schön kalt und das zimmer wird noch mehr geheizt :)
 
Zurück
Oben