Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce GTX 270, GTX 290 und GX2 im November?
- Ersteller Wolfgang
- Erstellt am
- Zur News: GeForce GTX 270, GTX 290 und GX2 im November?
holdrio
Lt. Commander
- Registriert
- Juli 2005
- Beiträge
- 1.790
red_stalker schrieb:Der Trend geht einfach immer mehr auf Multiplattform über. Deswegen kommt man auch noch mit einen der "alten" Karten eine Weile aus.
Aber du hast schon recht. Wenn man die heutigen "High-End" Spiele wirklich ausreizen will, kommt man nicht über die Beste Hardware drum rum.
Oder auch einfach nur schon möglichst immer in der nativen Auflösung des Monitors spielen, 24 Zoll und auch mehr Monitore mit 1920x1200 sind zumindest als TN nichts exklusives mehr heute und für Gamer auch sehr gut geeignet.
Bei der Auflösung kann man nie genug Leistung haben eigentlich, die weder sehr alte noch lahme 8800GTS 512 kam mir da schon klar überfordert vor, an AA war wegen nur 512MB erst recht kaum zu denken.
Auch Konsolenumsetzungen wie z.B bald GTA4 hätte ich mit der nicht in 1920x1200 sehen wollen lieber.
Übersoldier75
Lieutenant
- Registriert
- März 2008
- Beiträge
- 814
Das ist doch alles Geldmacherei. Wer braucht eine solche Karte? Es kommen doch im mom eh keine Spiele raus, für welche ich so eine Karte brauch. Ich hock noch immer auf ner 8800gt und bin voll zufrieden, habe kein Spiel was mehr Leistung braucht......
Wie wärs mit Clear Sky, da es hier schon ne Dual-GPU-Karte braucht für volle Details, also hat die GTX290 schon ihre daseinsberechtigung!
Crysis ist leider nicht mehr mass der Dinge!, das läuft auf meiner Karte besser als Clear Sky!
M
Muscular Beaver
Gast
wenn du meinst... weißt du eigentlich was dein pc ausgeschaltet verbraucht? und wenn du ihn eine nacht ausgeschaltet laufen lässt ( also nicht den netzstecker ziehn, bzw an einer leiste ausschaltest), dann ist das mehr als der unterschied ist... kannst ja mal nachmessen.
Habe erst letztens ein Messgerät dran gehabt. 15W über 8 Stunden sind also mehr als 160W über 2 bis 4? Alles klar, Junge...
Ist aber auch komplett irrelevant, denn 160W mehr bei Last sind 160W mehr. Wenn du das durch das ziehen des Netzstecker kompensieren willst, solltest du mal lieber deine Logik unter die Lupe nehmen.
Ganz zu schweigen davon dass man das bei einer GTX260 auch machen kann (mache ich aber nicht mehr weil mir schon 2 Batterien dadurch Hops gegangen sind).
Zuletzt bearbeitet:
Übersoldier75
Lieutenant
- Registriert
- März 2008
- Beiträge
- 814
Die gesamte Entwicklung ist schon irgendwie heftig, wenn ich über lege, dass ich für meine 7900 GTX damals 450€ bezahlt habe und jetzt kosten die schnellsten Single-GPU Grafikkarten von Nvidia 220 und 340€. Eigentlich kann man nicht meckern.
schlafanzyk ist offline Beitrag melden Antwort
wenn ich bedenke dass ich für meine 6800GT Golden Sample 500€ bezahlt habe, wegen Doom3 in höchster Quali zu zocken!
Warum? Für die Zukunft(Sandy Bridge)!
Ja könnte durchaus der fall sein nur solange möchte ich nimmer warten, die Karte wärs bestimmt wert aber das DX11 nicht die minimalen änderungen siehe Warhead auf einmal gehen auch alle DX10 Effekte auf DX9.
Es sind ja nicht nur die Effekte bei Vista, sondern das bessere Speichermanagment! Also hör auf zu erzählen von DX9 vs. DX10, das kann ich schon nicht mehr hören! Dann bleib halt bei deinen Nachladerucklern und XP!
Waren das nicht die G80/G92 Karten welche heute noch auf die Senkung des Idle Stromverbrauchs per Treiber warten?
Also bei meiner 8800GT 1024MB Golden Sample funzt das Powerplay, wie es mit anderen Karten aussieht weiss ich nicht!, bei der normalen GT von GW scheint es nicht zu funzen, naja dafür hat man ja ne GOlden Sample, (mehr bezahlt=mehr Features)!
ein 550w be quiet reicht dicke au
Auf BeQuiet stehe ich nicht so!(Letzter Schrott)!
Zuletzt bearbeitet:
holdrio
Lt. Commander
- Registriert
- Juli 2005
- Beiträge
- 1.790
Nichts verkauft sich eben besser als etwas mit "NEU" Aufkleber drauf, und man kann erst noch wieder höhere Preise verlangen, für Nvida und Ati ist diese Refresh "SCHEISSE" das Gegenteil, pures Gold! 
Wenn sie wenigstens einige Euro davon in hochwertigere, leisere Kühler stecken würden...
Ah also auch nie dann wie bei mir?
Dieses Wettrüsten der Verzweiflungstaten gehört doch eh ignoriert, mehr sind die Dualkarten doch nie mit dem ganzen Treiberknatsch, schlechter Spieleunterstützung und Microruckeln.
Ati brachte sie weil sie nicht an die 280 rankamen, Nvidia weiss sich jetzt nicht anders zu helfen als Atis Verzweiflungstat mit auch so einer zu kontern, richtig tragikomisch langsam!
Wenn sie wenigstens einige Euro davon in hochwertigere, leisere Kühler stecken würden...
GIGU schrieb:eine GX2 kommt bei mir erst in den pc, wenn endlich dieses mikroruckler problem gelöst ist!
Ah also auch nie dann wie bei mir?
Dieses Wettrüsten der Verzweiflungstaten gehört doch eh ignoriert, mehr sind die Dualkarten doch nie mit dem ganzen Treiberknatsch, schlechter Spieleunterstützung und Microruckeln.
Ati brachte sie weil sie nicht an die 280 rankamen, Nvidia weiss sich jetzt nicht anders zu helfen als Atis Verzweiflungstat mit auch so einer zu kontern, richtig tragikomisch langsam!
Übersoldier75
Lieutenant
- Registriert
- März 2008
- Beiträge
- 814
Tja NV will halt die Performance-Krone zurück, und alle haben gezweifelt an sowas wegen dem Stromverbrauch, ausser ich, das hab ich schon lange prophezeit, doch keiner hat mir glauben geschenkt, jetzt bekommt ihr die Rechnung!
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Genau das habe ich doch geschrieben, sogar 2 Mal!Schinzie schrieb:Außerdem weißt du erstens, dass furmark nichts aussagt aufgrund der shaderauslastung und 3Dmark nicht gespiel wird. in spielen schenken sich eine GTX260 und eine 4870 je nach bericht +_10watt. und das ist in meinen Augen "sie schenken sich nichts". Von 200watt unterschied kann hier nirgends die Rede sein.
Übersoldier75
Lieutenant
- Registriert
- März 2008
- Beiträge
- 814
@Unyu, alter Kumpel, auch mal wieder im Land, jawoll sags ihnen für zehn Cent!
Endlich krieg ich mal Unterstützung!
@y33H@, und was ist mit Stalker CS, das sind wohl Hirngespinste oder was? haste was genommen oder was?
Volle Detaills unter CS schafft nur ne DX10-Karte ala 8800GT, HD3870, HD48xx, GTX2xx und Vista 64 nur zur Info, und komm mir nicht wegen Crysis dass es da auch gefunzt hat, Clear Sky ist "kein Crysis"!
Ich bin zufällig im Stalker-Forum Mitglied und auch schon länger dabei(SoC), das funzt nicht unter WinXP, da kannste 3 Monate dran drücken und das geht nicht!, meinste die Spieleherrsteller sind blöd und machen den selben Fehler wie bei Crysis? haha ich lach mich schief!
Endlich krieg ich mal Unterstützung!
@y33H@, und was ist mit Stalker CS, das sind wohl Hirngespinste oder was? haste was genommen oder was?
Volle Detaills unter CS schafft nur ne DX10-Karte ala 8800GT, HD3870, HD48xx, GTX2xx und Vista 64 nur zur Info, und komm mir nicht wegen Crysis dass es da auch gefunzt hat, Clear Sky ist "kein Crysis"!
Ich bin zufällig im Stalker-Forum Mitglied und auch schon länger dabei(SoC), das funzt nicht unter WinXP, da kannste 3 Monate dran drücken und das geht nicht!, meinste die Spieleherrsteller sind blöd und machen den selben Fehler wie bei Crysis? haha ich lach mich schief!
Zuletzt bearbeitet:
BestPower²TDP
Lt. Commander
- Registriert
- Juni 2008
- Beiträge
- 1.250
Der Markt für NV ist ja praktisch tot. Mit den jetzigen Angeboten wird so wenig Umsatz gemacht, das NV genötigt sieht, seine Hardware Partner zu rumpfen also sich von einigen trennen muß um die anderen bei Laune zu halten. Macht ja auch keinen Sinn wenn 1000 Karten sich auf zu viele Partner verteilen, die verkauft werden. Und diese 1000 sind im kommenden Monate auch nur noch 900.
Um diesen negativen Trend aufzuhalten, bleibt NV nichts anderes übrig als solch einen 55nm Neuauflage zu machen. zumindest kann damit der Markt erst einmal wieder gehalten werden, so die Hoffnung von NV.
Wenn...ja wenn da nicht AMD wäre...
Es wäre keine Überraschung mehr wenn AMD kurz vor Stichtag der 55nm NV X2 eine Meldung käme, das AMD im Januar 40nm heraus bringt. Aber bis dahin... kann NV mit seinen neuen Produkten hoffen. Dieser Markt ist sowieso das kleinste Problem für NV im Moment.
Um diesen negativen Trend aufzuhalten, bleibt NV nichts anderes übrig als solch einen 55nm Neuauflage zu machen. zumindest kann damit der Markt erst einmal wieder gehalten werden, so die Hoffnung von NV.
Wenn...ja wenn da nicht AMD wäre...
Es wäre keine Überraschung mehr wenn AMD kurz vor Stichtag der 55nm NV X2 eine Meldung käme, das AMD im Januar 40nm heraus bringt. Aber bis dahin... kann NV mit seinen neuen Produkten hoffen. Dieser Markt ist sowieso das kleinste Problem für NV im Moment.
Consystor
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 607
Ich halte diese Aussage für falsch. Die GTX260-192 werden schon wieder teurer, obwohl die GTX260-216 schon länger draußen sind. Die Preise der GTX280 sind schon einige Zeit "konstant". Das spricht dafür, dass es noch genug Käufer gibt, um die Preise so halten zu können. Ne, seitdem die GTX260 nur etwas teurer als (bzw. gleich teuer wie) die 4870 512MB sind, läuft das Geschäft wieder richtig gut.BestPower²TDP schrieb:Der Markt für NV ist ja praktisch tot. Mit den jetzigen Angeboten wird so wenig Umsatz gemacht, das NV genötigt sieht, seine Hardware Partner zu rumpfen also sich von einigen trennen muß um die anderen bei Laune zu halten.
Aber natürlich geht es nVidia, wie jedem anderen Unternehmen, um jeden einzelnen Kunden und diesen will man halt überzeugen...
Außer sie hat selbst auch 216 shader. Dann könnte sie aufgrund eines höheren Taktes performanter sein...riDDi schrieb:Was wolln wir wetten, dass die 270 so in etwa der 260 216 entsprechen wird?
wolln wa wetten das directX 10 erst richtigt ausgenutzt wird wenn dx11 schon raus ist?
war doch mit cod4 auch so oder jetzt crysis warhead
zwischen dx 10 enthuiast und dx9 enthuiast ist FAST kein unterschied....villt maximal 10% unterschied
deshalb will ich wissn ob die programmierer extra dx 10 nich ganz ausnutzen weil es die hardware noch nich hergibt oder es einfach noch nicht möglich ist dx 10 auszunutzen....deshalb verstehe ich diese ganze aufregung um dx11 nicht
was wollen sie damit erreichen??
dx10 wird ja noch nicht mal 50% ausgenutzt...und jez schon dx11???
war doch mit cod4 auch so oder jetzt crysis warhead
zwischen dx 10 enthuiast und dx9 enthuiast ist FAST kein unterschied....villt maximal 10% unterschied
deshalb will ich wissn ob die programmierer extra dx 10 nich ganz ausnutzen weil es die hardware noch nich hergibt oder es einfach noch nicht möglich ist dx 10 auszunutzen....deshalb verstehe ich diese ganze aufregung um dx11 nicht
was wollen sie damit erreichen??
dx10 wird ja noch nicht mal 50% ausgenutzt...und jez schon dx11???