News GeForce GTX 270, GTX 290 und GX2 im November?

@ y33H@

das hab ich ja nur mal schnell dahingetippt
ich habe keine rechtschreibschwäche wie du dir das in diesem moment sicherlich denkst
 
Hast du keine 2 Minuten um das gescheit zu tippen? :rolleyes: Das muss doch nicht sein, oder?

cYa
 
was pisst ihr euch alle wegen höcherem stromverbrauch ein (soll jetzt nicht provotzierend oder beleidigent sein) Wie werden die GPUs in 10 Jahren????
außerdem verbraucht der Pc nicht viel im Gegensatz zu anderen Haushaltsgeräten...
 
@ cl55amg

Kann, ja. Das weiß aber aktuell nur nVidia. Bei der GTX+ etwa ging der Verbrauch mit den Clocks über die normale GTX.

cYa
 
red_stalker schrieb:
Der Trend geht einfach immer mehr auf Multiplattform über. Deswegen kommt man auch noch mit einen der "alten" Karten eine Weile aus.
Aber du hast schon recht. Wenn man die heutigen "High-End" Spiele wirklich ausreizen will, kommt man nicht über die Beste Hardware drum rum;).

Oder auch einfach nur schon möglichst immer in der nativen Auflösung des Monitors spielen, 24 Zoll und auch mehr Monitore mit 1920x1200 sind zumindest als TN nichts exklusives mehr heute und für Gamer auch sehr gut geeignet.

Bei der Auflösung kann man nie genug Leistung haben eigentlich, die weder sehr alte noch lahme 8800GTS 512 kam mir da schon klar überfordert vor, an AA war wegen nur 512MB erst recht kaum zu denken.
Auch Konsolenumsetzungen wie z.B bald GTA4 hätte ich mit der nicht in 1920x1200 sehen wollen lieber.
 
Das ist doch alles Geldmacherei. Wer braucht eine solche Karte? Es kommen doch im mom eh keine Spiele raus, für welche ich so eine Karte brauch. Ich hock noch immer auf ner 8800gt und bin voll zufrieden, habe kein Spiel was mehr Leistung braucht......

Wie wärs mit Clear Sky, da es hier schon ne Dual-GPU-Karte braucht für volle Details, also hat die GTX290 schon ihre daseinsberechtigung!

Crysis ist leider nicht mehr mass der Dinge!, das läuft auf meiner Karte besser als Clear Sky!:D
 
wenn du meinst... weißt du eigentlich was dein pc ausgeschaltet verbraucht? und wenn du ihn eine nacht ausgeschaltet laufen lässt ( also nicht den netzstecker ziehn, bzw an einer leiste ausschaltest), dann ist das mehr als der unterschied ist... kannst ja mal nachmessen.

Habe erst letztens ein Messgerät dran gehabt. 15W über 8 Stunden sind also mehr als 160W über 2 bis 4? Alles klar, Junge...
Ist aber auch komplett irrelevant, denn 160W mehr bei Last sind 160W mehr. Wenn du das durch das ziehen des Netzstecker kompensieren willst, solltest du mal lieber deine Logik unter die Lupe nehmen.
Ganz zu schweigen davon dass man das bei einer GTX260 auch machen kann (mache ich aber nicht mehr weil mir schon 2 Batterien dadurch Hops gegangen sind).
 
Zuletzt bearbeitet:
Die gesamte Entwicklung ist schon irgendwie heftig, wenn ich über lege, dass ich für meine 7900 GTX damals 450€ bezahlt habe und jetzt kosten die schnellsten Single-GPU Grafikkarten von Nvidia 220 und 340€. Eigentlich kann man nicht meckern.
schlafanzyk ist offline Beitrag melden Antwort

wenn ich bedenke dass ich für meine 6800GT Golden Sample 500€ bezahlt habe, wegen Doom3 in höchster Quali zu zocken!

Warum? Für die Zukunft(Sandy Bridge)!;)

Ja könnte durchaus der fall sein nur solange möchte ich nimmer warten, die Karte wärs bestimmt wert aber das DX11 nicht die minimalen änderungen siehe Warhead auf einmal gehen auch alle DX10 Effekte auf DX9.

Es sind ja nicht nur die Effekte bei Vista, sondern das bessere Speichermanagment! Also hör auf zu erzählen von DX9 vs. DX10, das kann ich schon nicht mehr hören! Dann bleib halt bei deinen Nachladerucklern und XP!

Waren das nicht die G80/G92 Karten welche heute noch auf die Senkung des Idle Stromverbrauchs per Treiber warten?

Also bei meiner 8800GT 1024MB Golden Sample funzt das Powerplay, wie es mit anderen Karten aussieht weiss ich nicht!, bei der normalen GT von GW scheint es nicht zu funzen, naja dafür hat man ja ne GOlden Sample, (mehr bezahlt=mehr Features)!

ein 550w be quiet reicht dicke au

Auf BeQuiet stehe ich nicht so!(Letzter Schrott)!:D
 
Zuletzt bearbeitet:
eine GX2 kommt bei mir erst in den pc, wenn endlich dieses mikroruckler problem gelöst ist!
was bringt mir so eine teure karte, aber trotzdem nur 30fps habe^^ in shootern ist das extrem spürbar!!
 
Immer das gleiche.Mann könnte hier einfach die bezeichnung 290 mit 6700,9800,8800 usw.austauschen und würde keinen unterschied bemerken.IMMER DIE GLEICHEN SCHEISSE.
 
Nichts verkauft sich eben besser als etwas mit "NEU" Aufkleber drauf, und man kann erst noch wieder höhere Preise verlangen, für Nvida und Ati ist diese Refresh "SCHEISSE" das Gegenteil, pures Gold! :)
Wenn sie wenigstens einige Euro davon in hochwertigere, leisere Kühler stecken würden...:rolleyes:

GIGU schrieb:
eine GX2 kommt bei mir erst in den pc, wenn endlich dieses mikroruckler problem gelöst ist!

Ah also auch nie dann wie bei mir? :freaky:
Dieses Wettrüsten der Verzweiflungstaten gehört doch eh ignoriert, mehr sind die Dualkarten doch nie mit dem ganzen Treiberknatsch, schlechter Spieleunterstützung und Microruckeln.
Ati brachte sie weil sie nicht an die 280 rankamen, Nvidia weiss sich jetzt nicht anders zu helfen als Atis Verzweiflungstat mit auch so einer zu kontern, richtig tragikomisch langsam!
 
Tja NV will halt die Performance-Krone zurück, und alle haben gezweifelt an sowas wegen dem Stromverbrauch, ausser ich, das hab ich schon lange prophezeit, doch keiner hat mir glauben geschenkt, jetzt bekommt ihr die Rechnung!:lol:
 
Schinzie schrieb:
Außerdem weißt du erstens, dass furmark nichts aussagt aufgrund der shaderauslastung und 3Dmark nicht gespiel wird. in spielen schenken sich eine GTX260 und eine 4870 je nach bericht +_10watt. und das ist in meinen Augen "sie schenken sich nichts". Von 200watt unterschied kann hier nirgends die Rede sein.
Genau das habe ich doch geschrieben, sogar 2 Mal!
 
@ Übersoldier75

Es gab und gibt keine DX10-Effekte. Weder bei Crysis noch bei sonst irgendeinem Spiel.

cYa
 
@Unyu, alter Kumpel, auch mal wieder im Land, jawoll sags ihnen für zehn Cent!:D

Endlich krieg ich mal Unterstützung!:king:

@y33H@, und was ist mit Stalker CS, das sind wohl Hirngespinste oder was? haste was genommen oder was?

Volle Detaills unter CS schafft nur ne DX10-Karte ala 8800GT, HD3870, HD48xx, GTX2xx und Vista 64 nur zur Info, und komm mir nicht wegen Crysis dass es da auch gefunzt hat, Clear Sky ist "kein Crysis"!

Ich bin zufällig im Stalker-Forum Mitglied und auch schon länger dabei(SoC), das funzt nicht unter WinXP, da kannste 3 Monate dran drücken und das geht nicht!, meinste die Spieleherrsteller sind blöd und machen den selben Fehler wie bei Crysis? haha ich lach mich schief!
 
Zuletzt bearbeitet:
Der Markt für NV ist ja praktisch tot. Mit den jetzigen Angeboten wird so wenig Umsatz gemacht, das NV genötigt sieht, seine Hardware Partner zu rumpfen also sich von einigen trennen muß um die anderen bei Laune zu halten. Macht ja auch keinen Sinn wenn 1000 Karten sich auf zu viele Partner verteilen, die verkauft werden. Und diese 1000 sind im kommenden Monate auch nur noch 900.
Um diesen negativen Trend aufzuhalten, bleibt NV nichts anderes übrig als solch einen 55nm Neuauflage zu machen. zumindest kann damit der Markt erst einmal wieder gehalten werden, so die Hoffnung von NV.
Wenn...ja wenn da nicht AMD wäre...
Es wäre keine Überraschung mehr wenn AMD kurz vor Stichtag der 55nm NV X2 eine Meldung käme, das AMD im Januar 40nm heraus bringt. Aber bis dahin... kann NV mit seinen neuen Produkten hoffen. Dieser Markt ist sowieso das kleinste Problem für NV im Moment.
 
BestPower²TDP schrieb:
Der Markt für NV ist ja praktisch tot. Mit den jetzigen Angeboten wird so wenig Umsatz gemacht, das NV genötigt sieht, seine Hardware Partner zu rumpfen also sich von einigen trennen muß um die anderen bei Laune zu halten.
Ich halte diese Aussage für falsch. Die GTX260-192 werden schon wieder teurer, obwohl die GTX260-216 schon länger draußen sind. Die Preise der GTX280 sind schon einige Zeit "konstant". Das spricht dafür, dass es noch genug Käufer gibt, um die Preise so halten zu können. Ne, seitdem die GTX260 nur etwas teurer als (bzw. gleich teuer wie) die 4870 512MB sind, läuft das Geschäft wieder richtig gut.
Aber natürlich geht es nVidia, wie jedem anderen Unternehmen, um jeden einzelnen Kunden und diesen will man halt überzeugen...

riDDi schrieb:
Was wolln wir wetten, dass die 270 so in etwa der 260 216 entsprechen wird?
Außer sie hat selbst auch 216 shader. Dann könnte sie aufgrund eines höheren Taktes performanter sein...
 
wolln wa wetten das directX 10 erst richtigt ausgenutzt wird wenn dx11 schon raus ist?
war doch mit cod4 auch so oder jetzt crysis warhead
zwischen dx 10 enthuiast und dx9 enthuiast ist FAST kein unterschied....villt maximal 10% unterschied
deshalb will ich wissn ob die programmierer extra dx 10 nich ganz ausnutzen weil es die hardware noch nich hergibt oder es einfach noch nicht möglich ist dx 10 auszunutzen....deshalb verstehe ich diese ganze aufregung um dx11 nicht
was wollen sie damit erreichen??
dx10 wird ja noch nicht mal 50% ausgenutzt...und jez schon dx11???
 
Zurück
Oben