News GeForce GTX 270, GTX 290 und GX2 im November?

sinn machts für diejenigen, die noch keine gtx2x0 haben ;)
die neuen werden sparsamer und schneller, sind also bei entsprechenden preisen vorzuziehn. und für nv macht es sinn, da die herstellkosten geringer sind.
es ist ja lediglich ein die-shrink auf das niveau, auf dem sich ati bereits befindet.
imho macht die aktion schon sinn.
 
Warten, ... zumindest bis Weihnachten, ... dann noch mal 2-3 Wochen im Januar, damit sich die angehobenen Preise zu Weihnachten wieder senken, ... und dann hoffen, dass keine Ankündigung zu einer neuen Generation von nVidia oder ATI folgt, sonst musst du nochmal 1-2 Monate warten, ... usw.

Also ich würde mir wirklich ein Limit setzen, bis wann ich warte, ... weil was ich beschrieben habe kann man über Jahre ziehen, ... deshalb kaufe ich meine nächste GraKa spätestens Anfang, Mitte Februar, ...


Wie sieht es mit neuen Karten von ATI aus? Wann soll der SuperRV770 kommen? (Gibt's den dann vllt. auch auf der HD4850? Bis wann ist mit dem RV870 zu rechnen?
 
Dro'Doog schrieb:
...und dann hoffen, dass keine Ankündigung zu einer neuen Generation von nVidia oder ATI folgt, sonst musst du nochmal 1-2 Monate warten, ... usw.

Die Ankündigungen sind schon längst da, zumindest seiten TSMC (wo die GraKas ja in 40nm gebaut werden sollen) und ATI, Nvidia hält sich noch etwas bedeckt.
 
Zuletzt bearbeitet:
Auf die habe ich eigentlich gewartet und gehofft dass sie spätestens jetzt schon erhältlich sind. Aber wurd mir dann zu doof und hab jetzt ne GTX260 216 gekauft. OCed ist die genauso schnell wie ne GTX280, also wird sie bis Ende nächsten Jahres halten, wenn eh eine neue geplant ist.
Anstatt wie einige hier immer zu plärren wie sehr sie sich doch angeblich über den Tisch gezogen fühlen, ist mir das ziemlich egal ob meine Grafikkarte in 1 Monat 150 Euro weniger kostet. Ich will sie jetzt benutzen und nicht erst in 1 Monat.
 
Mein gott Ihr mit eurem DX11, war früher genauso jetzt werkelt meine 8800GTX schon fast 2Jahre im Rechner, und ich benötige immer noch kein DX10, was warscheinlich bei den meisten der fall sein dürfte, und biss Windows 7 dann erstmal erschienen ist dauert noch ne ganze weile, wer weiß obs nicht wieder zig mal verschoben wird also verschont uns mit eurem DX11 gesabbel.

Ich finde es gut das Nvidia den G200 so überarbeitet wird auch bestimmt ne weile so reichen da der R800(oder wie er heisst) ja angeblich auch kein Quantensprung sein wird und NV auch an den 40NM werkelt für den g300.
 
mit dem warten ist im moment so ne sache. die preise steigen grad und werden zu weihnachten sicher nicht besser sein. q 1 2009 kommen aber wieder neue karten, q 4 allerdings ebenfalls... warten kann sich jetzt aber lohnen, weil die kommende generation dx11 mit sich bringt. warten auf die gtx270/290 würd ich aber nicht unbedingt, da sie technisch nichts neues sind und nur ein bisschen mehr leistung und weniger verbrauch mit sich bringen, aber zur einführung bzw weihnachtszeit auch noch sehr teuer sein dürften (spekulation!)
 
DX 11 sollte man aus dem Grund nicht unterschätzen weil NV hier wahrscheinlich wieder einen komplett neue Architektur einführt. Und wenn die wieder so einschlägt wie der G80 dann wird die wieder der Hammer. Drago solltest du eigentlich wissen: 1. DX 9 Karte 9700Pro ->Hammer, 1. DX10. Karte 8800GTX ->Hammer, 1. DX 11 Karte ???->Hammer?
 
Ja könnte durchaus der fall sein nur solange möchte ich nimmer warten, die Karte wärs bestimmt wert aber das DX11 nicht die minimalen änderungen siehe Warhead auf einmal gehen auch alle DX10 Effekte auf DX9.
 
Kasmopaya schrieb:
Tja das sind dann wohl die Refreshs G80->(G92) von den Refreshs(GT200) -> zum Refresh(GT206)-> wer eine legendäre 8800GTX hat, kann über so einen lau warmen Aufguss nur müde lächeln :rolleyes:

tja,nur das jede karte der neueren generation bereits schneller als diese legendäre karte ist,und leute,die sich noch kurz vom release auf kaufberatung in diesem forum, für mehr geld als eine 4850 bzw 4870/GTX260 kostet, eine 8800GTX gekauft haben,haben ins klo gegriffen. wer schon eine hatte konnte sich freuen,aber wer sich im letzten halben jahr eine gekauft hat..naja.

Unyu schrieb:
Eben, eine 4870 X2 zieht im 3DMark das doppelte von einer GTX 260.

da kommtse ja wieder. seit wann spielste 3Dmark? weil sonst schenken sich die beiden in der leistungsaufnahme unter last nicht viel. was du sicherlich auch weißt,hier aber mal wieder dezent unter den tisch fallen lässt...

Richtig, sonst würde man solche (G)X2 Bastellösungen nicht präsentieren, wenigstens gibts diesmal genug VRAM.

was bei Nvidia ja auch dringend nötig ist,anders kriegen dies ja anscheinend nicht hin.


gruß


Edit:

@Casmo..

naja, der einzige fehler in deiner logik ist,dass wahrscheinlcih, und vor allem wenn diese News stimmen, ATI die erste DX11 karte rausbringt. auch mit komplett neuer Architektur. und nach dem R600 wird diese bestimmt nicht die selben fehler haben.


gruß
 
Ne aber die Aussage von Crytek, und habe ich bei Crysis selbst bemerkt das Hotfix drauf und schon waren einige Effekte mehr zu sehen und wenn mann das Game dann mit den DX10 Screens vergleicht hat habe ich nichts mehr bemerkt kann gut sein das dx10 Minimal besser ist aber darauf kann ich gut verzichten.


Up: hier habe doch einen gefunden Warhead_PCGH
 
Wenn die neuen Karten durch den Shrink auch noch effizienter werden siehts aber blöd aus für Ati. Die hinken jetzt schon mit dem Stromverbrauch hinterher. Sonen Stromvernichter wie die hd4870, die nichtmal spürbar weniger im 2d verbraucht kommt für mich eh nicht in Frage. Ich hoffe nvidia schafft es die Leistungsaufnahme nochmals zu senken.
 
da kommtse ja wieder. seit wann spielste 3Dmark? weil sonst schenken sich die beiden in der leistungsaufnahme unter last nicht viel. was du sicherlich auch weißt,hier aber mal wieder dezent unter den tisch fallen lässt...

Wie zum Teufel kommst du darauf dass sie in Schwanzmark mehr verbraucht?
http://www.legitreviews.com/article/745/8/

Fast 200W mehr als ne GTX280 (!), hat sicherlich rein gar nichts mit "nicht viel schenken" zu tun.

http://www.bit-tech.net/hardware/2008/08/13/amd-ati-radeon-hd-4870-x2/13
Noch ein Test mit Crysis. Zwar "nur" ca. 160W Unterschied zu einer GTX260, aber wer 160W als wenig bezeichnet, bezahlt eh seine Stromrechnung nicht selbst...
 
Zuletzt bearbeitet:
Schinzie schrieb:
da kommtse ja wieder. seit wann spielste 3Dmark? weil sonst schenken sich die beiden in der leistungsaufnahme unter last nicht viel. was du sicherlich auch weißt,hier aber mal wieder dezent unter den tisch fallen lässt...
Langsam reichts.
Ich habe extra den 3Mark genommen und NICHT den Furmark und im 3DMark verbrauchen sind 2x GTX 260 ungefähr so viel wie eine 4870 X2.
Die Verbrauchssenkung bringt der Shrink!

Kannst du nicht mal objektiver an Aussagen herangehen und besser durchlesen? :rolleyes:

Schinzie schrieb:
was bei Nvidia ja auch dringend nötig ist,anders kriegen dies ja anscheinend nicht hin.
Es steht dir frei diesen Satz nochmal zu quoten, wenn die GX2 die Singlekartenkrone geholt hat.
 
Also so ein großer stromvernichter ist die HD4870 auch wieder nicht! Jeder kann mit ein wenig hand anlegen profile schreiben wo der spiecher runter getaktet wird und dann ist das gut :) :D
 
hmm NVIDIA muss was tun, aktuelle Fertigung zu teuer da zu wenig Ausbeute.
Dann stimmt die Leistung zwar ist aber nicht über ATI.
Wenn NV was getan hat sollen se mal zeigen was.....
 
Kleine korrektur: DX9 karte 9800pro -> hammer - hört sich zwar komisch an aberich hab auf der karte die crysis demo durchgezockt @ 800x600 auf min details - lol
 
Muscular Beaver schrieb:
http://www.bit-tech.net/hardware/2008/08/13/amd-ati-radeon-hd-4870-x2/13
Noch ein Test mit Crysis. Zwar "nur" ca. 160W Unterschied zu einer GTX260, aber wer 160W als wenig bezeichnet, bezahlt eh seine Stromrechnung nicht selbst...

Warum viel, sind doch nur 2x 80 Watt Glühbirnen, die Kaffeemaschine welche bei den meisten Zockern auf Dauerbetrieb läuft verbrät da aber weit mehr Strom :p

surfix schrieb:
Die gx2 wird der burner. die Wird die 4870x2 nieder brennen :evillol:

Meinst Du das jetzt wörtlich? Dann sollten die GraKa Hersteller aber nen Feuerlöscher in Lieferumfang mit rein packen :D

kasmo schrieb:
Ne, ist ja nur "die größte fürs nichts tun extrem viel Strom verwenden Karte" ever...

Waren das nicht die G80/G92 Karten welche heute noch auf die Senkung des Idle Stromverbrauchs per Treiber warten?
 
Zuletzt bearbeitet:
Zurück
Oben