News Übertaktete G80-Karten kommen im Januar

Also ich denke, dass die neuen Grafikkarten entweder generell so schnell sein müssten, dass eine Übertaktung nicht notwendig wäre oder die Grafikkarte hätte irgendwie ihren Sinn verfehlt, vor allem bezogen auf den stolzen Preis und den Stromverbrauch.
 
Nvidia soll meiner Meinung nach lieber zusehen, dass sie den G80 auf Notebookbasis rausbringen oder zumindest ankündigen.
 
BenniKo schrieb:
Tja denke das wird dem A600 auch nich wirklich gefährlich werden, da muss nvidia schon den refresh chip rausbringen, der hoffentlich ein paar Watt weniger verbraucht und nen kleineres PCB hat, hoffe das da NV seiner linie treu bleibt.

Ich kenne blos einen A380. Du meinst bestimmt den R600 :D
 
dann doch lieber final treiber für vista final build. schliesslich ist bald weihnachten, da darf man sich auch was wünschen.
 
Ah immer weider schön zu sehen wieviele hier eine Glaskugel haben, ob der r600 den G80 in die Tasche stecken wird, wird sich noch zeigen. Irgendwelche Infos o Beweise?

Was habt ihr gegen den Stromverbrauch der G80 die ist doppelt so schnell wie eine X1900XTX o 7900GTX und verbraucht da nur ca 20 Watt mehr als ne X1900XTX an Strom. Was wollt ihr noch, doppelt Leistung und nahezu der selbe Stromverbrauch, es gibt Leute die meckern anscheinend notorisch oder aus Unwissenheit.

Und nein ein C2D mit 3GHZ egal ob der x6800 oder ein frisierter E6400 sind genau die richtigen Cpus für eine 8800GTX, da limitiert nix mehr. Es ist immer wieder amüsant mitzulesen was hier mache Leute für Vorstellungen haben.
 
Chapsaai schrieb:
interessanter ist wohl die 8900 , ich finde es schon stellenweise frech und auch dumm für nv dass die gpu noch in 90nm gefertigt wird und nichtmal gddr4 hat.
was kann nvidia dafür wenn tsmc mit dem 80nm prozess noch nicht so weit ist?
meinst du die nehmen extra den 90nm prozess damit sie auch schön viel bezahlen dürfen auf grund der chipgröße?

und was ist frech daran gddr3 speicher zu nehmen?
willst du jetzt nem hersteller vorschreiben was er zu verbauen hat?
der nächste will seine kondensatoren aus taiwan haben und nicht aus china

die speicherbandbreite reicht der gpu und fertig
 
Ware Worte. Oder wäre es dem einen oder anderen lieber, noch mehr für so eine Karte auszugeben, nur weil der ach so tolle GDDR4-Speicher verbaut ist? An der X1950XTX hat man doch gesehen, dass GDDR4 noch nicht ausreichend weit ist. Zumindest war das Übertaktungspotenzial eher bescheiden.

Mfg
 
Da ist sehr viel Marktstrategie dabei was nicht viel bringt ,sich aber gut liest!

Es gibt heute immer noch unwissende Kunden die mit Taktraten geködert werden oder wurden wie beim P4EE oder heute C2D 6800EE der nur nuoncen schneller ist als ein 6700er und der das doppelte kostet;)

Der GDDR4 Speicher hört sich zwar gut an aber gebracht hat er nicht viel auf der 1950XTX zur 1900XTX außer dem Preis.
 
pascaljackson schrieb:
wurde anscheinend verschluckt...

weiß jemand was über die 8600er serie???

Zur Cebit sollten die ersten Mainstream Karten seitens nVidia vorgestellt werden.

mFg tAk
 
Gut das die im Januar kommen dann zieh ich mir das beste Bios drauf und habe wieder eine aktuelle Graka ;)
 
meine güte, als ob der g80 net schon genug leistung hätte... :rolleyes:
insofern: danke an CsA-eViL für diesen schönen ersten beitrag.

so long and greetz
 
wird wohl hauptsächlich für CRYSIS gemacht >soll ja angeblich sogar ne 8800er+CD-6600
zum schwitzen bringen - aber als SLI-gespann mit nem 1-GW-NT-und ner 3-phasen stromleitung
wirds dan ja vlt eingermassen flüssig laufen
dann sollten die aber wenigstens das Vista+Crysis als vollversion dabeipacken
dann dürfen sie auch ruhig >700€'s dafür verlangen
 
@ Blazin Ryder
Computerbase schrieb:
nVidias G80 auf Intels Conroe

Neue und immer schnellere Grafikkarten bringen leider grundsätzlich ein Problem mit sich: Sie verschieben den Flaschenhals im eigenen Rechner immer mehr in Richtung Prozessor. So war in mehreren Benchmarks ein wahrlich nicht langsamer Athlon 64 FX-60 von AMD in unserem Launch-Artikel ganz klar der bremsende Faktor und die GeForce 8800 GTX konnte die maximal mögliche Leistung nicht ausspielen. Aus diesem Grund haben wir einen Nachtest mit Hilfe eines Intel Core 2 Extreme X6800 durchgeführt, der derzeit schnellsten Prozessor für Spiele. Um dennoch nicht in unrealistische Einstellungen zu rutschen, wird dieser Nachtest in den Auflösungen 1280x1024 sowie 1600x1200 mit vier-fachem Anti-Aliasing sowie 16-facher anisotroper Filterung durchgeführt, was wohl die am meisten benutzen Qualitätseinstellungen mit solch einer Grafikkarte sind (oder sein sollten).
 
@iron.e ????? besser??? schneller vll, aber besser?

und ich denke, das man schon merkt ob es nun 30 oder 33fps sind^^

ich merk schon des öfteren das meine non oc gtx an ihr limit kommt.

Die macht bei oblivion mit 2560x1600@4x aa und 16x aaf grade so die 40fps und kommt auch gerne mal in die roten zahlen, und nachdem ich jetzt ein wenig oc betrieben habe(700/1000) läuft oblivion ohne probleme an der vsync grenze^^ dauerhaft, mit ein 2 senkungen bei sehr schnellen schwenks und gebietswandlungen ala, schnelle reise^^

und das sind wohl mehr als nur 10%^^

fG StyleZ
 
Ob nun 33fps oder 30fps, das ist nicht wirklich ein grosser Unterschied. Zudem ist da wohl der Average-Wert gemeint. D.h. mal sinken die FPS über, mal unter diesen Wert.

mFg tAk
 
Und mit 30fps average kann man nicht wirklich viel anfangen, da die niedrigsten framerates weit darunter liegen. Somit hat man ständig mit fps-Einbrüchen zu kämpfen.
Nur mal am Rande erwähnt. ;)

Mfg mmic
 
Zurück
Oben