Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@11: nV wird sich sicher auch noch was für den G80-refresh aufheben, sprich 8900.
momentan ist die 8800GTX eh die schnellste Karte auf dem Markt und um dann noch was gegen den R600 zu haben spart sich nV 80nm + GDDR4 sicher noch auf
Also ich denke, dass die neuen Grafikkarten entweder generell so schnell sein müssten, dass eine Übertaktung nicht notwendig wäre oder die Grafikkarte hätte irgendwie ihren Sinn verfehlt, vor allem bezogen auf den stolzen Preis und den Stromverbrauch.
Tja denke das wird dem A600 auch nich wirklich gefährlich werden, da muss nvidia schon den refresh chip rausbringen, der hoffentlich ein paar Watt weniger verbraucht und nen kleineres PCB hat, hoffe das da NV seiner linie treu bleibt.
Ah immer weider schön zu sehen wieviele hier eine Glaskugel haben, ob der r600 den G80 in die Tasche stecken wird, wird sich noch zeigen. Irgendwelche Infos o Beweise?
Was habt ihr gegen den Stromverbrauch der G80 die ist doppelt so schnell wie eine X1900XTX o 7900GTX und verbraucht da nur ca 20 Watt mehr als ne X1900XTX an Strom. Was wollt ihr noch, doppelt Leistung und nahezu der selbe Stromverbrauch, es gibt Leute die meckern anscheinend notorisch oder aus Unwissenheit.
Und nein ein C2D mit 3GHZ egal ob der x6800 oder ein frisierter E6400 sind genau die richtigen Cpus für eine 8800GTX, da limitiert nix mehr. Es ist immer wieder amüsant mitzulesen was hier mache Leute für Vorstellungen haben.
interessanter ist wohl die 8900 , ich finde es schon stellenweise frech und auch dumm für nv dass die gpu noch in 90nm gefertigt wird und nichtmal gddr4 hat.
was kann nvidia dafür wenn tsmc mit dem 80nm prozess noch nicht so weit ist?
meinst du die nehmen extra den 90nm prozess damit sie auch schön viel bezahlen dürfen auf grund der chipgröße?
und was ist frech daran gddr3 speicher zu nehmen?
willst du jetzt nem hersteller vorschreiben was er zu verbauen hat?
der nächste will seine kondensatoren aus taiwan haben und nicht aus china
Ware Worte. Oder wäre es dem einen oder anderen lieber, noch mehr für so eine Karte auszugeben, nur weil der ach so tolle GDDR4-Speicher verbaut ist? An der X1950XTX hat man doch gesehen, dass GDDR4 noch nicht ausreichend weit ist. Zumindest war das Übertaktungspotenzial eher bescheiden.
Da ist sehr viel Marktstrategie dabei was nicht viel bringt ,sich aber gut liest!
Es gibt heute immer noch unwissende Kunden die mit Taktraten geködert werden oder wurden wie beim P4EE oder heute C2D 6800EE der nur nuoncen schneller ist als ein 6700er und der das doppelte kostet
Der GDDR4 Speicher hört sich zwar gut an aber gebracht hat er nicht viel auf der 1950XTX zur 1900XTX außer dem Preis.
wird wohl hauptsächlich für CRYSIS gemacht >soll ja angeblich sogar ne 8800er+CD-6600
zum schwitzen bringen - aber als SLI-gespann mit nem 1-GW-NT-und ner 3-phasen stromleitung
wirds dan ja vlt eingermassen flüssig laufen
dann sollten die aber wenigstens das Vista+Crysis als vollversion dabeipacken
dann dürfen sie auch ruhig >700€'s dafür verlangen
@ Blazin Ryder
Computerbase schrieb:
nVidias G80 auf Intels Conroe
Neue und immer schnellere Grafikkarten bringen leider grundsätzlich ein Problem mit sich: Sie verschieben den Flaschenhals im eigenen Rechner immer mehr in Richtung Prozessor. So war in mehreren Benchmarks ein wahrlich nicht langsamer Athlon 64 FX-60 von AMD in unserem Launch-Artikel ganz klar der bremsende Faktor und die GeForce 8800 GTX konnte die maximal mögliche Leistung nicht ausspielen. Aus diesem Grund haben wir einen Nachtest mit Hilfe eines Intel Core 2 Extreme X6800 durchgeführt, der derzeit schnellsten Prozessor für Spiele. Um dennoch nicht in unrealistische Einstellungen zu rutschen, wird dieser Nachtest in den Auflösungen 1280x1024 sowie 1600x1200 mit vier-fachem Anti-Aliasing sowie 16-facher anisotroper Filterung durchgeführt, was wohl die am meisten benutzen Qualitätseinstellungen mit solch einer Grafikkarte sind (oder sein sollten).
@iron.e ????? besser??? schneller vll, aber besser?
und ich denke, das man schon merkt ob es nun 30 oder 33fps sind^^
ich merk schon des öfteren das meine non oc gtx an ihr limit kommt.
Die macht bei oblivion mit 2560x1600@4x aa und 16x aaf grade so die 40fps und kommt auch gerne mal in die roten zahlen, und nachdem ich jetzt ein wenig oc betrieben habe(700/1000) läuft oblivion ohne probleme an der vsync grenze^^ dauerhaft, mit ein 2 senkungen bei sehr schnellen schwenks und gebietswandlungen ala, schnelle reise^^
Ob nun 33fps oder 30fps, das ist nicht wirklich ein grosser Unterschied. Zudem ist da wohl der Average-Wert gemeint. D.h. mal sinken die FPS über, mal unter diesen Wert.
Und mit 30fps average kann man nicht wirklich viel anfangen, da die niedrigsten framerates weit darunter liegen. Somit hat man ständig mit fps-Einbrüchen zu kämpfen.
Nur mal am Rande erwähnt.