Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ich werde logischerweiße erstmal Benchs abwarten bevor ich irgend etwas kaufe.Und wenn sie wirklich nur eine Mehrleistung von 10-20% hat, was ich eh nicht denke weil es das erste mal in der Geschichte wäre das die nachvolge Generation so abkackt,
ähm ja nur das das keine neue generation ist, sondern die alte bisl aufgemotzt, refreshed, und dann als neue generation getarnt auf den markt geworfen wird
Ich werde logischerweiße erstmal Benchs abwarten bevor ich irgend etwas kaufe.Und wenn sie wirklich nur eine Mehrleistung von 10-20% hat, was ich eh nicht denke weil es das erste mal in der Geschichte wäre das die nachvolge Generation so abkackt,....
ähm ja nur das das keine neue generation ist, sondern die alte bisl aufgemotzt, refreshed, und dann als neue generation getarnt auf den markt geworfen wird
edit sry sry der doppelpost war keine absicht ist echt langsam spät^^
Auf anderen Pages spricht man davon, dass in der 9800GTX der G100 stecken soll. Mögliche Specs wurden ja in den News genannnt.
Allerdings klingen diese abartig hoch. 256 ALUs sind sicher machbar, der GDDR5 mit über 2 GHz dieses Jahr sicher nicht. Naja, warten wir es ab.
ich würde mein geld mal nicht darauf verwetten, dass die drei monate nach dem g92 schon wieder was neues rauskloppen es sei denn es wäre langsamer als selber.
65nm hin, GDDR5 her - bei so viel Shadern und Transistoren unter der Haube ist das Teils niemals Strom sparender als ein G92
Ich denke, wenn, dann hat das Teil seine 256 ALUs bei so 1.5 GHz, dazu 1Gb und um die 150Gb Bandbreite und schluckt 50% mehr als ein G80.
Das sagt nichts aus, die schreiben alle von einander ab und ob die Infos wirklich stimmen weiß auch keiner.
Naja, egal, wir werdens sehen - ich geh jetzt dann eh mal pennen bzw. noch n bissl lernen, 10.01 ist Deutsch Abitur
Wenns ATI halt nicht wirklich gebacken bekommt ne gescheite Graka mit einem angemessenen Stromverbrauch (mal von 3850/70 abgesehen) auf den Markt bringen würden, würd Nvidia vlt auch ein größeren Leistungssprung machen.
Hast du das letzteJahr geschlafen? Mal ehrlich:
Die 2400 und 2600 waren den nVidia-Pendanten WEIT vorraus - im Stromverbrauch und P/L-technisch.
Die 3800er Serie toppt das ganze nochmal auf einem ganz anderen Niveau - sowohl Stromverbrauch als auch P/L sind unübertroffen.
Davor war es die X1950Pro, die mit genau diesen Eigenschaften ebenfalls schon punkten konnte.
Die EINZIGE Karte, die LEDIGLICH mit dem Stromverbrauch negativ auffiel war die 2900XT (Pro), denn dessen P/L war immernoch durchweg ok bis gut.
Ich war durchaus wach letztes Jahr .
Ich rede hier von HIGHEND-Klasse, NICHT von der Mittelklasse. In der Mittelklasse ist/war ATI gut, das steht ja außer Frage. Hatte selbst die x1950pro und sehr zu frieden damit, bevor sie den Bach runtergegangen ist.
NUR es geht um die HIGHEND-Klasse. Der R600 war ja wohl die reinste Enttäuschung in diesem Bereich.
Und wie schon geschrieben, wenn ATI hat halt keine großen Sprünge im HIGHEND-Bereich macht, deshalb kann sich NVidia ausruhen .
es sei denn du baust noch zwei controller ein und nennst es g90 das ist ne sache, die kann man durchaus in ein paar monaten bewerkstelligen und sinn würde es obendrein ergeben.
Ja, ich meinte das, was riDDi gesagt hat - also ein bissl umbauen, dafür dürften die ja nicht allzu lange brauchen.
Ein G92 wäre das dann wohl aber nicht mehr, vll dann ein GV9270 (in Anlehung an R600 -> RV670^^)
warum auch. in den meisten bench-gebräuchlichen auflösungen ist hochgetakteter gddr4 an einem 256bit breite interface durchaus ausreichend, um das breitere interface zu ersetzen. vor allem, wenn man durch einen höheren coretakt in sachen rohleistung glänzen kann.