News Beschleunigt Nvidia den G92b-Chip?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.623
Nachdem Nvidia vor etwa einem Jahr die GT200-GPU heraus gebracht und damit die High-End-Hardware angesprochen hat, ging man davon aus, dass die neue, überarbeitete Architektur bald auch auf anderen Rechenkernen wieder zu finden ist und der „alte“ G9x an Bedeutung verliert. Bis jetzt gibt es aber noch keine weitere GPU, die auf dem GT200 basiert.

Zur News: Beschleunigt Nvidia den G92b-Chip?
 
Wie oft wollen die die alten Karten noch umbennen damit die einer kauft ?
 
Bevor wieder das Namensschema-Gebashe losgeht sollte man nochmals deutlich lesen: das sind (unwahrscheinliche!) Gerüchte.

Im übrigen werden die Karten ja nicht nur einfach umbenannt, es werden ja auch die Spezifikationen geändert (sofern, wie gesagt, die Gerüchte stimmen).
 
mittelklasse chips auf basis des GT200 wären mal löblich anstatt des lächerlichen umbenennen der GeForce 8 seit über einem jahr!
 
Zuletzt bearbeitet:
Nochmal 100MHz (am wahrscheinlichsten ist wohl Core gemeint)? Währen dann 838Mhz wenn ich mich nicht irre. Not Bad.

Vielleicht ist der Grund auch der, dass sich der G9x besser oder einfacher shrinken lässt als der GT200 mit dem es ja anscheinend Probleme mit 40nm gibt.
Der G9x ist eben einfach noch zu gut zum sterben^^

Das einzige Problem hat er mit dem Speicherverbrauch. Ein gescheiter 1GB-VRAM sollte da Abhilfe schaffen.
 
Zuletzt bearbeitet:
Bei der doch sehr recht effizienten G92(b)-Architektur bietet sich so eine Maßnahme ja an. Für die meisten Endnutzer macht es kaum ein Unterschied (DX10, HD-Unterstützung usw. haben sowohl G92b als auch GT200).
 
Was bleibt NV schon übrig als schon vorhandene Chips aus dem Regal zu nehmen ?

Der G200 ist ein Fass ohne Boden und nur zusammen mit schon älteren Chips die deutlich billiger herzustellen sind kann man den G200 noch halten und weiter verkaufen.

Der G200 ist groß und extrem teuer in der Produktion dazu kommt noch das man so schnell wie möglich auf kleinere Fertigungstechniken umstellen muß um konkurrenzfähig zu bleiben.
Das kosten extrem viel Geld.
Nur durch den Verkauf des GT200 würde NV schnell pleite gehen.
Wenn ATI nicht so überraschent mit der 4000er Serie solche Erfolge erziehlt hätte würde es NV deutlich besser gehen weil sie eben nicht gezwungen gewesen währen die Preis so massiv zu senken.
( Hat ATI da eventuell schon vorher Lunte gerochen und deshalb die Produktionskosten so aggressiv gesenkt damit sie NV in Bedrängnis brinngen ?)

Wers weiß braucht ja eine eventuelle GTX250 nicht zu kaufen.
 
der schritt wäre soweit ganz logisch, nochmehr aus der eierlegenden wollmichsau (g92) zu quetschen ist sicherlich in allen belangen billiger als ein neuer chip auf basis des GT200. als kunde kommt man sich dann aber doch veräppelt vor. die aktuelle produktpolitik geht immer mehr aufs image, da sollten sie echt aufpassen.
 
LOL
Meine alte 9800GTX (OC Edition) hat mehr Takt als die aktuelle 9800GTX+ zur Zeit...
 
der g92 ist ja der mainstream-chip aus dem g200 (aka g90). da der g90 zu zeiten der hd3870 noch nicht notwendig war, wurde er verschoben und mit neuem namen rausgebracht, um neue technik "vorzutäuschen".
es hieß damals, der g200 ist ein 1,5-facher g92. in anbetracht der identischen technik und der tatsache, dass nie ein "g90" erschienen ist, halte ich das für realistisch.
andersrum gesprochen, wenn nv einen reduzierten g200 fürs mainstream bauen würde, würden sie g92 und g94 erhalten ;)

was imho sinnvoller für eine gts250 wäre, wäre ein breiteres si, um grade in hohen auflösungen und einstellungen nicht so zu bremsen (vergl. 8800gtx). sollte der g92 auf der gts250 tatsächlich schon in 40nm daherkommen, sind aber auch 100 mhz mehr chiptakt durchaus denkbar...
 
Pickebuh schrieb:
Hat ATI da eventuell schon vorher Lunte gerochen und deshalb die Produktionskosten so aggressiv gesenkt damit sie NV in Bedrängnis brinngen ?
Ich denke ATIs Strategie ist eher auf den Watt/Performance und P/L-Vergleich zu setzen. Sie haben ein sehr geringes R&D Budget.

Highend wird durch übertaktete Chips oder X2 Karten dann bedient.

Ich bin gespannt wie der RV870 wird. GT300 und Larrabee sollen wohl beide über ausgeprägte GPGPU-Funktionen Verfügen, da steckt sehr viel an Know-how drin.
 
Pickebuh schrieb:
Der G200 ist ein Fass ohne Boden und nur zusammen mit schon älteren Chips die deutlich billiger herzustellen sind kann man den G200 noch halten und weiter verkaufen.

Der G200 ist groß und extrem teuer in der Produktion dazu kommt noch das man so schnell wie möglich auf kleinere Fertigungstechniken umstellen muß um konkurrenzfähig zu bleiben.
Das kosten extrem viel Geld.

lol. was bist du denn für nen geiler experte. rück mal bitte quellen für das statement raus.

Pickebuh schrieb:
Nur durch den Verkauf des GT200 würde NV schnell pleite gehen.

ach was? sag an! wenn intel nur seine celerons, vw nur seine golfs und sony nur seine ps3 verkaufen würde wären sie auch bald pleite :rolleyes:



@news

halt ich für wahrscheinlich. nvidia stellt sich gerne breit gefächert auf und macht sich dabei selbst konkurenz ;)
 
@Lübke
Naja einige kleinere Sachen wurden schon verändert, aber im Grunde hast du recht: Wenn man den G200 abspeckt hat man schon fast nen G92.
Aber an nem 40nm Shrink des G92 glaub ich nicht ganz. Da hätte ich dann doch das ALU:TMU Verhältnis wie beim G200 geändert. Eine höhere Shaderleistung ist in meinen Augen das was am meisten gebraucht wird.
Die Speicherbandbreite könnte man durch schnelleren GDDR3 erreichen. Samsung liefert ja sogar schon welchen mit 0,7ns. Damit hätte man nen höheren Durchsatz als bei ner 8800GTX.
 
FAT B schrieb:
lol. was bist du denn für nen geiler experte. rück mal bitte quellen für das statement raus.

Das eine GTX280 bei Erscheinen über 600EURO gekostet hat sagt doch wohl alles !
Nun müssen sie sie mit Verlußt verkaufen um ihre Marktspitze an High-End zu halten.


ach was? sag an! wenn intel nur seine celerons, vw nur seine golfs und sony nur seine ps3 verkaufen würde wären sie auch bald pleite :rolleyes:

Schon.
Aber ich glaube kaum das VW z.B. den Golf 3 unter neuem Namen wieder in ihr Programm mit aufnehmen wird !
Das ist der Unterschied... :rolleyes:
 
Ne sagt gar nichts. Wenn man alleine auf dem markt ist nimmt so hohe Preise wie es geht.
Meinst du ATI hätte ne 4870 für 250€ verkauft wenn es keinen G200 gegeben hätte?

Klar ist der G200 teurer in der Produktion, aber das sie Verluste damit machen halte ich für mehr als zweifelhaft, ebenso wie deine Argumentationskette.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Das eine GTX280 bei Erscheinen über 600EURO gekostet hat sagt doch wohl alles !
Nun müssen sie sie mit Verlußt verkaufen um ihre Marktspitze an High-End zu halten.

Schon.
Aber ich glaube kaum das VW z.B. den Golf 3 unter neuem Namen wieder in ihr Programm mit aufnehmen wird !
Das ist der Unterschied... :rolleyes:

dir ist schon klar, dass amd auch dauern verluste macht? die müssen genau so unter wert verkaufen wie nvidia. nur ist es bei denen noch viel extremer.
 
@Pickebuh
toll was sagt der preis schon aus? richtig, garnix! da es keine zahlen zu entwicklungs-, produktions- und sonstwaskosten gibt und du auch sonst keine quellen für deine aussagen hast, bleibts also eine gehaltlose aussage, die einfach mal in raum gepupt wurde. bravo.

und der g92b wird doch verbessert wo ist das problem? und wer hat eigentlich behauptet das eine umbenennung immer mit technischem fortschritt einher gehen muss? ist das irgendwo in stein gemeisselt?
 
Naja, ob man der eigenen 260er nicht vielleicht doch Konkurrenz machen will? Der G92b sollte einiges wirtschaftlicher sein, zusätzlich benötigt man nur 8 Speicherchips. Damit kann man wesentlich besser in ein Preiskrieg einsteigen...
 
bensen schrieb:
Ne sagt gar nichts. Wenn man alleine auf dem markt ist nimmt so hohe Preise wie es geht.
Meinst du ATI hätte ne 4870 für 250€ verkauft wenn es keinen G200 gegeben hätte?

Klar nimm soviel es geht.
Wieso nicht gleich 1000 EURO ? :cool_alt:

Klar ist der G200 teurer in der Produktion, aber das sie Verluste damit machen halte ich für mehr als zweifelhaft, ebenso wie deine Argumentationskette.

Ja dann Zweifeln wir halt beide an unseren Argumenten.
Hast du vielleicht Gegenargumente ?
Rein zufällig vielleicht ?
Nur aus Neugier... :)
 
Pickebuh schrieb:
Klar nimm soviel es geht.
Wieso nicht gleich 1000 EURO ? :cool_alt:
Ja was sonst? Sozialamt spielen oder was. Weder Nvidia noch AMD/ATI sind irgendwelche Samariter.
So viel es geht impliziert auch nen vernünftigen Absatz. Für 1000€ kauft die kaum einer mehr.

Mal davon ab verkauft ATi den RV770 den sie mal als 4870 für über 250€ verkauft haben in Form einer 4830 für 80€.
 
Zurück
Oben