News Nvidia mit Fertigungsproblemen beim GT200?

ich finde es erstaunlich wie AMD / ATI mit ihrem R770 bei viel kleinerer Fläche ähnlich viel Leistung aus dem Chip herausholt. Würde AMD gleich statt 800 1000 Shader verbauen, die Textur Einheiten weiter erhöhen hätte man einen deutlich kleineren Singelchip welcher in Zusammenspiel mit GDDR5 der G200 den Schneid abkaufen könnte, bei deutlich günstigerer Fertigung. Man wird sehen welchen Takt ein G200 in 55nm erlaubt. Sicher wird Nvidia hier noch etwas an der Taktschraube drehen den die 4870X2 wird hier die Führung übernehmen.
Auch frägt sich wieviel der Fläche des G200 auf Kosten von Computing geht.

Edit:
Wann kommt eig. der Test zur HD 4870?
 
Zuletzt bearbeitet:
Ich würde sagen, dass sich Amd/Ati ins Fäustchen lachen. Denn sie gewinnen Marktanteil und ein besseres Image. Auch wenn Nvidia die Leistungskrone hat sind die Vorteile der 4800er Reihe von Amd/Ati besser. Endlich können sie sich wieder ordentlich zurückmelden. Den Kunden wirds alle male freuen, denn die Preise purzeln ja auch immer weiter. AMD eindeutig der Gewinner.
 
Der G200 und auch der G200b werden wahrscheinlich nicht so lange überleben wie der G80. Ich denke nV muss sich um einen vorgezogenen Launch des G100 Gedanken machen.
 
Jo finde auch AMD hat es verdient, ic hsetzt zurzeit auf eine komplette AMD plattform xD!

Sagt mal weiß jemand was von dem CB test`?
 
Ich finde es lustig, dass man Händlern im Mutterland des Kapitalismus ein Preisminimum vorschreiben will. Nvidia schein ganz schön verzweifelt zu sein...
 
Nvidias Vorteil ist die bessere Auslasung des Chips durch 1D Shader, während AMD mit 5D Shadern fährt die oft nicht voll ausgelastet sind. Deshalb ist auch die theoretische Leitung so brachial hoch. Auf den Bildschirm sieht man davon jedoch nur die eigentliche Teilauslastung.
Vorteil der 5 D Shader ist jedoch dass sie weit weniger Transitoren / Fläche benötigen als 5 1D Shader.
Wie ich finde liegt der Flaschenhals bei AMD immernoch in der geringeren Textur Leistung. AMD muss es gelingen die 5 D Shader optimal auszulasten, ich denke genau deshalb sind hier größere Leistungssteigerungen durch Treiber möglich als dies bei Nvidia der Fall ist. Da jedoch beide Architekturen in ihrer Art schon länger auf dem Markt sind behaupte ich das der Feinschliff der Treiber keine riesen Leistung mehr bescheren wird und wir relativ konstant bleibende Leistung sehen. Hauptsächlich Crossfire und SLI werden von den Treibern porfitieren. Weniger die Singelchip Leistung.

Welcher der beiden Herrsteller die bessere / effizientere Architektur hat lässt sich schwer sagen. AMD hat aus dem R600 gelernt, ohne Frage. Im grunde ist es jedoch immernoch das selbe System. Der G92b in 55nm zeigt jedoch auch dass Nvidia einen günstigen, sogar noch etwas kleineren Chip als den R770 besitzt welcher noch genug Taktreserven besitzt um die Stirn zu bieten. Und grad unter Last verbrauchen Nvidias gut ausgelasteten wenigen 1D Shader weniger Saft als eine Masse 5D Shader die gut ausgelastet sind. Zumindest hab ich den Eindruck =)
 
Zuletzt bearbeitet:
Das ist Natürlich im moment nicht gut für Nvidia, aber ich hoffe mal das die schnell auf 55nm umstellen können und das die G200B dadurch vielleicht auch an den Preis/Leistung der AMD Modelle anpasst.


Die Gainward ist schon gelistet Mix-Computer
 
Zuletzt bearbeitet:
letztes jahr hat NV bei ATi / AMD immer wieder nachgetreten ,nicht so sehr mit Produkten (OK der 8800 GT) sondern mit dummen sprüchen ala mit ATI rechene wir nicht mehr usw

:lol:

ATi hat jetzt zurückgetretten und das direkt in die Fre**e ;)

da sich Ati auf dem Teil des marktes der kohle bringt konzentriert ,preissegmet 120-250€

bin gespannt wer am ende des jahres wie wirtschafftlich steht, denn lange kann das NV nicht machen!


weiß eigentlich einer wieviel der RV770 jetzt kostet , hab mal abgeschätzt 35€ aber nie genaue angebaen gehört!
 
Zuletzt bearbeitet:
Wirtschafliche minimal anzustrebende Yield-Rate liegt bei 60% mit mittelfristigen Tendenzen zu 90%. Bei größeren High-End-Chips mag man im Zweifelsfall mit etwas weniger leben können, aber 40 ist schon sehr mager. Die Board-Partner sehen den Marktbereich der oberen Mittelklasse um 200 gefährdet, da wird noch mit der meiste Gewinn generiert - und hier hat auch der G92b gegen den RV770 einen schweren Stand, der GT200 wird wohl auch mit einem "b" da nicht mitreden können...
 
MEDIC-on-DUTY schrieb:
Der G200 und auch der G200b werden wahrscheinlich nicht so lange überleben wie der G80. Ich denke nV muss sich um einen vorgezogenen Launch des G100 Gedanken machen.
Ich vermute, dass der an DX11 hängt... und wenn DX11 erst Ende 09 kommt muss Nvidia nochmal ein Chip zwischenschieben
 
Ich finde es interessant, dass nVidia, obwohl sie noch die Nase vorne haben was Marktanteile und Gewinn betrifft, sich anscheinend durch AMD's "Comeback" unter Druck setzen lässt und Fehlentscheidungen trifft.

Wie war die Aussge noch vor kurzer Zeit? "AMD/ATI ist keine Konkurrenz für uns!"

^^
 
IgG schrieb:
Ich vermute, dass der an DX11 hängt... und wenn DX11 erst Ende 09 kommt muss Nvidia nochmal ein Chip zwischenschieben

Ich glaube, wir können sicher sein, das beide, ATi und NVidia, schon jetzt an DX11 Chips schrauben...

Und an NVidias Adresse: Hochmut kommt vor dem Fall.
 
Ich find auch das eine ausbeute von unter 40% sehr kritisch für nVidia werden könnte.
Hab mal gelesen das AMD beim Athlon64 beim start schon eine Ausbeute von über 80% hatte. Wenn man das vergleicht dann siehts ja sehr übel für nVidia aus.


Wollte MS nicht schon dieses Jahr DX11 bekanntgeben?
 
@Krautmaster
So wie ich das sehe haben die das mit der 48xx Serie geschafft.
Denn wie man aus den Benchmarks sehen kann haben die bei höheren Auflösungen/Details bessere Leistung.

Finds gut dass nVidia Probs hat sonst wären die zu eingebildet und daumen hoch für AMD/ATI haben sich nicht runter kriegen lassen.

Nunja die Preispolitik von nVidia war schon immer ziemlich brutal.
 
Ihr tut ja gerade so, als wenn die Entscheidung von nVidia jetzt gerade erst gefallen ist. Was glaubt ihr, wie lange im Vorfeld schon klar war, dass die Yieldrate so niedrig ist? Mit der größe der Chips war diese bekannt und einkalkuliert. Das hat also mal gar nichts mit "unter Druck setzen lassen" zu tun.
 
So Fertigungsprobleme im 65nm Prozess, der schon seit dem Release der G84 im April 2007 im Einsatz ist. Und der 55nm Prozess, der soweit ich weiss bei NV noch gar nicht im Einsatz ist solls dann richten.:rolleyes:
 
Nvidia hatte eigl. keine andere Wahl.
Entweder 55nm von Anfang an = GT200 erscheint nach ATI 4000er Reihe, oder man kommt sofort mit 65nm und hat was gegen ATI stehen.
Jetzt sieht mans ja, das letzteres fast genauso schlecht ist wie ersteres... ein Kompromiss war erforderlich und ich finde auch dass letzteres vertretbarer ist.

Die exklusiven Nvidia-Board Partner sollen ruhig Zweigleisig fahren, ... kommt nur ATI zu Gute. Und da ATI noch immer schlechter als Nvidia steht, trotz 4000er Serie, ist dies wünschenswert ;)
 
Nvidia scheint seine Marktmacht recht optimistisch einzuschätzen zur Zeit.

Nach dem starken Comeback, das ATI mit dem RV770 gezeigt hat, bleibt aber abzuwarten, ob die Boardhersteller sich Nvidias Produktpolitik noch lange gefallen lassen. Die ständigen Facelifts an der Produktpalette sorgen dafür, dass die Partner immer wieder Altbestände mit niedrigen Gewinnmargen verkaufen müssen, und durch die aktuell extrem geringe Yield-Rate sind die Chips zu teuer.

Mit der Unilateral Minimum Advertised Price Policy verlangt Nvidia übrigens keinen minimalen Verkaufspreis, sondern einen minimalen Werbepreis. Eine Grafikkarte mit einem bestimmten Chip darf also in der Shop-Übersicht nicht mehr für weniger als x US-$ beworben werden; was sie letztendlich nach Abzug von Mail-In-Rebates und ähnlichen Abschlägen kostet, bleibt aber dem Anbieter/Hersteller überlassen. (Quelle: HardOCP)

Auch wenn man "seitens des Chipentwicklers wohl schon mit einer Ausbeute von über 40 Prozent zufrieden wäre", sind die Chips auch dann noch zu teuer, und wenn ATI einen Highend- (nicht Enthusiast!) Chip mit besserem Preis-Leistungs-Verhältnis anbietet, muss man sich fragen, wie viel Sinn eine exklusive Partnerschaft mit Nvidia zur Zeit macht.

Der Kunde jedenfalls kann nur davon profitieren, was sich am Grafikkartenmarkt derzeit abspielt. Die Entwicklung findet in verschiedenen Richtungen statt (massive Rechenleistung pro Kern bei Nvidia, Parallelität bei ATI), es gibt hohen Innovationsdruck bei den Chipherstellern und hohen Preisdruck bei den Partnern, das bedeutet in letzter Konsequenz schnelle Karten für wenig Geld. Gut gemacht, ATI, wurde auch Zeit!
 
Zurück
Oben