News Nvidia mit Fertigungsproblemen beim GT200?

Also irgendwas stimmt hier nich.. jetzt wird sogar noch darüber gemeckert, das die Preise gesenkt werden sollen :rolleyes:

Hab iwie das gefühl das jetzt so gut wie jeder ATIler versucht die neue nVidia nieder zu machen. Obwohl der GT200 bis jetzt sher gut dasteht :rolleyes:
 
ich erinnere mich auch noch an die aussage von nvidia vor ein paar monaten:
"niemand auf der welt interessiert sich noch für ati"


das hat sich wohl mächtig geändert und im moment schauts so aus, dass sich kaum noch jemand für nvidia interessiert.

wenn selbst der jahrelange exclusive boardpartner Gainward sich nicht mehr von nvidia abhängig machen will und auch ati anbieten will.

was so eine kleine meldung nur war, ist in wirklichkeit ein donner in der geschäftswelt.
ich hätte gern das gesicht vom ceo von nvidia gesehen, als er die nachricht bekam.

und ein shrink bei so einem monsterchip ist mit sicherheit nicht leicht und dürfte auch erstmal zu großen problemen in der fertigung führen.
 
das ewige hin und her bei Nvidia nervt langsam. Sie hätten gleich auf 55NM Fertigung setzen sollen, das hätte wohl einiges an Kosten gespart. So wird andauernd was auf den Markt geworfen, ich mittlerweile bin mir nun nicht mehr sicher, ob ich noch Geld in die Gtx Serie von Nvidia stecken soll, da geh ich lieber zur Konkurrenz, kauf mir die 4870, da ist es dann net ganz so schmerzlich, wenn die im Preis fallen, weil die schon recht niedrig angesetzt sind. Weiß net, was da bei Nvidia grad zur Zeit los ist. Wenn bis August nix vernünftiges für max. 250 Euronen kommt, war die 88 Gt die letzte Karte von Nvidia.

Mal sehen, wo das ganze noch hinführt...

Mfg Matti
 
Nvidia hat soviel finanzielles Polster in den letzten Jahren geschaffen, dass sie diese Durststrecke locker überstehen werden. Ati/AMD haben noch Genug mit der Kompatibilität/Softwareunterstützung zu kämpfen (Treiber), das wird sich auch nicht so schnell ändern.
 
matti30 hab ich doch grad eben erläutert :freak:
[nich nur schreiben sondern auch mal lesen]

55nm hätte niemals zeitlich für den GT200 gereicht um mit der 4000er Serie zu launchen, daher hat man die 65nm vorweg geschoben. Das ganze erklärt auch warum man jetzt andauernd neue Karten launcht. Nvidia hätte schon ganz am Anfang beim G92 auf 55nm setzen sollen. Hier hat man ATI unterschätzt die zwar leistungsmäßig bei der 3000er Serie mittelmäßig/gut, aber schon auf 55nm, waren. Jetzt merkt man den Fehler und will schnell auf 55nm runter (G92b, GT200b).

Ich bin mal gespannt ob das mit dem schnellen Shrink von 65 auf 55nm gut geht. Auch hier hat ATI einen enormen Wissensvorteil. Der Plan mit 65nm auf 45nm ging bei Nvidia wohl richtig in die Hose :o
 
ATI wird in den nächsten Monaten bis zur HD4870 X2 ganz gewaltig an den Treibern schrauben, speziell auf Crossfire, die kennen die Schwachstelle und müssen da was tun.
NVIDIA gehts allerdings nicht anders, die Treiber sind auch weder ausgereift noch fehlerfrei, 2x 6800GT lassen sich z.B. nicht mehr unter SLI befeuern, schon seit Anfang 2007 nicht.
Angeblich kompatibel, aber irgendwie doch nicht.

ATI hat mit der HD4 Serie ein Ass gezaubert, was noch ein bissel Feinschliff benötigt, wie z.B. die Powerplayfunktion.

NVIDIA wollte eben einen Monsterchip, die hatte ATI schon mit der HD2900 und was hat es gebracht?
Nix!
NVIDIA hat aber das Kapital um dies zu machen, ob nun sinnvoll oder nicht.

Finde es nur schade das da eine Karte für 550€ im Laden steht, welche weder DX10.1, noch Shader 4.1 noch GDDR5 noch eine akzeptable max. Stromaufnahme bietet.
Und noch viel schlimmer ist das dieses Zeugs scheinbar Leute kaufen, sonst würden die Boardpartner nicht hinter den Chips herlaufen.

Gainward, OK haben es endlich begriffen, aber Sapphire hat das ja schon vor Jahren, von exklusiv ATI auch zu NVIDIA gewechselt, ist doch normal.

Die Geschichte bei NV mit dem Werbepreis kommt ATI sicher zu Gute ;)
 
IgG schrieb:
Ich vermute, dass der an DX11 hängt... und wenn DX11 erst Ende 09 kommt muss Nvidia nochmal ein Chip zwischenschieben

i.d.R gab es immer vor dem erscheinen der softwareseitigen Unterstützung von DX eine entsprechende HW dafür. siehe auch 8800GTX & Vista.
 
Alles noch kein großes Problem für Nvidia, da sind noch genügend Reserven aus Zeiten des G80 vorhanden. Und für ATi kann es uns doch nur freuen. Ich bin mir sicher, Nvidia wird wie ATi im Moment zurück schlagen. Ähnlich ist es doch im Moment auch bei den Prozessoren, da hat AMD mit dem K8 mal was gutes heraus gebracht und Intel legt mit dem C2D aber mal sowas von nach.. Da knabbert AMD jetzt noch dran. Allerdings werden es da die Phenoms auf 45nm Basis auch nicht schaffen, ähnlich wie Nvidias GT200b.. (Obwohl der GT200 der leistungsstärkere Chip ist im Gegensatz zu den Phenoms.)
 
War ja ab zu sehen. Der Chip ist einfach ein Monster, mit all seinen Nachteilen. Bis zum Nachfolger steht Nvidia jetzt erstmal bissl doof da, und das in quasi jedem Preissegment. Mehr kann man dazu nicht sagen.
 
Endlich mal richtige Negativ-Nachrichten von Nvidia. Das macht sie direkt sympathisch. Ausser die Geschichte mit dem UMAP, aber da wird Nvidia noch richtig mit der EU stressen, wenn sie es denn auch hier durchsetzen wollen.
 
Schuld an der Misere ist laut den Kollegen von NordicHardware die Entscheidung, den Chip mit 1,4 Milliarden Transistoren im 65-nm-Prozess zu fertigen, was zu einer hohen Fehlquote im Herstellungsprozess führt. Vor dem Start wurde mit einer Yield-Rate von etwa 40 Prozent gerechnet, nun soll diese sogar noch darunter liegen.

Ich persönlich habe ja von Anfang an nicht glauben können, dass sich dieses Konzept rechtfertigen läßt. Schön, dass es auch an der Realität zu scheitern droht.
Dann kommt irgendwann ein G200b, der dann vermutlich wiederum mit 400€ Einstiegspreis zu Buche schlagen wird. Ich sehe da für mich in absehbarer Zeit keine Angebote seitens Nvidia.

Man hat den Bogen ein wenig überspannt.
 
cosmicparty schrieb:
wenn selbst der jahrelange exclusive boardpartner Gainward sich nicht mehr von nvidia abhängig machen will und auch ati anbieten will.

Ich mein irgendwo gelesen zu haben, dass der neue Chef von Gainward mal bei ATI gearbeitet hat.

Hier: http://www.fudzilla.com/index.php?option=com_content&task=view&id=8152&Itemid=65

Zu NVIDIAs neuer Preispolitik in den USA:

Damit soll offiziell den Leuten klar gemacht werden, welche Grafikkarte welches Leistungssegment abdeckt. Quasi eine Sortierung der Leistung nach dem Preis.

Real werden damit wieder nur die Leute verarscht (NVIDIA-Verarsche die 10te)
Alle die keine Ahnung haben denken sich nur "WTF? Kostet alles dasselbe" und kaufen dann beim Händler sowie der Marke ihres Vertrauens. Das man damit logischerweise teurer wegkommt, sollte klar sein.
 
Für ATi ist die Ausgangslage das Beste, was ihnen passieren konnte. Sie können nun in ruhe weitere Kracher auf den Marktbringen und nVidia muss noch an ihrem Highend Chip knabbern, um ihn endlich in 55nm produzieren zu können. Also können die sich erstmal nicht auf Midrange konzentrieren. Besser kann es eig nicht für ATi im Moment laufen. Chance nutzen ist angesagt. ;-)

Trotzdem macht nVidia immernoch massig Gewinn mit dem g92 respektive des g92b. Gerade weil die ganzen Preise für die 8800Reihe und 9800 purzeln werden. Also Verluste sehe ich erstmal nicht. Des weiteren würden all jene, die jetzt über nV meckern, ihre Klappe halten, wenn die Yieldrate beim neuen Chip über 50% läge.
Im großen und ganzen kann man sagen, dass die neue Ausgangsposition vielversprechend für den Konsumenten ist. Denn eines ist klar, passiert bei nV nichts großartiges, wird der GT200 zum Ladenhüter. Im Prinzip müsste nVidia gucken, dass sie das Ding schon jetzt vom Preis her senken um ATi einzuheizen. Denn wenn die gtx 260 in dem preislichen Rahmen der neuen hd4870 liegt, werden wohl viele eher zur nV greifen, aufgrund der vorherigen Jahre.

Da spielt der Stromverbrauch eher eine untergeordnete Rolle. Auch wenn viele von euch das jetzt kritisieren. Aber wer sagt ich achte auf den Stromverbrauch, der hätte schon vor 8 Jahren sagen müssen, mir reichts, da mach ich nicht mit. Von daher gilt bei mir nicht die Aussage mit dem Stromverbrauch. Ergo -> kein Argument. Das heißt jetzt aber nicht, das ich das nicht gut finde, das ATi eine Karte auf den Markt gebracht hat, die Stromsparender ist als ihre Widersacher und Vorgänger!!!

Zudem finde ich es eig beachtlich, wenn die Aussagen des CEO´s von nV stimmen, das Sie überhaupt auf den neuen Chip von ATi reagiert haben, anstatt in aller Ruhe den GT200 fertig zu entwickeln. :headshot:
 
Das größte Problem von Nvidia ist, dass sie den Rv770 komplett unterschätzt haben ! Sie haben gedacht, der Gt200 kann ruhg teuer sein, solange wir ne ganze Ecke schneller als ATI sind. Außerdem meine ich mal gelesen zu haben, dass die gewünschten Taktraten für die GTX auch nicht wirklich erreicht wurden.
Jetzt haben sie erstmal das Problem, dass sie kaum an ihren Chips verdienen. Ich glaube aber das sie das mit Gt200b/G92b einigermassen in den Griff bekommen sollten. Allerdings wird das nur den Reingewinn aufpolieren. Die 9800 GTX zeigt schließlich, das man nicht allzusehr an der Taktschraube drehen kann in 55 nm ....

ATI ist aktuell in einer sehr guten Position. Sie müssen allerdings unbedingt nachlegen:

1.Der R700 muss schnell gelauncht werden und sollte um die 280 Kreise ziehen !

2. Ganz wichtig! Powerplay muss so schnell wie irgendwie möglich funktionieren.

3. Die Verfügbarkeit der 4870 sollte so schnell wie möglich verbessert werden.

Für den Endverbraucher war es noch nie so einfach sich beim Grafikkartenkauf zu entscheiden. Will man bedingungslose Performance => Nvidia ....Will man die beste P/L => ATI

Greetz
 
Ich finde es sehr schade das Leadtek noch Nvidia Exklusivpartner ist die haben immer so faire Preise :)
 
Niygo schrieb:
Von daher gilt bei mir nicht die Aussage mit dem Stromverbrauch. Ergo -> kein Argument.

Aha, achso. Wer vorher die Leistung wollte, aber keine andere Wahl hatte da es keine Alternative gab, darf jetzt nicht sagen, ich nutze die Wahl denn die Alternative ist da, weil er damals schon die Leistung wollte?

Na dann.
 
Ich find die News gut, denn nVidia hat seit dem G80 nichts gescheites vollbracht und sich nur zurückgelehnt und gedacht AMD schaffts eh nicht, tja Pech gehabt.

Wenn der G200b kommt werden sicherlich auch die Radeons günstiger, die haben sicherlich noch Spielraum und eine hohe Yieldrate bei den süßen Chips.
 
Ich finde es gut, sowie es jetzt ist.

ATI = Preis/Leistungssieger
Nvidia = Performance Sieger

So habe ich mir die GTX 260 gekauft. Übertaktet auf

- Core Clock: 650MHz
- Shader Clock: 1400MHz
- Memory Clock: 2100MHz

läuft das ding so schnell wie eine GTX 280 ! und hat mich bei HOH.de (Asus GTX260) nur 270,- Euro inkl. kostenlosen (clickandbuy) Versand gekostet. Was will man mehr ? :D und im 2D Betrieb äußerst genügsam und wie lange spielt man schon.:evillol:
 
So wars nicht gemeint. Wenn einem der Stromverbrauch wirklich wichtig bei einem PC ist, dann sollte er auch auf CPU und andere Dinge achten und nicht nur auf GPU. Und es wird im GPU-Bereich dieser Hype mit Stromverbrauch gemacht. Auch wenn diese am meisten Strom ziehen und nicht wirklich Umweltschonend sind. Aber die, die das sagen haben meistens noch ihre CPU auf ein so hohes Niveau übertaktet, dass es die Einsparung wieder egalisiert.
Und das heißt jetzt wiederum nicht, das ich es nicht gut finde, das Strom gespart wird... .
Außerdem gibt es immer Alternativen... Selbst bei Betriebssystemen...^^
 
Zurück
Oben