News Gerücht: Nvidia-Partner stellen High-End ein

Kriegsgeier schrieb:
Betrachtet man aber den Spiele-Markt, sehen wir folgendes: fast alle, ich würde sogar sagen ALLE Spiele, die in 2010 rauskommen (BF3, Starcraft2, Diablo3 usw.) werden bestimmt auch auf GTX285 flüssig laufen.
Nach Gordon van Dyke wird eine aktuelle Grafikkarte (GTX 260) nicht reichen, um Battlefield Bad Company 2 auf "High" zu spielen. Desweiteren wird DX11 unterstützt, was ATI bereits in Form der HD5000-Serie unterstützt.

redfirediablo schrieb:
Fakt ist: ein 40nm Wafer ist teurer als ein 55nm Wafer.
Die Fertigung mag sich vielleicht unterscheiden, aber generell zu sagen dass 40nm-Herstellung teurer ist als 55nm würde ich gerne mit Fakten belegt haben.
 
das mit dem Geld machen ist alles relativ...
Porsche hat pro verkauftem Wagen einen extremen Gewinn, das kann Opel nun nicht von sich behaupten und die verkaufen mehr (wobei das in dem Fall kein guter Verlgeich ist - NV musste den Preis ja extrem senken weil sie ein schlechtes P/L im Vergleich zu ATI haben, da ist natürlich nichts mehr zu holen)!

MoBo Chipsätze von ihnen sterben aus, Ober und Mittelklasse sind halb geräumt und im Billigbereich sind sie ohnehin nicht gut aufgestellt...
Händler wie Dell stellen auf ATI um und was demnächst an Chipsätzen für Notebooks kommt ist ja bekannt. Müssen die nicht an Apple dicke Strafzahlungen wegen den geknackten GPUs zahlen? Meine ich hätte diesbezügl. was gelesen, vielleicht bin ich da aber auch nur einem Foristen auf den Leim gegangen :freak:
Nene, denen müsste nach Lage der Dinge der Umsatz gut wegbrechen. Wenn der 300er in dem Q4 noch in nennenswerten Stückzahlen kommt wird das nicht ganz so fatal aussehen, ansonsten haben die wenig zu lachen...
 
suessi22
Wenn nicht, dann verstehe ich nicht warum du persöhnlich werden musstest, bzw überhaupt geantwortet hast.
 
Die G200 Karten haben sich lange gehalten. Aber:

"Die Erde dreht sich weiter!"

Und was neues kommt bestimmt. Und wie das "Neue" aussieht werden wir erst sehen können, wenn es soweit ist.
Alle anderen Vermutungen über Performence, Verbrauch und sind einfach nur haltlos! Zwar war in der Vergangenheit oft wiederholungen zu sehen, doch genau das weiß man jetzt nicht.

Und irgendwann fällt der NDA vom G200 Nachfolger und erst dann werden wir hier alle etwas schlauer sein!!! (Gut ein paar Ingenieure und Redakteure wissen früher bescheid ;) )
 
Commodus89 schrieb:
Das Nvidia ohne die GTX260/285 etc. nichts verkauft ist nun wirklich nicht der Fall. Da wären z.B. noch der Notebook- und vor allem der OEM-Markt. Ich würde sogar so weit gehen zu behaupten, dass da weit mehr Geld gemacht wird als im winzig kleinen Performance/High-End Segment. ;)
Natürlich wird Low-End & mainstream weiter verkauft. Vorallem, da GT210 & GT220 sowie die 40nm-Notebook-GPUs rausgekommen sind. Wobei die IMO etwas überraschend schlecht aussahen.

Sehr Problematisch würde ich es nur sehen, wenn sich Femi verschiebt. Also, Dezember + 3 Moante.
Denn im Jänner kommen die Massen-GPUs Low-End & mainstream von ATI, welche dann auch die Notebooks & Desktop fluten werden.
Vorallem, wie ich es schon erwähnt, wenn die jetzigen 40nm-Nvidia-GPUs im Vergleich zu jetzigen ATI-HD4000er-Serie nicht wirklich toll (=als kein größer Vorsprung, wenn überhaupt) aussehen, wird es mit der HD 5000-Serie erst richtig hart. Na ja, auch wieder bis dann die Femi - Low-End & mainstream kommen, aber da ist wieder die Frage, ob sie Anfang 2Q 2010 (2 Moante) oder Ende 2Q 2010 (5 Monate) kommen.

(Zu HD 2900 Zeiten, kamen ATIs Low End & Mainstream 1 bzw. 2 Monate nach Nvidia raus)

Kurz gesagt, wenn sich Femi nicht verspätet und Dezember kommt, dann könnte Nvidia mit dem Blauen Auge davon kommen, aber wenn sich Femi um 3 Monate (=1 Respin) verspätet, dann könnte es echte Probleme geben.

Da meine ich jetzt nicht die Pleite, aber eventuell müssen sie harte Einschnitte (=sparen) machen, was sich dann in Zukunft Auswirkungen (Treiberqualität, Pushen von PhysX & Cuda,...) haben könnte und AMD kann da ein Liedchen bzw. Konzert davon singen.

Na ja, und das hängt auch davon ab, wie stark Femi wird und da heißt es einfach abwarten.
Aber R600 (= +6Moante & sehr schlechte Performance pro Watt) zeigte auch einmal ein Extrem-Beispiel, wie etwas in die Hose gehen kann.
 
Sgt.Speirs

Nur um es mal klar zu stellen BF3 ist nicht BF Bad Company 2 :). Aber Wenn BF Bad Company 2 nicht mit einer GTX260 / HD4870 rund laufen soll dann wird wohl BF3 ( wenn es denn doch noch kommt was ich hoffe ! ) wohl noch etwas höhere Anforderungen haben.

OT / Sorry Admins: Denn soweit ich es mitbekommen habe sollen alle Zielgruppen mit BF Titeln versorgt werden. Casualgamer mit Bad Company und Heroes und BF 1943. Und Hardcore gamer mit BF3 was für mich schließen lässt das BF3 nur für den PC kommen wird ( hoffe ich :) )

Weil der typische casualgamer nunmal Konsolenspieler ist ;)
 
Zuletzt bearbeitet:
Hm macht mich alles sehr stutzig, aber wie wärs denn mal anders wenn Nvidia statt ner Single GPU acht GT220 auf eine Platine packt.
 
Hallo zusammen,

analysieren wir die Dinge doch mal möglichst Neutral, ohne jede Fanboy-Scheuklappen.

Es ist definitiv Fakt, daß Nvidia im High-End Grafikkartensegment ganz erhebliche Gewinnmargen einfuhr, das war vor allem ab Einführung der G80 GPU`s der Fall, Nvidia konnte in diesem hochpreisigen Segment wirklich regelrecht nach Belieben Schalten und Walten.

Solange, bis ATI ihre 4000er Reihe auf den Markt warf und ein absolut Überragendes Preis-Leistungsverhältnis bot. Wobei ATI absichtlich den Mid-Range Markt im Auge hatte, jedoch die Radeon 4870 ein solch Gutes Preis-Leistungsverhältnis bot, daß Nvidia die Preise ihrer GTX 280/285/260 Boards radikal im Preis senken mußte.

Die Geforce 280/285 mußte sogar teils um knapp 150 Euro im Preis gesenkt werden. Viele Board-Partner von Nvidia waren diesbetreffend extrem angesäuert. Und es war ohnedies hinreichend bekannt, daß der G200 Chip in der Herstellung schon nicht gerade Preisgünstig war. Alles in allem rentiert sich meiner Ansicht nach der G200 Chip erst recht nicht mehr, da man ja aufgrund der Radeon der 5000er Reihe nun so schnell nichts mehr entgegen zu Setzen hat und von daher den Preis normalerweise noch weiter senken müßte. Bevor das Passiert, hat man meiner Ansicht nach die Reißleine gezogen und die Herstellung dieser Chips aufgegeben sowie ATI dieses Segment bis auf weiteres Überlassen, also bis der Fermi-Chip Marktreif ist.

Wenn man sich insbesondere diese eklatante Preissenkungen bei den vorbenannten Chips einmal vor Augen führt, ist klar, daß Nvidia hier gewaltig Federn Lassen mußte hinsichtlich der Gewinnmargen. Dies war ja auch von den Partnern zu hören.

Dann kamen auch noch ziemlich unglückliche Umstände durch die defekten Notebookchips hinzu, wobei mittlerweile auch klar ist, daß Nvidia hier eine erkleckliche Summe für das Beheben der Probleme aufwenden mußte oder möglicherweise sogar noch muß, da ja manche sogar noch auf dem Markt sind. Zudem ist ja auch die Garantiezeit zu beachten. Nvidia wird wohl sicherlich noch bis 2010 mit diesem Problem belastet sein.

Zurück zum Fermi-Chip, daß dieser sich verschiebt, scheint ja nun offensichtlich zu sein. Laut einem Artikel von www.Golem.de von vor 2 Wochen kann es Passieren, daß Nvidia diesen sogar erst in ca. einem halben Jahr auf den Markt bringen kann.

Was ich Persönlich nicht Hoffe, denn dann kann ATI Schalten und Walten wie sie wollen. Alles in allem wäre der Verbraucher der Verlierer.

@ aylano

Die Radeon 2900 XT kam ein 3/4 Jahr nach der Geforce 8800 GTS 640 / GTX auf den Markt.

So long....
 
Zuletzt bearbeitet:
Die Preise begannen doch bereits mit der Einführung der HD3000-Serie zu fallen. Davor waren die G80 alle masslos überteuert --> 8800gts320, 8800gts640, 8800gtx
Mit der HD38x0 gabs Highend-Graka für jedermann und da fielen die Preise endlich und die 8800gts lief aus.
 
Hallo zusammen,

@ Swissjustme

Ist nicht ganz so, wie du es schreibst. Speziell die Geforce 8800 GTS 640 wurde durch die 8800 GT im September/Anfang Oktober 2007 abgelöst.

Und die 3000er Reihe von ATI war keinesfalls High-End, weshalb sie auch relativ günstig waren. Schon damals hat ATI sich eher an dem Mid-Range Segment orientiert.

So long.....
 
Grund hierfür ist einfach zu erklären. Die High-End karten waren eben so erfolgreich das sie ausverkauft wurden.
Meine Theorie: Nvidia hatte nicht gedacht das die High-End Karten komplett weggehen, da Stromverbrauch Lautstärke, Preis u.s.w. was auch immer sie gedacht haben.
Das größere Problem haben sie jetzt das Ati 58xx raus hat und somit den Weg für g200 Flagschiffe gesperrt hat. G2xx weiter zu liefern (theoretisch SINNLOS). Nun bleibt zu hoffen das Nvidia sich mit Fermi aus dem Schlamassel da raus bekommt. Sonst, sonst, sonst, k. A. :-)

Ich persönlich warte auf Fermi. Entwiklung dauert eben. Je länger desto besser.
 
@lux
die 3870 war mehr als 35 prozent stärker als die 8800gts320 und die 8800gts war im September 07 noch knapp 300 Euro wert. die 640mb war noch viel teurer.
Die 3870 konnte man also deswegen zu dem Zeitpunkt (november) schon als Highend-Ware bezeichnen.
Aber du hast Recht, die 8800GT gab es damals auch schon (november)

Da sieht man, was in einem Monat alles geschehen kann...
 
Zuletzt bearbeitet:
IntelCyphe schrieb:
Grund hierfür ist einfach zu erklären. Die High-End karten waren eben so erfolgreich das sie ausverkauft wurden.
Meine Theorie: Nvidia hatte nicht gedacht das die High-End Karten komplett weggehen, da Stromverbrauch Lautstärke, Preis u.s.w. was auch immer sie gedacht haben.

wenn die theorie zuträfe kann ich nur sagen:
hochmut kommt vor dem fall, ich hoffe nur, nvdia fällt nicht ins bodenlose und die fermi verfügbarkeit wird gewährleistet sein. wäre schon ziemlich gewagt dem konkurrenten kurz vor, bzw. im weihnachtsgeschäft das feld zu überlassen. wenn nvidia die verfügbarkeit und vorallem die preise für ihren neuen spross nicht im griff hat, haben wir ruckzug einen quasi-monopolisten bei dedizierten grakas :( und hohe preise , zumindestens für eine ganze weile.
 
Zuletzt bearbeitet:
Die Geschichte einer News:

Nvidia kills GTX285, GTX275, GTX260, abandons the mid and high end market (6. Oktober)

Dementi: Nvidia zieht sich nicht aus dem High-End-Markt zurück (8. Oktober)

Nvidia partners discontinued GTX285 and GTX275 (12. Oktober)

Auch wenn hier betont wird, dass die einzige Quelle Fudzilla ist, der Preisvergleich spricht doch Bände. nvidia erzählt zwar, dass sie mit der Nachfrage nicht nachkommen, die Geschichte ist aber einfach nicht rund: bisher haben sie es doch auch geschafft. Warum sollte jetzt plötzlich die Nachfrage so stark ansteigen? Weil ATIs die gtx285 mit der HD5850 überflüssig gemacht hat wollen jetzt alle die nv-Karte? Weil in naher Zukunft die gtx260/275 von der HD5770 zerlegt werden, sind erstere plötzlich auch gefragt wie nie? Das mag ich alles nicht so recht glauben; die Erklärung von semiaccurate, dass nv seine viel grösseren Chips mit den viel komplizierteren PCBs unter Herstellungspreis verkaufen müsste, um mit ATI mitzuhalten macht schon eher Sinn.
Mein persönlicher Tipp ist, dass nvidia die Produktion einfach nur stark gedrosselt hat. So sind sie formell auf dem Markt und können wegen des geringen Angebots über dem Preis verkaufen, der bei der Leistung eigentlich angemessen wäre.

Ob Fermi den Karren aus dem Dreck ziehen kann werden wir sehen. Die GeForce 210 weckt schon Zweifel: die Karte ist schwächer als die HD4350. Trotzdem verheizt diese 40nm-Karte über 50% mehr Strom als das 55nm-Konkurrenz-Produkt von ATI. Das ist einfach nur ein Desaster; wenn sie schon so einen winzigen Low-End Chip in bekannter Architektur in 40nm nicht in den Griff bekommen, dann bin ich gespannt, wie das mit dem GT300 aussieht.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Swissjustme

Sorry, aber du liegst da total daneben. Ich habe die Geforce 8800 GTS 640 aus meinem Profil im Mai 2007 für 288 Euro gekauft! Und die war im Standardtakt auf jeden Fall mindestens auf Höhe der Radeon 3870.

Ich will hier nicht angeben, verstehe mich bitte nicht falsch, aber mit der Übertaktung wie im Profil aufgeführt, ist meine 8800 GTS 640 auf jeden Fall in Höhe der Radeon 4850, mindestens.

Die Radeon 3870 war meines Wissens nach in etwa gleichauf mit der 8800 GTS 640 damals, jedenfalls im Standardtakt. Das war übrigens auch von ATI so gewollt. Ich kann mich noch gut an die Pressemeldungen erinnern damals.

So long....
 
Whoozy schrieb:
MountWalker: Ich hoffe dieser Zustand mit den Konsolen wird sich in Zukunft durch Tesselation ändern. Soll ja duch Tesselation einfach sein den Detailgrad zu erhöhen.

Tja und warum denkst du sehen Games auf der Xbox360 teils so gut aussehen trotz verhältnismäßig lächerlicher Grafikpower mittlerweile? Ja, genau Tesselation von ATI ist ein Grund dafür ;-)

Luxmanl525 schrieb:
Die Radeon 3870 war meines Wissens nach in etwa gleichauf mit der 8800 GTS 640 damals, jedenfalls im Standardtakt. Das war übrigens auch von ATI so gewollt.

Stimmt, aber preislich waren die beiden Karten nicht auf einem Niveau.
 
Zuletzt bearbeitet:
Echt, ist die 4850 so schlecht? weil die 8800GTS egal wie hoch mal sie takten mag, bleibt einfach schlecht. Ich denke das die 4850 doch besser is als deine Übertaktete 8800GTS.
 
Zuletzt bearbeitet von einem Moderator:
Hallo zusammen,

@ Keineahnung1234

Verzeih, aber nach was urteilst du, wenn du behauptest, die 8800 GTS 640 bleibe schlecht, egal wie hoch sie getaktet werde?

Ich kann dir nur Sagen, daß ich beim 3DMark 06 mit der in meinem Profil aufgeführten Hardware ganz genauso 13655 Punkte erreiche! Natürlich ist der 3DMark 06 nur ein ungefährer Anhaltspunkt, aber schau dir mal die Radeon 4850 mit meiner sonstigen Hardware an und vergleiche.

Noch ein Beispiel, Crysis spiele ich mit meiner Karte bis zum 7.ten Level sogar mit 2 x AA. Es ist bei der 8800 GTS 640 so, Karten mit dem A3 Stepping sind kolossal Gut zu Übertakten. Du mußt bedenken, mit den Werten so wie in meinem Profil, läuft die Karte knapp 40 % Schneller als mit dem Standardtakt und dabei wird sie niemals über 80 Grad warm. Es muß halt auch die Kühlung Passen.

Bisher konnte ich noch jedes Spiel mit allen Schaltern am Anschlag Spielen, wohlgemerkt unter XP. Und deshalb hat sich bis Heute noch nie ein Grund für mich ergeben, eine Neue Karte zu kaufen.

@ DvP

Wieviel kostete damals eine Radeon 3870? Ich kann halt nur Sagen, daß ich für meine Geforce 8800 GTS 640 Schlappe 288 Euro damals zahlte, doch das war ein Ptima Schnäppchen, soweit ich das noch weiß. Ich glaube, die meisten 8800 GTS 640 kosteten um die 320 Euro im Mai 2007, soweit ich das noch im Kopf habe.

So long....
 
Zuletzt bearbeitet:
Zurück
Oben