GunnyHartman
Banned
- Registriert
- Dez. 2008
- Beiträge
- 329
Dr.Pawel schrieb:So "gut"/"schlecht" Nvidia auch sein mag, klar ist das sie sich seit Jahren wie ein kleines Kind mit Scheuklappen verhalten, dass einfach nichts dazulernen will. Man hat stehts am Konzept der Monsterchips festgehalten, obwohl man diese spätestens seit der 2xx nichtmehr rentabel fertigen kann und sich dies bereits deutlich früher abgezeichnet hat. Mit Thermi hat man nunmal alles falsch gemacht bzw. alles daran gesetzt schneller zu sein als eine 5870, egal zu welchem Preis. Man hätte auch den Weg gehen können wie ATI damals mit den 3k Modellen. Ja dann wäre man eine Gen nicht an der Krone gewesen, hätte vermutlich aber deutlich rentabler fertigen können und wäre nicht so in die Kritik gekommen und hätte weniger Imageschaden erlitten.
Nvidia hat ja nicht alles falsch gemacht. Die Tesselationsperformance kann sich ja sehen lassen. Aber man hat mMn den Fehler gemacht und versucht eine Eierlegende Wollmilchsau zu kreiren. Der Chip soll für Spiele und fürs Computing gut sein. Solange man den GF100 in Tesla-Karten einbaut, ist das ja kein Problem. Aber für eine Spieler-Grafikkarte ist der GF100 einfach zu aufgedunsen. Der große Cache und die 3 Milliarden Transistoren sind einfach zu viel des guten.
Ich würde sagen, dass nVidia ein wenig die Prioritäten aus den Augen verloren hat. Man hat zu lange darauf geachtet möglichst schneller zu sein als die Konkurenz von AMD.
AMD hat dagegen seit der HD 3870 auf schlanke und möglichst effiziente Chips gesetzt. Die Architektur des R600 war ja nicht schlecht, nur ware das Fertigungsverfahren und die 512 Bit Speicheranbindung der Grund dafür, weshalb der Chip sehr ineffizient war. Aus den Fehlern des R600 hat man gelernt und das Speicherinterface halbiert. Man konnte eine ganze Weile nicht mit nVidia mithalten, war aber in der Lage relativ günstig zu produzieren. Mit der HD4XXX-Generation kam man dann näher an Nvidia heran und konnte über das P/L-Verhältnis punkten. Man hat das Konzept weiter verbessert und konnte so dann mit der HD5XXX-Generation ein noch besseres Produkt liefern. Nvidia kam erst ein gutes halbes Jahr später mit der GF400er Generation und hat AMD solange komplett den Markt überlassen. Aus dem Fehler der GF200-Karten hat man nichts gelernt: Die Anzahl der Transistoren stieg massiv auf 3 Milliarden, die Chipfläche ist sogar gestiegen gegenüber dem GT200b, trotz 40nm Fertigung. Wen wundert es da, dass Nvidia Probleme mit der Ausbeute hat und die Chips nur teuer produzieren kann.
Insofern hast du recht, dass Nvidia nur auf Monsterchips setzt.
Und jetzt steht die HD6XXX-Generation kurz bevor, die auch an den schnellsten GTX400 Chips vorbeiziehen dürfte. Gleichzeitig wird sie die bewährte R600 Architektur weiter optimieren. Die Chipfläche wird kaum steigen, gleiches dürfte für den Verbrauch gelten. Man wird billiger, schneller und effizienter als Nvidia sein. Wenn man mit weniger Transistoren, weniger Chipfläche und weniger Stromverbrauch schneller ist als die Konkurenz mit einem größeren Chip, kann man nur sagen dass man auf dem besseren Weg ist.
Dr.Pawel schrieb:Jetzt wird es mMn für Nvidia einfach umso schwieriger überhaupt den Anschluss zu halten, schließlich ist man am Limit was die Leistungsaufnahme angeht, alles darüber ist quasi nimmer zu Kühlen. Wie gut sich der 104er ausbauen lässt ist eine andere Frage, insbesondere da er bei weitem nicht so Effizient ist wie die 5k Architektur. Insofern darf man sich schon Fragen was das Nvidia Fanboy gelabber soll? Meine Güte jetzt ist halt mal ATI vorne, Nvidia war lange genug oben! Tut Nvidia mal gut wieder bischen Boden unter den Füßen zu spüren, dann legen die auch mal ihre Arroganz eventuell ab und lösen sich möglicherweise sogar von ihren Eigenentwicklungen und gehen sowie ATI auf offene Standarts über.
Ja also Nvidia ist mit dem GF100 schon an der Grenze. Der GF100 müsste ja schon 30 - 40% vor dem RV870 liegen, da er ja jetzt auch noch gegen den Cayman antreten muss. Weiter ausbauen geht fast nicht mehr und selbst wenn man den GF100 im Vollausbau einsetzt, tut man dies auf Kosten des Verbrauchs. Mit dem GF104 wird man auch nicht sehr weit kommen. Da müsste man dann schon eine GF100b aus dem Ärmel schütteln, aber wie? Man müsste schon auf 28nm setzen, was aber momentan nicht geht.
Nvidia hat also einfach zu sehr darauf spekuliert, dass der große GF100 Chip alles in den Boden stampft. Nvidia sollte sich die Arroganz schnellst möglich abgewöhnen und muss jetzt auf die nächste Evolutionsstufe hoffen. Durch die Scheuklappenmentalität wird man sich auch den Weg in die nächste Konsolengeneration verbauen. Das wäre eine gute Chance um PhysX und 3D Vision groß zu vermarkten und weiter als festen Standart zu etablieren. AMD zeigt sich da deutlich kooperativer und setzt auf offene Standarts. Schlankere Chips sind zudem viel geeigneter für Konsolen. Da mMn der Spielemarkt der Zukunft zum größten Teil den Konsolen gehört, werden die Entwickler Ihre Spiele zu erst für diese entwickeln. Das heißt: kein PhysX, kein 3D Vision, kein TWIMTBP mehr. AMD wird weiter Marktanteile gewinnen, wenn Nvidia sich nicht ganz schnell besinnt und einen vernünftigen, sparsameren Konkurenzchip bringt.
Dr.Pawel schrieb:Wiegesagt ich denke die zwei größten Fragezeichen bei der 6k Serie werden Preis und Verfügbarkeit sein. Wenn diese beiden stimmen sehe ich einem großen Erfolg seitens ATI nichts im Wege stehen, mag sein das sich der kauf von ATI durch AMD dann wirklich rechnen wird. Wie es für Nvidia weiter geht weiß ich nicht, rosig sieht es nicht aus. Man ist sowohl im mobilen als auch im desktop Markt auf dem Rückzug und insbesondere im IGP Markt sieht es halt überhaupt nicht gut aus dadurch das Intel und AMD hier Nvidia quasi ausgeschlossen haben. Tegra etc. ist jetzt auch nicht der Erfolg und CUDA und Physix haben sich auch nicht wirklich durchgesetzt und das wird jetzt auch immer unwahrscheinlicher je weniger Nvidia Karten verkauft werden. Insofern bin ich schon sehr gespannt ob es Nvidia mit dem 28nm Prozess wieder schafft ran zu kommen, ich denke vorher wird das nix.
Mfg
So wie es aussieht, wird die HD6K Serie schneller sein als die GF400 Serie von Nvidia. Sie wird auf jeden Fall weniger Strom verbrauchen und günstiger in der Herstellung sein. Da zeigen sich schon mal zwei Vorzüge des GPU-Konzepts von AMD.
Was man gerade auf dem Grafikkartenmarkt sieht scheint paradox zu sein: Die GTX400 Karten, die ja ein wenig schneller sind als die Radeons fallen im Preis, währent die Preise der HD5K-Karten annähernd gleich bleiben und teilweise über denen der GTX400 Karten liegen. Etwas ähnliches habe Ich noch nicht erlebt. Die schnelleren Karten die mehr Performance bieten sind billiger als die die etwas langsamer sind. Nvidia könnte die GTX 480 eigentlich locker für 500 bis 550€ verkaufen, also teurer als eine HD 5870 die 400 bis 450€ kostet. Schließlich ist die GTX ja schneller. Die Verfügbarkeit beider Karten dürfte etwa gleich hoch sein, auch wenn Nvidia etwas mehr Produktionskapazitäten haben sollte.
Es sieht also so aus, als ob Nvidia die Preise auf Grund des Stromverbrauchs senken musste. Wieso sollte Nvidia sonst die Preise senken?
Die Fermi-Architektur könnte mit der 28nm Fertigung interessant werden, sofern man den Chip nicht noch weiter aufbläht. Man könnte die Taktraten deutlich anheben und so eventuell an AMD vorbeiziehen. AMD wird dann aber die NI Generation bringen. Da bleibt abzuwarten wie gut die Architektur generell ist. Man wird wohl aber weiter auf schlanke Chips setzen. So wird man bei 400mm² die Zahl der Transistoren massiv erhöhen können.
Von daher wird der Wechsel des Fertigungsverfahrens noch lange nicht bedeuten, dass es mit nvidia wieder berg auf geht.
Nvidia haben wir es ja auch zu derdanken, dass es 3dfx nicht mehr gibt. Und ohne deren Know-How hätte Nvidia ja auch kein SLI. Schade, dass sich so viele GPU-Entwickler aus dem Markt zurückgezogen haben oder pleite gegangen sind.
Zuletzt bearbeitet: