Man muss es doch mal klar sagen. Nvidia verliert sowohl im Mobilen als auch im Desktop - Segment Marktanteile, weil man unter anderem zu lange und zu oft alte Chips umgelabelt hat anstatt ständig neue zu entwickeln, wie etwa AMD. AMD bietet schon seit über einem halben Jahr eine vollständige Palette von Grafikchips mit DX11 Unterstützung an. Entscheidend ist dabei, dass die Chips DX11 beherrschen, nicht die Performance, eben als einfaches Verkaufsargument. Nvidia kam mit dem Fermi einfach zu spät. Dazu kommt, dass der GF100 viele Nachteile hat und man erst mit dem GF104 einen Chip in petto hat, der AMD wirklich Konkurenz machen kann. Dadurch verzögern sich mögliche Gewinne weiterhin. Es ist durchaus auch wahrscheinlich, dass Nvidia selbst mit dem GF104 kaum Gewinne einfahren wird. Dazu fehlt einfach die breite Produktpalette, die man im Gegensatz zu AMD nicht hat.
Bei den Notebook-GPUs sieht es ähnlich aus. Das beste was man bislang zu bieten hat ist der veraltete GTX 285M. Der GTX 480M ist auch nicht das gelbe vom Ei. Er vebraucht fast 100 Watt und damit das Doppelte einer HD 5870M. Zwar bietet er ein wenig mehr Performance, allerdings ist er viel zu teuer und eben zu Stromhungig, so dass ein Notbookhersteller mit zwei HD 5870M Chips mehr Performance bei gleichem Verbrauch und Preis bieten kann.
Die Palette von Nvidia ist 1. Veraltet (GT250/3X0), 2. zu teuer (GTX480M) und 3. verbraucht sie zu viel Strom (GTX 470/480). Bis Nvidia die Fermi-GPUs etabliert hat, könnte AMD mit den Southern Islands schon die nächste Generation auf den Markt bringen.
Da man diesen GPUs nachsagt, dass sie gerade die DX11-Performance steigern sollen, wäre das fatal für Nvidia. Somit könnte AMD die GTX 480 als schnellste Single-GPU Karte ablösen. Außerdem weiß AMD den 40nm Prozess besser zu beherrschen, hat kleinere GPUs und kann sie somit günstiger herstellen als Nvidia. Zudem verbrauchen AMDs GPus weniger Strom/Leistung. Nvidia kann momentan nur mit dem GF104 etwas ausrichten. Der GF100 dürfte nur noch für den HPC-Markt interessant sein. Man kann also im nächsten halben Jah kaum eine Performancesteigerung bei Nvidia erwarten und wenn diese kommen sollte, hat AMD kurz darauf die Northen Islands bereit zur Hand, die im Herbst 2011 auf den Markt kommen sollen und wahrscheinlich im 28nm Prozess gefertigt werden. Da muss sich Nvidia sehr anstrengen um da gegenzuhalten.
Was Ich allerdings nicht verstehe ist, dass hier integrierte GPUs mitgezählt werden. Für mich betrifft der Grafikmarkt nur die dedizierten GPUs. Bei integrierten GPUs steht immer die CPU oder der Chipsatz im Vordergrund, so dass die Grafik nur eine zusätzliche Funktion ist. Ich finde, dass diese Produkte nicht mitgezählt werden dürften, da sie weder reine GPUs sind noch die Hauptfunktion des Chips darstellen.
Ich stimme ÖCDC im Übrigen zu, dass sich Nvidia diese Scheiße selbst eingebrockt hat. Man hat den Kunden einfach zu lange ein und das selbe Produkt angeboten und es immer wieder umbenannt, damit dieser nichts davon merkt. Nur dadurch konnte sich AMD mit neuen Produkten die Marktanteile sichern, auch wenn AMD gelegentlich umgelabelt hat. Nvidia hat sich einfach zu lange auf dem G80 und dessen Shrink G92 ausgeruht. Der GT200 war auch nur für das High-End Segment gedacht, wodurch das Low-End und Mid-Range Segment weiterhin von alten G92-Chips bedient wurde. Dann kam man mal mit irgendwelchen 40nm G200 Chips, die aber allesamt schlechter als die Konkurenz waren.
Ein großer Fehler war auch, dass man den Fermi als HPC-Chip entwickelt hat. Der Chip wurde dadurch einfach zu goß und bekam so den berühmten Stromhunger. Es wäre besser gewesen, von Anfang an zwei Chips zu entwickeln. Man kann mit einem Chip nicht zwei völlig verschiedene Marktsegmente bedienen. Für den HPC-Bereich braucht man den Cache des GF100. Bei Spielen ist dieser aber nahezu nutzlos. Deshalb fehlt er auch beim GF104. Hätte man das von Anfang an so gemacht, hätte sich der Fermi nicht so lange verzögert und die Ausbeute wäre viel höher gewesen.