News Nvidia verliert massiv im Notebook-Grafik-Markt

Naja wundert mich auch nicht wirklich.
Nachdem Debakel mit GeForce 8xxx würd ich auch nur sehr ungerne auf die setzen.
Außerdem haben die keine aktuelle Chips in dem Bereich, da ist ATi denen Meilenweit vorraus.


Wie meinst du das? Als die 8xxx serie aktuell war, war nvidia doch noch unschlagbar.
Und was heißt schon meilenweit voraus, Ati hatten auch schon alle abgeschrieben.

Wo bleibt eigentlich der aufschrei und die glückwünsche für nvidia?
Als Ati down war haben noch alle geheult, weil nvidia so groß und böse ist.
Macht Ati jetzt irgendetwas anders als nvidia seinerzeit? Mitnichten.
Diese "2-lager-diskussion" wird sich in beiden chefetagen belächelt.
Viele tun so, als wären sie selbst Ati oder nvidia und als wären es nicht zwei profitgeile schweineunternehmen, von denen man sich eigentlich nicht vereinnahmen lassen sollte ;)
 
Zuletzt bearbeitet:
Ich denke, dass Nvidia Weiterentwicklungen in Sachen Wärmereduktion und Stromverbrauch verpennt hat. Schade eigentlich!
 
@ Bio-Apfel

nVidia ist vielen mittlerweile durch so einige Aktionen sehr unsympatisch geworden und zusätzlich durch die ausgestrahlte Imptertinenz und Arroganz gewisser Personen. Diese Einstellung wird natürlich dann auch der Firma aufgedrückt. ATI ist auch noch nicht der Platzhirsch und fast jeder wünscht AMD, dass Geld in die Kasse kommt um einen starken Gegenpart zu Intel aufbauen zu können.
Dennoch hoffen viele "fanboys" von ATI/AMD, dass nVidia ein starker Konkurrent bleibt und bangen, dass die Grünen nicht weiter einbrechen. Warum auch sollte man das auch hoffen. Fan von einem Hersteller zu sein muss bestimmt nicht heißen dass man dumm ist.
 
Zuletzt bearbeitet:
awaiK schrieb:
Nvidia, Matrox, SIS und VIA sollten sich zusammenschließen, um gemeinsam eine Plattform bestehend aus CPU, GPU usw. anbieten zu können. Als Gegengewicht zu Intel und AMD.

silent-efficiency schrieb:
Matrox ist viel zu konservativ um mit nvidia zusammenzuarbeiten. VIA+Nvidia könnte was hergeben, wenn nVidia nicht so eingebildet wie in der Vergangenheit bei Verhandlungen wäre.

Hatte Intel nicht gemeint, dass VIA seine x86 Lizenz in den Wind schreiben kann, wenn sie mit Nvidia zusammen eine CPU + GPU Kern entwickeln?
 
ich finds einfach nur toll das auf nvidia harte zeiten zu kommen obwohl ich dieses fanboy getuhe nicht ausstehen kann.
ich fands damals einfach nur scheisse das nvidia sich auf seinen chipsätzen ausgeruht hat und nichts neues entwickelt hat weil ati einfach nicht konkurrenzfähig war und der markt fast 2 jahre lang nichts neues bekommen hat. als dann ati wieder aufgeholt hat hatte nvidia´s entwicklungsabteilung nichts entgegenzusetzen und die haben munter ihre chips umbennannt und als neue verkauft (teilweise 3 generationen lang... von 8xxx zu 9xxx zu 2xx). es rächt sich halt wenn man nichts in forschung und entwicklung steckt und das obwohl die so satte gewinne wie lange nicht mehr eingfahren haben.
finds nun einfach super das die die scheisse die sich selbst eingebrockt haben nun auslöffeln müssen und hoffe das die das auch hinbekommen denn wenn nvidia verschwindet sind die kunden die dummen.
 
Raucherdackel schrieb:
Mensch, wie oft denn noch, es heisst dediziert!


@datr1xa: Nö, Fermi macht da gar nicht mal soviel aus, Bumpgate und wie Nvidia dann mit ihren Geschäftspartnern umging schon eher.

Wikipedia:
Das Eigenschaftswort diskret wurde im 16. Jahrhundert aus dem französischen discret „verschwiegen“ entlehnt, das auf lateinisch discrētus „abgesondert, unterschieden“ zurückgeht.

@Topic:

Oha ich hab mir zwar schon gedacht das nVidia langsam Probleme kriegen könnte aber dass es dann so heftig ausschaut hätte ich nicht erwartet.
Aber Respekt an AMD für die großartige Leistung zurzeit. Sie stehen mittlerweile auch immer besser im Netbook / Subnotebook Markt mit ihren mobilen CP- und GPUs.

Bio-Apfel schrieb:
Wo bleibt eigentlich der aufschrei und die glückwünsche für nvidia?

Wozu willst du nVidia denn gratulieren? Für die schlechten Zahlen?
Beide Unternehmen haben/hatten ihre Höhen und Tiefen. Nun ist eben AMD am Zug. Und das auch verdient und ohne irgendwelche Skandale.
 
Zuletzt bearbeitet:
Man muss es doch mal klar sagen. Nvidia verliert sowohl im Mobilen als auch im Desktop - Segment Marktanteile, weil man unter anderem zu lange und zu oft alte Chips umgelabelt hat anstatt ständig neue zu entwickeln, wie etwa AMD. AMD bietet schon seit über einem halben Jahr eine vollständige Palette von Grafikchips mit DX11 Unterstützung an. Entscheidend ist dabei, dass die Chips DX11 beherrschen, nicht die Performance, eben als einfaches Verkaufsargument. Nvidia kam mit dem Fermi einfach zu spät. Dazu kommt, dass der GF100 viele Nachteile hat und man erst mit dem GF104 einen Chip in petto hat, der AMD wirklich Konkurenz machen kann. Dadurch verzögern sich mögliche Gewinne weiterhin. Es ist durchaus auch wahrscheinlich, dass Nvidia selbst mit dem GF104 kaum Gewinne einfahren wird. Dazu fehlt einfach die breite Produktpalette, die man im Gegensatz zu AMD nicht hat.
Bei den Notebook-GPUs sieht es ähnlich aus. Das beste was man bislang zu bieten hat ist der veraltete GTX 285M. Der GTX 480M ist auch nicht das gelbe vom Ei. Er vebraucht fast 100 Watt und damit das Doppelte einer HD 5870M. Zwar bietet er ein wenig mehr Performance, allerdings ist er viel zu teuer und eben zu Stromhungig, so dass ein Notbookhersteller mit zwei HD 5870M Chips mehr Performance bei gleichem Verbrauch und Preis bieten kann.

Die Palette von Nvidia ist 1. Veraltet (GT250/3X0), 2. zu teuer (GTX480M) und 3. verbraucht sie zu viel Strom (GTX 470/480). Bis Nvidia die Fermi-GPUs etabliert hat, könnte AMD mit den Southern Islands schon die nächste Generation auf den Markt bringen.
Da man diesen GPUs nachsagt, dass sie gerade die DX11-Performance steigern sollen, wäre das fatal für Nvidia. Somit könnte AMD die GTX 480 als schnellste Single-GPU Karte ablösen. Außerdem weiß AMD den 40nm Prozess besser zu beherrschen, hat kleinere GPUs und kann sie somit günstiger herstellen als Nvidia. Zudem verbrauchen AMDs GPus weniger Strom/Leistung. Nvidia kann momentan nur mit dem GF104 etwas ausrichten. Der GF100 dürfte nur noch für den HPC-Markt interessant sein. Man kann also im nächsten halben Jah kaum eine Performancesteigerung bei Nvidia erwarten und wenn diese kommen sollte, hat AMD kurz darauf die Northen Islands bereit zur Hand, die im Herbst 2011 auf den Markt kommen sollen und wahrscheinlich im 28nm Prozess gefertigt werden. Da muss sich Nvidia sehr anstrengen um da gegenzuhalten.

Was Ich allerdings nicht verstehe ist, dass hier integrierte GPUs mitgezählt werden. Für mich betrifft der Grafikmarkt nur die dedizierten GPUs. Bei integrierten GPUs steht immer die CPU oder der Chipsatz im Vordergrund, so dass die Grafik nur eine zusätzliche Funktion ist. Ich finde, dass diese Produkte nicht mitgezählt werden dürften, da sie weder reine GPUs sind noch die Hauptfunktion des Chips darstellen.

Ich stimme ÖCDC im Übrigen zu, dass sich Nvidia diese Scheiße selbst eingebrockt hat. Man hat den Kunden einfach zu lange ein und das selbe Produkt angeboten und es immer wieder umbenannt, damit dieser nichts davon merkt. Nur dadurch konnte sich AMD mit neuen Produkten die Marktanteile sichern, auch wenn AMD gelegentlich umgelabelt hat. Nvidia hat sich einfach zu lange auf dem G80 und dessen Shrink G92 ausgeruht. Der GT200 war auch nur für das High-End Segment gedacht, wodurch das Low-End und Mid-Range Segment weiterhin von alten G92-Chips bedient wurde. Dann kam man mal mit irgendwelchen 40nm G200 Chips, die aber allesamt schlechter als die Konkurenz waren.

Ein großer Fehler war auch, dass man den Fermi als HPC-Chip entwickelt hat. Der Chip wurde dadurch einfach zu goß und bekam so den berühmten Stromhunger. Es wäre besser gewesen, von Anfang an zwei Chips zu entwickeln. Man kann mit einem Chip nicht zwei völlig verschiedene Marktsegmente bedienen. Für den HPC-Bereich braucht man den Cache des GF100. Bei Spielen ist dieser aber nahezu nutzlos. Deshalb fehlt er auch beim GF104. Hätte man das von Anfang an so gemacht, hätte sich der Fermi nicht so lange verzögert und die Ausbeute wäre viel höher gewesen.
 
Zuletzt bearbeitet:
öcdc schrieb:
Ich stimme ÖCDC im Übrigen zu, dass sich Nvidia diese Scheiße selbst eingebrockt hat. Man hat den Kunden einfach zu lange ein und das selbe Produkt angeboten und es immer wieder umbenannt, damit dieser nichts davon merkt. Nur dadurch konnte sich AMD mit neuen Produkten die Marktanteile sichern, auch wenn AMD gelegentlich umgelabelt hat. Nvidia hat sich einfach zu lange auf dem G80 und dessen Shrink G92 ausgeruht. Der GT200 war auch nur für das High-End Segment gedacht, wodurch das Low-End und Mid-Range Segment weiterhin von alten G92-Chips bedient wurde.
Dann kam man mal mit irgendwelchen 40nm G200 Chips, die aber allesamt schlechter als die Konkurenz waren.

AMD's Produkte waren doch bis zu Evergreen nie besser als die von nVidia. Ein G92 in Form der 8800GTS-512 ist genauso schnell wie eine 5850 beim gleichen Stromverbrauch. Sie hatten einen riesigen Vorsprung mit dem G80 und G92, wofür AMD 20 Monate brauchte, um diesen einzuholen.
Und wo die kleinen GT21x 40nm schlecht sein sollen, musst du zeigen. Nicht nur, dass sie 6 Monate vor AMD auf dem Markt waren, bieten sie mit Optimus auch das überragende Feature im mobilen Sektor.

Ein großer Fehler war auch, dass man den Fermi als HPC-Chip entwickelt hat. Der Chip wurde dadurch einfach zu goß und bekam so den berühmten Stromhunger. Es wäre besser gewesen, von Anfang an zwei Chips zu entwickeln. Man kann mit einem Chip nicht zwei völlig verschiedene Marktsegmente bedienen. Für den HPC-Bereich braucht man den Cache des GF100. Bei Spielen ist dieser aber nahezu nutzlos. Deshalb fehlt er auch beim GF104. Hätte man das von Anfang an so gemacht, hätte sich der Fermi nicht so lange verzögert und die Ausbeute wäre viel höher gewesen.

Der GF104 hat die selbe Cache Struktur wie der GF100. Nur die Menge ist aufgrund der geringeren Einheitenanzahl geringer. Cache hat dazu jede GPU: textur-Cache, Register-Cache etc. Mit GF10x hat nVidia nur alle dedizierten Caches entfernt und einem einheitlichen L1 und L2 Cache eingeführt. Das ist z.B. für die Berechnung von Geometrie sehr hilfreich.
 
Dass Nivida gerade auch im Notebookbereich Anteile verliert und diese auch mit einer vielversprechenden Lösung in Zukunft nicht so einfach wie ATI/Intel wiedererlangt dürfte auch an der kleinen Geschichte mit den Bumpgates liegen:

http://www.sec.gov/Archives/edgar/data/1045810/000119312508145974/d8k.htm

Fakt ist, dass auch etliche NForce Boards in Desktops sowie Desktop-Graka´s betroffen waren. Nebenbei bemerkt ist der neue Trendsport Graka-Backen nichts anderes als der Versuch die durch Microrisse beschädigten Bumpgates wieder zusammenzuschmelzen.

Was aber der springende Punkt ist: Käufer einer einzelnen Komponente verteilt auf tausende Seller sind viel einfacher abzufertigen (Wir haben keine Probleme mit der Hardware!).

Wenn man als Firma aber hunderttausede Units an EINEN Käufer abgibst und der darf sich dann mit tausenden Reklamationen beschäftigen wird es ungemütlich, zumal die Komponente ja nicht einzeln an den Kunden verkauft sondern in ein System eingebunden wird, welches das eigentliche Produkt darstellt.
Das Ergebnis ist obiges Dokument.

Dass man sich als Konzern dann zweimal überlegt, inwieweit man bei erneuter Vergabe eines Vertrages im Nachhinein wieder vor solch einem Problem stehen möchte ist selbstverständlich.

Wer einmal lügt dem glaubt man nicht, auch wenn...
 
Sontin schrieb:
AMD's Produkte waren doch bis zu Evergreen nie besser als die von nVidia. Ein G92 in Form der 8800GTS-512 ist genauso schnell wie eine 5850 beim gleichen Stromverbrauch. Sie hatten einen riesigen Vorsprung mit dem G80 und G92, wofür AMD 20 Monate brauchte, um diesen einzuholen.
Und wo die kleinen GT21x 40nm schlecht sein sollen, musst du zeigen. Nicht nur, dass sie 6 Monate vor AMD auf dem Markt waren, bieten sie mit Optimus auch das überragende Feature im mobilen Sektor.
Die Krise war schon ab GT200b zu sehen.
Denn mit G80-->G92 konnte AMD in sachen Performance-pro-Watt aufholen sowie sehr früh einführen.
GT200 & GT200b kamen verspätet und erreichten den Takt nicht.
GT212 wurde gleich ganz gecancelt

Wer nur auf Performance schaut, und das oft nicht mal richtig, der wird die Probleme erst sehen, wenn sie mehr als offensichtlich sind (hoher Stromverbrauch oder schlechte Geschäftsberichte.

Die Anzeichen waren schon mehr als 1 Jahr zu sehen, dass Nvidia seine GPUs seit GT200 immer problematisch einführt.

Mit RV6x0 sowie RV7x0 sowie RV8x0 konnte AMD jedesmal ein Stück aufholen. So wie es aussieht, könnte es mit RV9x0 weitergehen, da die jetztigen 40nm-GPUs auch nicht viel schlechter werden als die zukünftigen DX11-Nvidia-GPUs.

Mit RV9x0 soll dann auch einen gleichwertigen/besseren Optimus-Konkurrent geben.
Momentan kann man mit AMD-Switchable-Grafiks nur manuell umschalten.
 
ich nutze viel und gern NV, aber GTX480M ist wirklich alles andere als M... da kannste echt zusehen wie der Akku leer wird. Also das Ding ist wirklich mal alles andere als Effizient!!!

Deshalb hat auch hier ATI vermutlich mehr an den Mann gebracht, die Karten sind nutzbar und gut.

Die GTX480 ist da auch nicht besser, unter Volllast hört man die wirklich und ich bin nicht empfindlich, sicher ist sie die schnellste SingleGPU ebenso wie die GTX480M die schnellste Mobile SingleGPU ist, aber zu dem Preis?! Teuer, Heiß und Laut. => sehr sehr schmaler Kundenstamm der diese extreme Leistung und diese Nachteile in Kauf nimmt!

und zu deinen Temps, also 100° C sind wirklich eher NV-Fermi typisch, da ist ATI´s HD5xxx kühler unterwegs, gilt auch für den mobilen Bereich, nicht umsonst sind viele 8xxxGT´s & Co. deshalb kaputtgegangen (meine zum Glück nicht).
 
@HappyMutant: Roger that!

nVidia sollte sich so langsam aber sicher mal Gedanken machen, ihre "M" getauften GPUs auch zu echten "M"-GPUs zu machen - denn mobil sollte im Notebook/Netbook-Segment nicht nur klein heißen, sondern auch die Laufzeit sowie das gesamte System schonen (Akku/Wärmeabgabe).

Gibt es von AMD/ATi nicht mittlerweile auch eine ganz ansehnliche Lösung zum NEO K125 dazu? (Oder wie es sich schimpft)

^^Sowas in der Richtung und sie könnten sich Anteile wieder beschaffen ;)

Liebe Grüße,
Lugias Crusader.
 
Zuletzt bearbeitet:
Hier wird wiedermal maßlos übertrieben zu heiß,zu laut bla bla bla.wenn man die tesselationsleistung der karte in relation zu ihrem verbrauch setzt ist sie genau da wo sie sein soll.ati hat mit ihrer hd 5000 generation eigentlich eine aufgeborte direkt x9 und 10 serie gebracht mit direkt x11 als zusatz.tesselation ist das entscheidene elememt von direkt x11 und genau da ist die gtx 480 deutlich überlegen.wenn es heute schon mehr spiele mit dieser technik geben würde dann würde sich keiner darüber aufregen.
 
casul schrieb:
Hier wird wiedermal maßlos übertrieben zu heiß,zu laut bla bla bla.wenn man die tesselationsleistung der karte in relation zu ihrem verbrauch setzt ist sie genau da wo sie sein soll.
nein, ist sie nicht. aber selbst wenn hilft es nicht, da sie zu laut und zu heiß ist selbst wenn gar keine tesselation eingesetzt wird.
 
@Casual:

Falsch! Aufregung würde auch dann noch entstehen - du sprichst von einer Technologie von vielen, die aber auch wenn sie "noch so schön anzusehen sind" keine Rechtfertigung sind für etwaige Entgleisungen des Preis/Leistungs-Niveaus mit dem Boni an "uns ist alles egal, aber wir wollen die Krone".

Dementsprechend gibt es ja nun auch von nVidia GPUs die einen weitaus besseren Eindruck machen als das "Non-plus-Ultra" ihrer eigene Serie.

Vielleicht würde es dem Unternehmen mal ganz gut tun, in wirkliche Innovationen hinzuarbeiten die auch etwas für "das Ding" zwischen Monitor und Stuhllehne bedeuten.
Und da ist es eben von großer Bedeutung (siehe die nach und nach erbrachten Zahlen wie in den heutigen News) soviel Leistung wie möglich mit so wenig Verbrauch wie möglich zu koppeln - und da haben Intel/AMD.ATi wohl mehr Erfahrung bei - diese Karten werden nun auch ausgespielt und sind wohl solange erfolgreich, wie der Trend vom Sparen anhält.

Die paar dutzend "High-End-Systeme" sind auch so schon genug bedient, jetzt sollte Richtung "Masse" entwickelt werden und die schaut lieber in den eigenen Geldbeutel statt auf einen LCD mit tollen bunten Bildern.

Kurz: Das Szepter der "Absoluten Leistungskrone" kann ruhig mal abgegeben werden - bringt mittlerweile eher Probleme als Lösungen.


Mit freundlichen Grüßen,
Lugias Crusader.
 
das wuerde bestimmt anders aussehen wenn es mehr programme fuer cuda geben wuerde.
ich fuer mein teil hab mich extra nach einem nb mit nvidia karte umgesehen...
aber jedem das seine... ich kauf gern bei nvidia (ausgenommen die 400er serie :) )
 
Sontin schrieb:
AMD's Produkte waren doch bis zu Evergreen nie besser als die von nVidia. [..]

Nö, Radeon 9800er Serie gegen 5800/5900er Serie usw, als ob nvidia seit dem Ende von 3Dfx derunangefochtene Platzhirsch gewesen sei... :rolleyes:
 
@ PuscHELL76

Das ist schon klar und CUDA ist ja auch eine feine Sache. Das Engagement von nVidia hat GPU-Computing auch ein gutes Stück weiter gebracht, auch das sehe ich so. Im Endeffekt macht sich aber dann jeder von einem Hersteller abhängig, wenn man CUDA unterstützt und nVidia (noch immer der wichtigste Hersteller von Performance Grafikkarten) blockiert damit die Entwicklung von OpenCL. Falls die keinen Bock auf OpenCL und Entwicklung mit den Softwareherstellern haben, gehts eben kaum vorran. Wenn ich das jetzt gut finden würde, müsste ich damit leben mir in den Rechner zu knallen egal was die Kumpels ausbrüten und deren Preise akzeptieren. Nur hypothetisch: Was würden wir dann machen wenn GTX 5XX und 6XX auch so ....(sorry) kacke werden und ewig keine Mainstreamlösungen gebracht werden?
Also gut ist es für keinen Kunden wenn man die proprietären Technologien wie PhysX (@GPU) und CUDA brav unterstützt. Von dem her ist es eigentlich ganz gut, dass NV gerade schwächelt und sich die Entwicklung etwas bremst bzw. den offenen Lösungen mehr Zeit verschafft.
 
Zurück
Oben