Notiz GeForce GTX 1180: Wie aus Platzhalter-Einträgen gesicherte Fakten werden

Ich werde auf jeden Fall auch auf die Ti Variante warten.

Nvidia wird den Gamingsektor nicht aussterben lassen.
Ein Unternehmen wäre schön blöd wenn es sich nicht breit aufstellen würde.
Sobald ein Bereich in der Krise ist, können andere ihn vorerst auffangen.
Zur Zeit werden nur die Prioritäten anders gesetzt um neue Märkte zu erschließen.
 
Aldaric87 schrieb:
Aber, was man einfach festhalten muss, dass nVidia seine Ressourcen momentan in anderen Bereichen bündelt, die nichts mit Gaming zu tun haben.

Ich vermute, wenn KI und HPC Computing bei nVidia endgültig durchstarten und Gamingumsätze stark überflügeln, könnte es nVidia sein die aus dem Gaming-Marktsegment aussteigen. Gewöhnlich wird ja gejammern dass AMD aussteigen könnte, weil sich der Aufwand nicht lohnt. Ich denke es könnte durchaus andersrum kommen.
 
Du kennst die Nvidia Quartalszahlen und hast erkannt, dass Nvidia ohne Gaming nur ein Schatten seiner selbst wäre? Nicht? Vielleicht solltest du dir die Zahlen nochmal anschauen. Wenn mir jemand ernsthaft vermitteln kann, warum Nvidia auf 60% seines Umsatzes verzichten sollte...nein.
Wohingegen Nvidia KI und HPC Computing derzeit noch weglassen könnten und der Umsatz nur mittelmäßig (20%) weniger wäre...Bis sich das Spiel umdreht wird das noch eine Weile dauern.
 
@Begu: ...und der nächste, der nur auf den Umsatz guckt :freak:

Wenn der so wichtig wäre, hätte NVIDIA niemals nach Maxwell gesagt Datacenter first und bei Volta dann Datecenter only.

Wie gesagt gibt es verschiedene Berichte, die beim profit margin von Datacenter von bis zu 10x mehr als bei Gaming ausgehen (je nach konkreter Generation und aktuellen Personal-/Produktionskosten im Quartal).
Damit würde NVIDIA schon heute mehr Gewinn mit Datacenter als mit Gaming machen. Selbst wenn die Schätzungen von Analysten zu hoch liegen sollten, wird der Gewinn von Datacenter trotzdem schon jetzt sehr nah an dem von Gaming sein.

Dann verrät schon ein kurzer Blick in NVIDIA's eigene Zahlen, dass datacenter auf ein revenue growth von 150% zusteuert und >= 200% in 2019 angepeilt sind.
Von solchen Wachstumsraten kann man im Gaming nur träumen - und Wachstum ist das entscheidende!

Für ihre Entscheidungen wird NVIDIA schlicht und einfach ihren accounting profit (gemäß ihren eigenen, veröffentlichen Zahlen) dem economic profit (was sie nicht veröffentlichten bisher) gegenübergestellt haben. Und im Gegensatz zu dir haben sie dann ganz schnell gemerkt, dass bei Datacenter potentiell mehr zu holen ist als bei Gaming.

Und das schon vor dem Pascal-Release, weshalb es da anfing mit Datacenter first.
 
ascer schrieb:
Wenn der so wichtig wäre...

Umsatz ist eine der wichtigsten Größen überhaupt. Ohne Umsatz kannst du keine Kosten bezahlen und keine Gewinne machen. Selbstverständlich darf der Umsatz (auch der einer Sparte) nicht dauerhaft Verluste einbringen, was bei Nvidia und der Gamingsparte mitnichten der Fall ist. Warum sollte Nvidia freiwillig auf einen großen Teil ihres Umsatzes, der absolut sicher und gewinnbringend ist, verzichten? Der andere Markt wird ja auch bedient, bei steigenden Umsätzen dann auch mit mehr Ressourcen. Bayer verkauft ja auch immer noch Aspirin, obwohl mit Glyphosat viel mehr Gewinn zu machen ist.
 
HerrRossi schrieb:
Warum sollte Nvidia freiwillig auf einen großen Teil ihres Umsatzes, der absolut sicher und gewinnbringend ist, verzichten? Der andere Markt wird ja auch bedient, bei steigenden Umsätzen dann auch mit mehr Ressourcen. Bayer verkauft ja auch immer noch Aspirin, obwohl mit Glyphosat viel mehr Gewinn zu machen ist.

Warum sprechen hier immer alle von Gaming tot bzw. auf Umsatz verzichten?

NVIDIA muss doch gar nicht auf den Umsatz verzichten, sie sind nur nach Maxwell auf Datacenter first gegangen, d.h. man behandelt Gaming stiefmütterlich und nimmt das Geschäft nebenbei mit.
Und genau das tun sie doch auch. Dazwischen kommen dann noch Volta und Ampere, wo es Datecenter only heißt, und dann werden sie von all den Neuerungen nach 2+ Jahren irgendwann auch mal Turing fertigbasteln, um weiterhin nebenbei Gaming mitnehmen zu können.

Von nichts anderem habe ich hier gesprochen und genau das tut NVIDIA doch.

Man sah es doch auch schon wunderbar an der Titan. Früher hieß sie noch GeForce Titan ... und wurde aktiv für Gaming beworben. Dann kam GeForce weg. Dann kamen INT8 Units und noch mehr professioneller Kram dazu, sie wurde zuerst für AI beworben, zuerst an AI Benchmarks ausgegeben, ... und dann, mit der Titan V, ist sie jetzt nur noch für den professionellen Markt.
 
Zuletzt bearbeitet:
Okay, dann hab ich dich falsch verstanden.
 
Ja, das meinte ich. Ich habe immer das Gefühl, die Gamer sind derart sauer (das sie so lange warten müssen und stiefmütterlich behandelt werden), das man schon bei bloßer Nennung von Fakten wie "datacenter first" - was ja immerhin O-Ton Jensen Huang (CEO NVIDIA) war - gleich in Aufregung gerät und Gaming verteidigen muss.


Wie jedes Unternehmen ist auch NVIDIA wachstumsorientiert und Datacenter hat nunmal Wachstumsraten und vor allem auch zukünftige Wachstumsprognosen, von denen Gaming nur träumen kann.
Dann kommt noch die um Größenordnungen höhere Gewinnmarge bei Datacenter dazu...

Da ist es kein Wunder, dass NVIDIA die Ressourcen auf Datacenter verteilt und entsprechend bei Gaming abzieht.


Vor allem auch, weil sie ja trotzdem problemlos sehr große Umsätze mit den GeForce-Karten machen. Mining sorgt ja auch noch zusätzlich für Absatz und abgesehen davon sind 1070/80er Karten auch sehr häufig in Workstations für AI Zeug zu finden.

AMD konnte sie bislang auch nicht zwingen, von der ganzen neuen Technologie mehr in Turing zu stecken und sich mit Turing zu beeilen. Und abgesehen von AMD ist NVIDIA ja komplett konkurrenzlos.
 
Ich bin kein bisschen "sauer", mir persönlich ist das völlig wurscht, was Nividia zuerst produziert, wenn die nicht aus dem Quark kommen, steht plötzlich AMD mit einem besseren Produkt da. Wäre nicht erste Mal, dass so etwas passiert. Von mir aus kann sich Nvidia auch gerne komplett aus dem Gaming zurückziehen :D

Ob deine Prognosen für Nvidia so in Erfüllung gehen, warten wir mal ab, denn anders als auf dem Gamingmarkt gibt es zumindest bei den Autos ordentlich Konkurrenz und Googles Tensorcores sind auch nicht von Pappe.
 
Ich meinte auch nicht dich persönlich, sondern generell in "diesen" Threads. Da wird gefühlt viel Unmut kund getan, wann denn "endlich" was neues kommt, wieso es so lange dauert, etc. pp. und sobald man den Leuten zu erklären versucht, dass x-mal "datacenter first" - oder wie bei Volta / Ampere "datacenter only" - angekündigt wurde und NVIDIA nunmal einfach seinen Fokus geändert hat, dann driftet es eben meiner Meinung nach sehr schnell in "Gaming ist nicht tot!!!11einself" ab ^^



EDIT:

HerrRossi schrieb:
Ob deine Prognosen für Nvidia so in Erfüllung gehen, warten wir mal ab, denn anders als auf dem Gamingmarkt gibt es zumindest bei den Autos ordentlich Konkurrenz und Googles Tensorcores sind auch nicht von Pappe.

Ich glaube, abgesehen von der hohen Gewinnmarge, ist das auch einer der Hauptgründe für "datacenter first" -> bei Gaming gibt es nur AMD und da hatte es NVIDIA in den letzten Jahren vergleichsweise leicht.

Bei AI & Co. hingegen ist Intel ja jetzt mit eingestiegen. Dann tümmelt sich da sowieso schon lange Google. Amazon überlegt auch, ob sie möglicherweise mal eigene Hardware anstatt NVIDIA in ihre AWS Cloud für AI Zeug hängen. AMD möchte mit Radeon Instinct mitmischen. Samsung, Apple und Qualcomm machen z.B. dem NVIDIA Jetson Konkurrenz (die basteln jetzt ja auch alle selber Chips für Mobile-AI-Zeug) usw.

D.h. auf dem Feld ist die Konkurrenz schon ziemlich groß; egal ob bei Datacenter, Workstation oder mobilen Geräten / Robotern.
 
Zuletzt bearbeitet:
Meine Güte, ich habe mich gerade durch die Zahlen von der Google I/O gewühlt...das ist noch unglaublicher als erwartet.

Google verbaut intern ja seine eigenen TPUs, anstatt Hardware Dritter einzusetzen.

Google hat die TPU 2.0 in Cluster von bis zu 64 Units gesteckt, die dann im Maximum 11.5 PFlops liefern, d.h. knapp 180 TFlops pro Unit - selbst ein V100 Vollausbau (nur für Tensor-Operations) schafft "nur" bis zu 120 TFlops.

Auf Reddit habe ich gelesen, dass Google die TPU 3.0 in Cluster von bis zu 128 Units steckt und auf der Google I/O hieß es, ein solcher Cluster schafft 100 PFlops im Peak. D.h. eine Unit aufgerundet 800 TFlops. Das ist fast 7x soviel wie eine V100. Unglaublich.

Das heißt vor allem auch, dass Google jetzt im Exascale-Computing angekommen ist. Die haben ja erzählt, dass sie in den großen Rechenzentren mehrere Cluster bündeln; mehrere heißt bei TPU 3.0 sicherlich das sie >= 10 hinbekommen. Damit sind sie im Exascale-Bereich für einen Supercomputer.

Gut klar, nicht Multi-Purpose, sondern mainly für AI, eben halt nur Tensor-Operations...aber trotzdem. Der schnellste Supercomputer der Welt schafft mit über 10 Mio. Cores(!) gerade mal 125 PFlops. Und zieht dabei 12 Megawatt Strom.
 
BestinCase schrieb:
Ab Sommer, was haltet ihr davon ist da was dran?
Die letzten beiden Generationen sind im Q2 2016 und im Q1/Q2 2015 released worden. Da würde auch die aggressive Vermarktungsstrategie zu passen, dass bald was aktuelleres kommt. Immerhin gibt es ansonsten keinen echten Grund, die Karten günstiger anzubieten. Aber im Endeffekt sind das alles Mutmaßungen.
 
Am ende Pascal Refresh und erst Anfang nächsten Jahres kommt die next Gen :)
Kann mir ehrlich gesagt nicht vorstellen das GDDR6 schon ready ist.
 
Zurück
Oben