News Nvidia-Quartalszahlen: Erwartungen an Umsatz und Gewinn erneut übertroffen

Zuletzt bearbeitet:
Erstens hat Nvidia 46% mehr Gewinn gemacht und nicht absolut 13% wie schon mehrfach erwähnt und zweitens hat TSMC in diesem Quartal weniger Gewinn gemacht als im Vorjahresquartal. 1+1 ist immer noch 2.
 
BookerDeWitt schrieb:
Ist denn ein 300mm2-Chip schon Premium?

Ich kaufe keine Quadratmillimeter, sondern ein Produkt. Titan und die schnellen Doppel-GPU Produkte sind nun mal Premiumprodukte.

Und was die restlichen Produkte angeht die du aufzählst, so hatte nVidia sehr oft den Vorteil dass sie die Leistung direkt oder kurz nach Produktrelease auf die Straße gebracht haben, während GCN eher eine Evolution ist wo über die Zeit immer noch Leistung dazugekommen ist. Dazu kamen auch oft die Themen Treiber und Stromverbrauch.

zeedy schrieb:
Haha da haben wir es. Nvidia Karten aussoziert man also mit Premiumprodukten obwohl sie in den selben Fabriken gefertigt werden wie AMD

Hast du überhaupt gelesen auf was ich mich bezogen habe oder war die Tollversuchung zu groß?
 
Zuletzt bearbeitet:
Der Herr sollte mal diese Lederjacke gegen was "schickeres" wechseln...
 
met schrieb:
Erstens hat Nvidia 46% mehr Gewinn gemacht und nicht absolut 13% wie schon mehrfach erwähnt und zweitens hat TSMC in diesem Quartal weniger Gewinn gemacht als im Vorjahresquartal. 1+1 ist immer noch 2.

Umsatz: 1,35 Billionen
Gewinn: 143 Millionen

ihr habt recht. sind nicht 13%. das sind ca. 10%.

in welcher branche 10%-13% gewinn nicht viel sind? IN PRAKTISCH JEDER.
manmanman. wenn man keine ahnung von wirtschaft hat...
 
Q1 2016 134 Millionen Gewinn.
Q1 2017 196 Millionen Gewinn.

Macht 46,2% mehr Gewinn. Hätte man doch nur in Mathematik besser aufgepasst oder alternativ einfach den Artikel gelesen.
 
Hardware_Hoshi schrieb:
Das ist eine andere mögliche Zeitrechnung in der Bilanzierung und nennt sich Fiskaljahr. Kurz gesagt wird der Zeitpunkt genommen, in dem das Finanzjahr in 12 Monaten endet. Im Falle von Nvidia ist es 2017, daher nennen sie es auch Q1/2017. Das kann für nicht-BWLer verwirrend sein, ist jedoch buchhalterisch absolut in Ordnung.

AH, vielen Dank!
 
met schrieb:
Macht 46,2% mehr Gewinn. Hätte man doch nur in Mathematik besser aufgepasst oder alternativ einfach den Artikel gelesen.

Bei gesteigerten Umsatz, macht also im Verhältnis zwischen Umsatz und Gewinn doch wieder kaum was aus. Somit bleibt nur wieder die Marge von um die 10% aus und die ist in jeder Sparte nicht gerade viel.
 
Super, freut mich jedesmal zu hören :)
 
tomasvittek schrieb:
Umsatz: 1,35 Billionen
Gewinn: 143 Millionen

ihr habt recht. sind nicht 13%. das sind ca. 10%.

in welcher branche 10%-13% gewinn nicht viel sind? IN PRAKTISCH JEDER.
manmanman. wenn man keine ahnung von wirtschaft hat...

Quatsch. 13 % können verdammt viel sein, wenn der Markt schwächelt. Und selbst wenn es gerade ein Hoch gibt, kommt es immer noch darauf an, wieso der Gewinn so "niedrig" ausgefallen ist. Hat man vielleicht schon einige Investitionen vollzogen, hat man Verluste aus einer anderen Sparte....
 
met schrieb:
Erstens hat Nvidia 46% mehr Gewinn gemacht und nicht absolut 13%

Wie kommst du darauf? Wenn man den Umsatz von 1305 Millionen nimmt und den Gewinn von 196 Millionen, dann sind das 15,019 Prozent.
 
@strex
Rechne uns doch mal bitte vor was du uns sagen willst.
Unterm Strich stehen 46% Gewinnsteigerung zum Vorjahresquartal während TSMC weniger Gewinn gemacht hat und Nvidia gleichzeitig bereits Kosten für die Entwicklung von Pascal hatte. Tut mir Leid aber viel besser kann ein Quartal für Nvidia gar nicht laufen.

@DocWindows
siehe 5 Posts weiter oben.
 
Zuletzt bearbeitet:
flappes schrieb:
Wo denn bitte? Ich geb 200 vielleicht 250 Euro aus, wo liefert nvidia mir denn da vor AMD eine Karte der neuen Generation aus?

letzte Generation wo AMD zuerst am Start war, war die 7xxx Generation(ca 1/2 Jahr vor Nvidia) danach kamen die Karten später auf den Markt oder hatten mit Lieferengpässen zu kämpfen.
Mal davon abgesehen das neue Generation im Mittelklasse Segment ein ziemlich schwammiger Begriff ist...
 
jbauer schrieb:
Mantle ist mausetot. Freesync ist nutzlos für die meisten Anwender, da man sich dann auf einen Hersteller festlegen muss, in dem Fall auch noch auf den kleineren Hersteller, der sogar eventuell nicht mehr das Jahr 2017 erlebt.




Natürlich verkauft AMD zu billig, sie können mit den Preisen ja nicht einmal ihre Kosten decken und fahren Quartal für Quartal stetig heftige Verluste ein. Dass sie trotzdem ihre Produkte so billig anbieten müssen, um überhaupt was zu verkaufen liegt halt daran, dass ihre Produkte halt einfach zu nicht gut genug sind, um noch mehr Geld dafür zu verlangen.
Und Nvidia verkauft nicht zu teuer, da sie ja offenbar ihre Produkte wie geschnitten Brot verkaufen können ist der Preis genau richtig. Warum sollten sie unter Preis verkaufen?



Ein Hurra auf den Sozialismus! Belohnen wir doch den, der sich Fehlentwicklungen, Misswirtschaft, falsche Entscheidungen usw. in den Ruin treibt, und bestrafen den, der gute Produkte mit guter Leistung zu guten Preisen anbietet. Das ist ganz bestimmt richtig vorteilhaft für den Kunden!




Gewinn zu machen ist ja das Ziel eines Unternehmens.
Davon abgesehen machen ein paar Rücklagen das Investieren in neue Technologien ein wenig leichter. Steuern kommen der Allgemeinheit zu Gute. Und zu guter letzt wollen die Aktionäre ja auch vielleicht mal ein wenig Dividende sehen.
Gefällt mir zumindest besser als der Weg von AMD, die einfach Geld für Zinszahlungen den Banken in den Rachen werfen, davon hat keiner was (außer den Banken).



Hätte, hätte, hätte ... AMD hatte ja die Resourcen, hat nur sehr erfolgreich alles daran gesetzt, diese sinnlos zu verschwenden.
In jedem Belangen scheint mir da ein Spezialist zu sprechen. Wenn du scheinbar ganz konkret weißt, dass AMD die Ressourcen hatte, dann bestimmt auch in welchem Zeitraum und wohin diese anschließend verschwendet wurden. Ich lasse mich gerne "aufklären" :)

Am Rande als Notiz, nur weil Mantle "mausetot" ist erleben wir Vulkan und DX12. Und weil AdaptiveSync so nutzlos ist, steht das Marktverhältnis bei Monitoren bei ca. 60 vs. 24 für FreeSync (+ der ca. 30 noch nicht erhältlichen Monitore).

Weil der "kleine" Hersteller lt. dem "Spezialisten" evtl. sogar 2017 nicht mehr miterleben könnte, setzen auch viele unwissende und dumme Unternehmen wie Sony, Microsoft, Nintendo, Apple auf neue Hardware des kleinen Herstellers.
Ich könnte mir vorstellen, dass diese dummen Unternehmen über eine aufklärende Marktanalyse deinerseits sehr dankbar wären. Du könntet nebenbei bestimmt viel Geld verdienen...

Besonders der Teil mit den nicht konkurrenzfähigen Produkten bei AMD gefällt mir ganz gut. Du könntest neben der Tätigkeit als Finanzanalyst auch bei Nvidia im Marketing arbeiten, dann verdienst du gleich viel mehr Geld!
 
Zuletzt bearbeitet:
@met
Ändert aber nichts an der Gesamtmarge denn die ist vom Umsatz abhängig. Und nur die ist interessant wenn man sagen will, dass NV überdurchschnittlich viel verdient bzw. den Kunden zu viel Geld aus der Tasche zieht. Also rechnen wir mal:

Q1 2017: 14,51%
Q1 2016: 11,65%

Im Vergleich, TSMC:
Q1 2016: 31,84%
Q1 2015: 35,65%

In Summe sind also 10 bis 15% kaum eine Marge die nennenswert wäre bzw. als viel zu hoch ist.

--

Wer hier bei einer Marge bei um die 10 bis 15% jammert, darf ab sofort aber gar nichts mehr kaufen. Denn so viel nehmen die anderen, egal in welcher Branche, ebenfalls:

McDonalds, 2015 mit Marge von 17,70%. Also schnell schreien das die viel zu viel nehmen.
Google, 2015, Marge von 25,12% - also schnell Android boykottieren.
H&M, 2015, 11,55% - nicht kaufen!
Nestle, 2015, 15,77% - keine Fertigpizza kaufen!
Intel, 2015, 20,63%.
Samsung, 2015, 11,19%.
NV, 2015, 13,47% - man nehmen die viel mehr als andere Firmen.
AMD, 2011, 7,47%.
WD, 2015, 10,05%.
Telekom, 2015, 4,66%.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Ich kaufe keine Quadratmillimeter, sondern ein Produkt. Titan und die schnellen Doppel-GPU Produkte sind nun mal Premiumprodukte.

Und was die restlichen Produkte angeht die du aufzählst, so hatte nVidia sehr oft den Vorteil dass sie die Leistung direkt oder kurz nach Produktrelease auf die Straße gebracht haben, währen GCN eher eine Evolution ist wo die Leistung Stück für Stück zugenommen hat. Dazu kamen auch oft die Themen Treiber und Stromverbrauch.

Um aufs Thema zurückzukommen:

Deine Behauptung war, dass nVidia keine überteuerten Preise für ihre Chips verlangt.

GP104 ist upper-Mainstream, wird aber ein paar Wochen oder Monate für High-End-Preise verkauft, bis Konkurrenz und Big-Chips den Preis senken werden. Legitim aus Firmensicht, aber melken des Kundens, etwas, was du bestreitest. Auch bei Kepler sieht man, dass nVidia ihre Chips teurer verkauft als mittlerweile merklich bessere Konkurrenzprodukte und somit in der Definition "überteuert" ist.

#qed
 
berkeley schrieb:
Und weil AdaptiveSync so nutzlos ist, steht das Marktverhältnis bei Monitoren bei ca. 60 vs. 24 für FreeSync (+ der ca. 30 noch nicht erhältlichen Monitore)

Und was nützt mir Adaptive Sync wenn die Refreshraten der Monitoren nur in den seltensten Fällen in einem sinvollen Bereich liegen, oder andere Pferdefüße haben (Umschalter zwischen High und Low Range? wtf?). Bei manchen Modellen werden die Arbeitsbereiche von Adaptive Sync nicht mal angegeben. Das Problem ist nicht dass Adaptive Sync nutzlos wäre, das Problem ist, dass der Standard zu schwammig formuliert wurde und jeder macht was er will, bzw. nur das Nötigste um einen zusätzlichen Aufkleber auf dem Karton anbringen zu können. In der Theorie gut, in der Praxis nicht wirklich.

BookerDeWitt schrieb:
Deine Behauptung war, dass nVidia keine überteuerten Preise für ihre Chips verlangt.

GP104 ist upper-Mainstream, wird aber ein paar Wochen oder Monate für High-End-Preise verkauft, bis Konkurrenz und Big-Chips den Preis senken werden. Legitim aus Firmensicht, aber melken des Kundens, etwas, was du bestreitest. Auch bei Kepler sieht man, dass nVidia ihre Chips teurer verkauft als mittlerweile merklich bessere Konkurrenzprodukte und somit in der Definition "überteuert" ist.

Vergleich doch einfach mal die GTX 1070 und 1080 mit den absehbaren Konkurrenten GTX 980(ti) und der Titan und dann begründe mal warum die Preise überteuert sind.

GTX 1070 hat 2 GB mehr Speicher als 980Ti, in etwa die gleiche Performance, verbraucht 100W weniger Strom und kostet wahrscheinlich 100 Euro weniger. Ich sehe da in der Tat keine überteuerten Preise. Schon gar nicht bei 1080 vs. Titan.

Verlangst du dass nVidia die neuen Karten jetzt günstiger anbietet, weil in 8 Monaten Big-Chips rauskommen? Dann kannst du auch gleich verlangen dass die Big-Chips günstig angeboten werden müssen weil danach irgendwann Volta kommt.

PS: Im Gegensatz zu einer Milchkuh kann sich ein Grafikkartenkäufer frei entscheiden ob er gemolken werden möchte oder nicht. Ich gehe davon aus dass jeder Mensch nicht nur einen Kopf hat damit es oben nicht reinregnet.
 
Zuletzt bearbeitet:
berkeley schrieb:
In jedem Belangen scheint mir da ein Spezialist zu sprechen. Wenn du scheinbar ganz konkret weißt, dass AMD die Ressourcen hatte, dann bestimmt auch in welchem Zeitraum und wohin diese anschließend verschwendet wurden. Ich lasse mich gerne "aufklären" :)

Am Rande als Notiz, nur weil Mantle "mausetot" ist erleben wir Vulkan und DX12. Und weil AdaptiveSync so nutzlos ist, steht das Marktverhältnis bei Monitoren bei ca. 60 vs. 24 für FreeSync (+ der ca. 30 noch nicht erhältlichen Monitore).

Weil der "kleine" Hersteller lt. dem "Spezialisten" evtl. sogar 2017 nicht mehr miterleben könnte, setzen auch viele unwissende und dumme Unternehmen wie Sony, Microsoft, Nintendo, Apple auf neue Hardware des kleinen Herstellers.
Ich könnte mir vorstellen, dass diese dummen Unternehmen über eine aufklärende Marktanalyse deinerseits sehr dankbar wären. Du könntet nebenbei bestimmt viel Geld verdienen...

Besonders der Teil mit den nicht konkurrenzfähigen Produkten bei AMD gefällt mir ganz gut. Du könntest neben der Tätigkeit als Finanzanalyst auch bei Nvidia im Marketing arbeiten, dann verdienst du gleich viel mehr Geld!

Ich bin zwar nicht angesprochen, äußere mich aber dennoch:
AMD (bzw. ATI) hatte immer mal wieder das, zum Teil auch deutlich, bessere Produkt. Genauso wie bei der CPU-Sparte wurden die daraus generierten Gelder aber nicht umgesetzt, zum Beispiel in aggressive und zielführende Werbung.

Ja, es gibt derzeit mehr FreeSync-Monitore als G-Sync-Monitore. Und trotzdem verdient ausschließlich nVidia direkt durch den Monitorverkauf Geld, denn sie lassen sich ihr Modul bezahlen. AMD hingegen hatte ebenfalls Entwicklungskosten, gibt die Technologie aber kostenlos weiter.

Ja, PS4 und XBox One laufen mit AMD. Warum? 1) AMD kann ein Gesamtpaket liefern, nVidia konnte das damals zumindest nicht. 2) Das ist ein extrem hartes Geschäftsumfeld und nVidia hat aus vorherigen Erfahrungen gelernt, dass man dort eben nicht einfach nur nebenbei Geld druckt.
Die aktuellen Zahlen von AMD zeigen dann auch, dass es gerade in dieser Sparte Probleme gibt - nämlich sinkende Gewinne (oder sogar Verluste?) durch verringerten Absatz und dadurch auch geringere Preise.

So zieht sich das weiter: Mantle etc. haben in der Entwicklung sicher eine Menge Geld gekostet. Und dann wird die Technologie praktisch verschenkt.



Wo liegt nVidia vorne? Unter anderem bei Linux-Treibern, und zwar so, dass sie dort eigentlich die einzige Wahl bieten.

AMD investiert falsch und setzt die daraus resultierenden Ergebnisse dann auch noch schlecht um. Ja, hier im Forum und in anderen Foren wird AMD gefeiert, denn sie sind nicht nur der Underdog (ein total dummer und irrationaler Fanboy-Grund), sondern sie setzen tatsächlich stärker auf eine freie Verbreitung von Technologien. Das bringt aber kein Geld!


Dummerweise hat AMD seine Kundschaft mittlerweile folgendermaßen erzogen:
1) Zusatzleistungen müssen kostenlos sein (FreeSync, Mantle, whatever)
2) Die Karten müssen günstig sein (siehe Marktanteile Fury-Serie)
3) Auf keinen Fall irgendeine Art von Skandal bzw. "Marketingtrick"

Und nVidia? Die scheißen darauf. Warum? Weil die Kunden keine so hohen Erwartungen haben. Und das wiederum ergibt sich aus der Untätigkeit und Unfähigkeit AMDs in wirtschaftlichen Belangen - eben gerade nicht aus der reinen Hardwarequalität.

Jetzt könnte man sich natürlich über nVidia und nVidia-Kunden lustig machen. Das ist legitim. Gleichwohl ändert das rein gar nichts an dem Fakt, dass nVidia Gewinn erzielt - und AMD nicht.


Edit:
Ich habe mir übrigens G-Sync zugelegt weil es damals klar die bessere Technologie war und wohl auch immer noch ist. 30-144Hz. Ohne Frickelei. Mir ist aber auch einfach egal ob so ein Monitor 300€, 500€, 850€ (x) oder 1500€ kostet. Ich denke aber auch, dass jemand, der sich das nicht leisten _kann/möchte_, dann eben auch niedrigere Ansprüche haben sollte.
 
strex schrieb:
Im Vergleich, TSMC:
Q1 2016: 31,84%
Q1 2015: 35,65%

Genau anders herum:
Q1 2015: 35,65%
Q1 2016: 31,84%

Also wie ich bereits schrieb: Nvidia = Gewinn und Umsatzsteigerung. TSMC = Gewinn und Umsatzrückgang. Wachstum gegen Rückgang. Der Anteil des Gewinns am Umsatz interessiert den jeweiligen Anleger einen feuchten Dreck.
 
met schrieb:
Genau anders herum:
Q1 2015: 35,65%
Q1 2016: 31,84%

strex schrieb:
Im Vergleich, TSMC:
Q1 2016: 31,84%
Q1 2015: 35,65%

Die richtigen Zahlen stehen beim richtigen Jahr, was soll da falsch sein..

met schrieb:
Also wie ich bereits schrieb: Nvidia = Gewinn und Umsatzsteigerung. TSMC = Gewinn und Umsatzrückgang. Wachstum gegen Rückgang. Der Anteil des Gewinns am Umsatz interessiert den jeweiligen Anleger einen feuchten Dreck.

Es geht ja nich um die Anleger, sondern um die die schreien das NV dem Kunden zu viel Geld aus der Tasche zieht. Das wurde durch meine Zahlen deutlich widerlegt.
 
Zurück
Oben