News Turbulentes Quartal: Nvidias Aktie stürzt nach Umsatzwarnung ab

Simanova schrieb:
Das einzigste was sich hier abkühlt, ist das Verständnis für Gaming-Grafikkarten im 4 oder 5 stelligen Bereich.
Ich habe das mal angepasst, anders konnte und wollte ich das nicht stehen lassen ;)

Wobei ich jetzt keine Streit losbrechen möchte, ob prof. Gaming als Einnahmequelle eine GPU im 4. stelligen Bereich rechtfertigt oder nicht...
ZeroZerp schrieb:
Deswegen muss man davon ausgehen, dass es sich bei der Bezeichnung Marge eben nicht um das in Abhängigkeit mir dem Absatz stehende Produkt der Gesamtmarge handelt, sondern um die Marge auf das Einzelprodukt.
gerade erst gelesen...angenommen du hast Recht, dann lässt das tief blicken. Wenn die Marge bei Turing trotz Preissteigerung gesunken ist, dann kann ja nur die Ausbeute infolge der gigantischen Chipflächen absurd schlecht sein. Im Grunde ein doppelter Reinfall für Nvidia...weniger verkauft einheiten bei weniger Marge. Mir erscheint die Annahme verkehrt. Ich halte es eher für realistisch, dass Fixkosten auf weniger verkaufte Einheiten heruntergebrochen werden müssen, insb. die hochpreisigen 2080Ti & Tesla Modelle. Letzteres ist ja sogar bestätigt.
 
@Zero laß mal gut sein. Viel wichtiger ist, dass NVidia nicht auch noch zum Übernahmekandidaten für Intel oder irgendeinen Chinesen wird. Dann jaulen auch in ein paar Jahren wieder alle. NVidia sieht in diesem Forum grad keinen Stich, weil die nötige Umsetzung der neuen Technologie bisher nur in BFV erfolgreich war und da will es kein normaler User. Ich bin auch sauer, dass SOTR kein Raytracing gebracht hat. Überlege ob ich das Spiel noch zurückgeben kann. Hoffe mal Metro macht es besser, aber auch da heißt es schon wieder Info über RTX kommt gesondert..... Sieht Alles nicht so gut aus, muß man akzeptieren. Da muß jetzt keine Grundwerte Debatte über Verwendung von Einkommen gegeführt werden, schon gar nicht in einem Hardware Forum. Gut, dass die RTX2080 mehr kann als nur RTX. Wobei dann war sie schon sehr teuer, wenn da nichts mehr kommt.
 
Revan1710 schrieb:
Klar - mit einem Budget von 300€ für die GPU muss man sicherlich noch nicht aufs Gamen verzichten. Dass ich damit aber dann schon nach Gebrauchtware/alter Hardware schauen soll, was ich zuvor nie habe tun müssen, lässt doch einen bedenklichen Trend erkennen.
Du kriegst aber ja z.B. noch die 1060 mit 6GB auch für 250,-€ damit kann man auch noch einiges ausrichten. Und schliesslich für den Einsteiger eine 1050, die ja auch ziemlich beliebt ist. Geschmäcker und Ansprüche sind verschieden. Die Konsoleros geben sich oft ohne großem Trara z.B. noch mit Frameraten von um die 30Hz und teils auch drunter zufrieden.

Und wie gesagt- 980TI Leistung, die zum Erscheinen 750,-€ gekostet hat, bekommt man jetzt für 370,-€ somit ist der Trend eben nicht so eindeutig, wie es hier dargestellt wird.
Oder anders (auch schon mal geschrieben) die 1060 hatte einen UVP von 320$ die 2060, die 60% schneller ist von 340$ - Was so ziemlich dem reinen Inflationsausgleich in 2,5 Jahren entspricht. Sie ist also im Grunde genommen überhaupt nicht teurer sondern nur deutlich schneller geworden zusätzlich zum neuen Feature- Gedöns.

Aber das reicht vielen Usern offenbar auch nicht- Natürlich. Die wollen es immer noch günstiger und noch schneller.
Anhand obiger Betrachtungsweise sollte aber jedem klar sein, warum ich persönlich das aber in die Kategorie überzogene Ansprüche einordne.

Es gibt massig alternativen auch für die Anhänger des roten Lagers und wohl bald auch einen 2080 RTX konkurrenten (zumindest in der Rasterleistung).

Ich persönlich sehe da deswegen auch nicht so schwarz und kann auch keine groß neuartige Tendenz erkennen.
Es gab immer schon mal zwischendurch Karten, die teuer waren, weil sie maximal geleistet haben (z.B. 4850X2 - 600$ UVP zzgl. Steuer, GTX 295 - 500$ UVP zzgl. Steuer, die GTX 880Ultra 830$ UVP zzgl. Steuer, Geforce 2 Ultra 1400DM inkl. Steuer in Deutschland, Arez Strix Vega 64 830$ UVP zzgl. Steuer).
Ich war jeweils immer froh, dass es diese Karten gibt, auch wenn ich sie mir nicht leisten konnte/wollte und wäre im Leben nicht auf die Idee gekommen, da einen Trend, geschweige denn den Untergang des Casual Gamings deswegen zu prognostizieren.

Dass auch in anderen Bereichen alles teurer wird ist genauso kritikwürdig wie hier und muss genauso mit geringerer Nachfrage durch den Kunden abgestraft werden. Aber du vertritts ja die Meinung, dass das der natürliche Lauf der Dinge und hinzunehmen ist, damit trägst du lediglich dazu bei, dass alles noch teurer wird.
Wie oben bereits erwähnt gibt es eine natürliche Inflation und das Rad aus höherem Verdienst, höheren Abgaben, kalter Progression verrichtet ihr Werk unmerklich aber stetig.

Diese Preisrechtfertigung könnte 1:1 aus dem Nvidia-Marketing stammen. Du kannst doch nicht ernsthaft glauben, dass Nvidia hier nicht den Gewinn maximieren will und alles nur den bösen Umständen geschuldet ist.
Unabhängig davon gibt es auch News in die andere Richtung (z.B. billigerer Ram, Flash).
Ein Unternehmen hat das natürliche Bestreben, Gewinne zu maximieren bzw. die Reizschwelle des Käufers zu treffen, dass dieser den Kauf abschliesst.
Der Käufer hat wiederum das Bestreben für das maximum für lau zu erhalten. Dazwischen läuft dann das Angebot/Nachfragespielchen ab.


Natürlich ist es das zu Anfangszeiten, ein Auto war auch nicht von Tag 1 an ein Massenprodukt. Aber wieso soll diese Entwicklung rückläufig sein? Ist es für dich auch völlig normal, wenn in 10 Jahren nur noch jeder 10te Deutsche ein Auto fährt, wo es heute noch mehr als die Hälfte ist? (Abgesehen von Klimakatastrophe o.ä. :D)
Bei den Automobilen/dem Verkeh wie in der Fertigung von IT Komponenten gibt es nunmal auch äußere Faktoren (einen hast Du angesprochen), die uns in Zukunft dazu zwingen werden das Verkehrssystem anders zu organisieren. Das wird auch zwangsweise teuer von jedem hier bezahlt und zukünftig noch teurer bezahlt werden.

Im übrigen kostete bei Erscheinen der Golf 1 ungefähr 7000€. Jetzt zahlst Du für den neuen Golf 8 knapp 20.000€, obwohl das Ding auch nichts anderes macht, als Dich von A nach B zu bringen und die inzwischen hochautomatisierte Fertigungstechnik eigentlich dafür sorgen hätte müssen, dass der ganze Autospaß eher günstiger als Teurer wird. Wie bei der Grafikkarte auch unterscheidet sich aber z.B. das Featureset ;)

LG
Zero
Ergänzung ()

pietcux schrieb:
@Zero NVidia sieht in diesem Forum grad keinen Stich, weil die nötige Umsetzung der neuen Technologie bisher nur in BFV erfolgreich war und da will es kein normaler User.
Exakt

Ich bin auch sauer, dass SOTR kein Raytracing gebracht hat. Überlege ob ich das Spiel noch zurückgeben kann.
Frag mal- NVIDIA hat ja letzte Woche ein Statement abgegeben, dass das RTX Update in Kürze folgt.
Dennoch wird auch da die Performance aufgrund der Art der Shadernutzung von SOTR auch mit hoher Wahrscheinlichkeit keine neuen FPS Rekorde aufstellen.

Da hat sich in diversen Interviews Herr Schied vom Quake 2 Pathtraced Projekt schon drüber ausgelassen, warum es eine schlechte Idee ist, den heutigen Shadermonstern unter Beibehaltung der ursprünglichen Renderpipelines noch das Raytracing unterjubeln zu wollen.
Nicht etwa, weil die Raytracing- Leistung der RT Einheiten zu niedrig wäre. Die ist wohl sogar überdimensioniert. Nur können die inzwischen Ultrakomplexen Shader mit ihren tausend Tricksereien auf klassischem Wege keine Timeslots für die Ausführung der für RT notwendigen Hit- Shader mehr finden.

Hoffe mal Metro macht es besser, aber auch da heißt es schon wieder Info über RTX kommt gesondert..... Sieht Alles nicht so gut aus, muß man akzeptieren.
Wie gesagt- Die Entwickler werden Blut und Wasser schwitzen, weil sie bemerken, dass das mit der Vernetzung der klassischen Rasterisierung unter Beibehaltung der "alten" Renderpipelines nicht so funktioniert, wie sie sich das vorgestellt haben.
Sie scheinen ebenso ein Problem mit dem Entrauschen durch die Tensor- Cores zu haben, was ja eine der Säulen darstellt, um die RT Technik überhaupt erst performant und qualitativ hochwertig zu machen. Stattdessen schiebt man auch das auch noch zusätzlich auf die überlasteten Shader.

Fail

Da muß jetzt keine Grundwerte Debatte über Verwendung von Einkommen gegeführt werden, schon gar nicht in einem Hardware Forum.
Ich kann es nunmal nicht ausstehen, wenn sich Leute über andere erheben und ihnen erklären wollen, wofür sie ihr Geld ausgeben dürfen und wofür nicht (wenn es in ihren Augen schändlich ist).
Jeder kann hier tun und lassen und kaufen was er will, esseidenn er richtet damit Schaden im Umfeld an.
Jeder ist mündig und frei in seiner Entscheidung.

Hier wird der NVIDIA Käufer als Unterstützer des Bösen gebranntmarkt, der daran schuld sei, dass die Preise in die Höhe getrieben werden.

Hier wird diesbezüglich dermaßen polemisiert und moralisiert (deshalb auch meine Argumentationen dahingehend), dass man teils wirklich nur noch den Kopf schütteln kann.

Gut, dass die RTX2080 mehr kann als nur RTX. Wobei dann war sie schon sehr teuer, wenn da nichts mehr kommt.
1080 TI 699$ UVP zzgl. Steuer / 2080 799$ UVP zzgl. Steuer.
Gleiche Leistung in klassischen Szenarien, 3GB weniger VRAM dafür neues Featureset.

Das ist in der derzeitigen Situation also ein eher schlechter Deal, der sich zukünftig aber als guter Deal entpuppen kann. Wer jetzt schon spaß an RT hat, braucht diesbezüglich wiederum auch nicht lange nachzudenken.

Grüße
Zero
Ergänzung ()

Begu schrieb:
Mir erscheint die Annahme verkehrt. Ich halte es eher für realistisch, dass Fixkosten auf weniger verkaufte Einheiten heruntergebrochen werden müssen, insb. die hochpreisigen 2080Ti & Tesla Modelle. Letzteres ist ja sogar bestätigt.
Möglich- Wie gesagt wäre es dann aber eine zwingend logische Folge aufgrund des Umsatzeinbruchs bzw. der Gewinnwarnung gewesen.
Dann hätte man das im Normalfall nicht gesondert erwähnen müssen/sollen, da es sonst zur Interpretation einlädt.

Wie Du bereits sagtest, ist es eben (für mich) auch nicht unwahrscheinlich, dass die Ausbeute der dicken Chips niedrig und die Produktionskosten unverhältnismäßig hoch sind und man schon in gewisser Weise eine dem Absatz nicht zuträgliche Preisgestaltung fahren muss- Und das im Wissen einen Teil der Kundschaft vor den Kopf zu stoßen.
Wahrscheinlich kotzt NVIDIA im Hintergrund gerade im Strahl ;)

Vielleicht ists auch ein Übersetzungsfehler. So oder so. Scheint gerade nicht so gut zu laufen für unsere beiden Grafikkartenschmieden.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Such dir doch selber einen Preistrend raus. Geizhals ist dafür ne gute Anlaufstelle.
Seit Anfang Januar haben viele Modelle (gerade Vega 56) enorm nachgegeben.

Du hast die Behauptung doch aufgestellt. Dann belege sie doch auch. Oder besteht die Gefahr, dass deine Behauptung falsch ist?
Ergänzung ()

DocWindows schrieb:
Ich habe meine Quelle genannt. Mehr kann ich nicht tun. Wer die nicht anschauen möchte solls halt lassen.

Welche Quelle denn? Auf welcher Basis stellst du diese Behauptung auf.

Wenn du deine Behauptung nicht belegen kannst, ist sie wohl einfach falsch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
ZeroZerp schrieb:
Du kriegst aber ja z.B. noch die 1060 mit 6GB auch für 250,-€ damit kann man auch noch einiges ausrichten.
Wie gesagt: alte Hardware. Nach 2,5 Jahrem immernoch keine Alternative zur 1060 in diesem Preisbereich

Oder anders (auch schon mal geschrieben) die 1060 hatte einen UVP von 320$ die 2060, die 60% schneller ist von 340$ - Was so ziemlich dem reinen Inflationsausgleich in 2,5 Jahren entspricht. Sie ist also im Grunde genommen überhaupt nicht teurer sondern nur deutlich schneller geworden.

Die 1060 hatte einen UVP von 249 $, die 2060 349 $ - Das sind mal satte 40 % Preisauflschlag. Mit Inflationsaufschlag hat das lange nichts mehr zu tun.

Ein Unternehmen hat das natürliche Bestreben, Gewinne zu maximieren bzw. die Reizschwelle des Käufers zu treffen, dass dieser den Kauf abschliesst.
Der Käufer hat wiederum das Bestreben für das maximum für lau zu erhalten. Dazwischen läuft dann das Angebot/Nachfragespielchen ab.
Ich dachte, es hat nichts mit Gewinn zu tun, sondern mit Inflation, gestiegene Kosten etc. ? Aber deine Reizschwelle scheint ja sehr hoch zu sein. Deinen Beiträgen nach ist jede Turing-Karte nicht einen Cent zu teuer - ein Kunde den sich jedes Unternehmen wünscht, aber nur zu deinem eigenen Nachteil

Im übrigen kostete bei Erscheinen der Golf 1 ungefähr 7000€. Jetzt zahlst Du für den neuen Golf 8 knapp 20.000€,
Den Golf 8 solls ab 18.000€ geben und der passende Vergleich wäre der Golf 7, den es ab ~17.000 € gab. Das macht dann 5 % Aufpreis zum Vorgänger, bei der Inflation über 7 Jahre
 
  • Gefällt mir
Reaktionen: Casillas
Bin das erste mal eine Grafikkartengeneration übersprungen. Ich unterstütze nicht eine solche Preispolitik. Mal sehen was amd zustande bringt.
 
Revan1710 schrieb:
Die 1060 hatte einen UVP von 249 $, die 2060 349 $ - Das sind mal satte 40 % Preisauflschlag. Mit Inflationsaufschlag hat das lange nichts mehr zu tun.

1548808723975.png


Ich seh von FE zu FE 50$. Keine Ahnung aus welchem der ersten Google- Treffer ich die 249$ rausgezogen hab.
Zieht man die 2% pro jahr Inflation ab sind wie bei einer Steigerung von 11%-12%.

Ich dachte, es hat nichts mit Gewinn zu tun, sondern mit Inflation, gestiegene Kosten etc. ? Aber deine Reizschwelle scheint ja sehr hoch zu sein. Deinen Beiträgen nach ist jede Turing-Karte nicht einen Cent zu teuer - ein Kunde den sich jedes Unternehmen wünscht, aber nur zu deinem eigenen Nachteil

Ja- Es hat auch mit Inflation zu tun, Lohnsteigerungen, Mietpreiserhöhungen, Energiekosten, Fertigungskosten, Rampreisabsprachen und und und.

Und wieder wird hier angefangen mir Worte in den Mund zu legen.
Ich betone immer, dass hier absolutes Fischen im Trüben veranstaltet und das dann als "Fakt" verkauft wird.
Solange Du mir nicht endlich mal die Fertigungskosten pro Einheit nach Abzug aller sonstiger Kosten nennen kannst, halte Dich doch einfach zurück mit Deiner Raterei.

Ich kann, weil ich im Gegensatz zu Dir den Anspruch nicht für mich erhebe über oben angesprochenen Daten zu verfügen, nicht sagen, ob die Grafikkarte überteuert angeboten wird.

Ich kann nur für mich entscheiden, ob die Karte mir einen Preis XY wert wäre oder eben nicht.
Und meine Meinung entgegen Eurer Meinung ist, dass es generell sehr stark im Auge des Betrachters liegen wird.

Wir haben allerdings ein par unumstößliche Indizien für eine reale Verteuerung der Herstellungskosten.

-Die Forschungshistorie in Sachen RT deutet tatsächlich darauf hin, dass das Jahrzehnt an F&E tatsächlich aufgewandt wurde->Erhebliche Kosten, die sich zum Ende der Entwicklung steigern und nicht mehr unbemerkt im Preis der aktuell laufenden Produkte unterkriegen lassen.

-Zudem wurde das Chipdesign maßgeblich geändert, um die neuen Funktionseinheiten sinnvoll miteinander kommunizieren zu lassen -> Gestiegene Kosten.

-Die Verschiebungen und Fertigungsschwierigkeiten bei den aktuellen Strukturverkleinerungen, die AUSNAHMSLOS jede der Foundrys hat machen die Fertigung teurer (https://www.3dcenter.org/news/tsmc-...-fortschritten-bei-der-10nm-und-7nm-fertigung).
https://www.tweakpc.de/news/39319/tsmc-erhebliche-probleme-bei-der-10-nm-fertigung/

-Die Yield- Rate bei einem Riesenchip wie Touring muss aufgrund der Größe, der Transistorzahl und der dadurch gesteigerten Wahrscheinlichkeit eines Defekts signifikant niedriger liegen. https://www.globalspec.com/reference/50021/203279/5-8-chip-size-and-yield

-Die Kapazitäten der Auftragsfertiger waren für Nodes unter 16nm ausgelastet->Hohe Nachfrage, begrenzte Kapazität -> Fertigung wird teurer, was sich aufgrund des zu erwartenden Buhlen um 7nm Fertigungsslots nur weiter verschärfen dürfte (man kann darauf hoffen, dass z.B. Apple Produktionskapazitäten afgrund schwacher Nachfrage nach unten korrigiert, dann entschärft sich die Lage vielleicht):

Für 2019 rechnet TSMC bereits damit, dass der 7-nm-Prozess 20 % der Einnahmen ausmachen sollte. Als erste Kunden, welche bereits auf den neuen Prozess setzen, nennt TSMC natürlich Apple, Huawei aber auch Qualcomm. AMD, Nvidia und Xilinx zählen aber ebenfalls zu den brennenden Interessenten. Für 2019 könnte das für TSMC eine hohe Auslastung und damit auch hohe Einnahmen bzw. Gewinne verheißen.

-Die Kosten für Speicher sind deutlich gestiegen:

Maybe the real killer is the surge of DRAM prices over the last quarters: In May 2017, you pay just €13.41 for GDDR5 @ 3500 MHz at Digi-Key - today you pay €18.88 for the same memory. That's 41% more than 14 month ago. For graphic cards with huge amounts of memory, this +41% on memory prices can make a big difference. Think about a jump in memory size for the upcoming nVidia Turing generation: Usually the vendors use lower memory prices to give the consumer more memory. But if the vendors want to go from 8 GB to 16 GB at these days, they need to pay more than the double amount (for the memory) than last year.
1548810797531.png

GDDR6 Preise nochmal höher (bei Abnahme min. 2000 Einheiten:
1548810880929.png


Das spricht alles nicht dafür, dass der Hersteller die Grafikkarten in der neuen Generation günstiger als vergleichbare Vorgängerprodukte anbieten kann, wie es zusätzlich zur Leistungssteigerung hier laufend eingefordert wird.
Und wenn ich als Hersteller sowieso schon absehen kann, dass ich aufgrund der Fehlkalkulation in Sachen Mining zig Milionen in den Wind blasen muss, dann muss das auch von irgendwo herkommen.

Jetzt kann man wie immer kurzsichtig behaupten "selbst schuld" und "verzockt" jedoch möchte ich auch dabei dran erinnern, dass es die "armen" User waren, die eine massive Produktionssteigerung gefordert haben, weil man ja auch eine Verpflichtung den Gamern gegenüber hätte.
Da mussten die Hersteller auch Shitstorms über sich ergehen lassen, obwohl die Geldgierigen Konsumenten (die ja hier grundsätzlich als die benachteiligten und fremdgesteuerten Lämmer hingestellt werden) sich hier auf Kosten der Allgemeinheit (Gamer) die Taschen vollgestopft haben.

Selbst AMD, die traditionell versuchen in den Preiskampf zu gehen, kommen ja offensichtlich von den gestiegenen Kosten auch nicht wirklich runter: 699$ MSRP für die 2080 Konkurrenz, die es derzeit für 670€ brutto zu kaufen gibt.
Bieten die jetzt auch unverschämt teuer an und zocken die Konsumenten ab?

Unterliegen diese analog der Anschuldigungen von eingen Kandidaten hier an NVIDIA Käufer dieses Produkts dann auch der Gehirnwäsche der Marketingabteilung von AMD, wenn sie sich das zulegen wollen?
Alles eine Verschwörung von NVIDIA und AMD gegen den Konsumenten?

Da kann ja jeder mal in sich gehen und sich seine eigenen Gedanken dazu machen.

Den Golf 8 solls ab 18.000€ geben und der passende Vergleich wäre der Golf 7, den es ab ~17.000 € gab. Das macht dann 5 % Aufpreis zum Vorgänger, bei der Inflation über 7 Jahre
Ja- Aber auch dann hat meine Aussage Gültigkeit, da ich mit meinem Beispiel eine lang anhaltende Tendenz der Verteuerung und nicht nur einen kurzzeitigen Trend aufzeigen wollte.

Deshalb habe ich auch beim Vergleich der Leistungssteigerung/Geldentwicklung die 900er Serie gegen die 2000er Serie gestellt, damit man Generationenübergreifend sehen kann, dass sich die Preis-/Leistung der Karten auch nachhaltig nachwievor verbessert hat, auch wenn hier der eine oder andere ein anderes Gefühl hat.

Grüße
Zero
 
Zuletzt bearbeitet:
@ZeroZerp
warum kommen von dir eigentlich fast ständig nur NVidia Karten als Vorschläge? Siehe:
ZeroZerp schrieb:
Du kriegst aber ja z.B. noch die 1060 mit 6GB auch für 250,-€ damit kann man auch noch einiges ausrichten. Und schliesslich für den Einsteiger eine 1050, die ja auch ziemlich beliebt ist. Geschmäcker und Ansprüche sind verschieden.
Gerade wenn das Geld knapp bemessen ist, würde ich nicht mal im Traum die 1060 vorschlagen so lange die 580 für ~200€ zu haben ist O.o
Die 1050 ist noch absurder im Vergleich zur 570!

Was ich aber viel dringender loswerden möchte (an alle):
SÄMTLICHE Grafikkarten sind Luxusgut!
GAMING an sich ist Luxus!
Uns geht's ziemlich gut hier.

Was aber nicht so ganz richtig ist, ist die Aussage "Gaming war noch nie so günstig wie heute".
Mal Abseits von den Spielepreisen (^^) denke ich da gern an die Zeit um die HD 5870 zurück.
Ja, Gaming als Hobby ist heute erschwinglicher als vor 20 Jahren aber es gab auch schon bessere Zeiten was P/L angeht ;)
Wobei die Einstiegshürde (LoL, Fortnite, etc.) definitiv geringer als je zuvor liegen dürfte.

ZeroZerp schrieb:
Selbst AMD, die traditionell versuchen in den Preiskampf zu gehen, kommen ja offensichtlich von den gestiegenen Kosten auch nicht wirklich runter: 699$ MSRP für die 2080 Konkurrenz, die es derzeit für 670€ brutto zu kaufen gibt.
Bieten die jetzt auch unverschämt teuer an und zocken die Konsumenten ab?
Naja, AMD bietet dafür 16 GB HBM2 :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Acedia23, SIR_Thomas_TMC, Revan1710 und eine weitere Person
Naja.
Auch wenn du bezüglich der steigenden Fertigungskosten im Recht sein solltest, stimmen die Vergleiche nicht ganz.

Zwischen 8 GB GDDR6 und 16 GB HBM2 Speicher, sollte schon noch unterschieden werden. Sowohl von den Kosten als auch von der Dauer der Forschung.

Die finanziellen Möglichkeiten zwischen Nvidia und AMD sind wirklich nicht vergleichbar.
Interessant wäre mal eine Angabe der Ausgaben für das Marketing alleine!

Alle Kosten für Wafer betreffen die Fertigung beim Lieferanten und sind vorab vertraglich über Jahre geregelt.

Ich glaube du solltest einfach nur das Verhältnis zwischen Leistung und Kaufpreis vergleichen.

Dazu die UVP der Vega 7 in Vergleich zu den Turing Straßenpreise zu nutzen, ist auch klar nicht vergleichbar.

Von dem Shrink auf 7nm bei AMD mal ganz zu schweigen.

Lass uns doch einfach mal abwarten, wo die Vega 7 in 3 Monaten preislich steht.
Ich wette, dass die Straßenpreise dann wieder ähnlich zur 2080 sind.

Bezüglich Umsätze / Aktien beider Firmen:

Nvidia: https://www.finanzen.net/bilanz_guv/NVIDIA

AMD: https://www.finanzen.net/aktien/AMD-Aktie
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Sennox schrieb:
@ZeroZerp
warum kommen von dir eigentlich fast ständig nur NVidia Karten als Vorschläge? Siehe:

Gerade wenn das Geld knapp bemessen ist, würde ich nicht mal im Traum die 1060 vorschlagen so lange die 580 für ~200€ zu haben ist O.o
Die 1050 ist noch absurder im Vergleich zur 570!
Ist ein Thread, bei dem es um NVIDIA geht. Zudem will ich aufzeigen, dass selbst die Leute die meinen Markenabhängig sein zu müssen trotzdem eine Wahl nebst den RTX Karten bleibt.

Da ich dieses Lagerdenken nicht im Kopf habe, denke ich auch einfach nicht immer daran, gesondert zu erwähnen, dass es da noch einen Alternativhersteller gibt.
Aber allein dieser Satz von mir
-Derjenige der meint, dass er mit 16GB HBM glücklich wird, soll jubeln, weil AMD das anbietet.
Sollte ja bereits zeigen, dass ich die Diskussion auf einer ganz anderen Ebene sehe, als die der Konkurrenz von Herstellerlagern.

Was ich aber viel dringender loswerden möchte (an alle):
SÄMTLICHE Grafikkarten sind Luxusgut!
GAMING an sich ist Luxus!
Uns geht's ziemlich gut hier.
Danke- Das versuche ich hier unter Anderem vergebens zu vermitteln.

Hier wird aber so getan, als ob die Grafikkartenhersteller einem jetzt zwanghaft das Leben vermiesen, nur weil man jetzt durch den (offenbar auch erzwungenen) Kauf einer High- End Grafikkarte nun auf seinen Fernurlaub verzichten soll.

Das ist schon ein arg verzerrter Blick auf die Realität. Man kann nunmal nicht immer alles haben.
Das war noch nie anders. Und man hat auch keinen Anspruch darauf.

Was aber nicht so ganz richtig ist, ist die Aussage "Gaming war noch nie so günstig wie heute".
Ich beschrieb das so, dass die Preisentwicklung einem U entspricht- Anfangs teuer dann haben wir, solange die Miniaturisierung ohne Probleme weitergetrieben werden konnte mal eine absolute Billigphase gehabt und jetzt zieht es im Schnitt wieder an.
Wobei ich allerdings bleibe ist, dass sich die absolute in Hardware gebundene Preis-/Leistung im Schnitt auch stetig verbessert hat.
Es wird, wenn man einen absoluten Kostenpunkt als Referenz ansetzt für das Geld stetig mehr Rechenleistung geboten.

Und das ganz sehe ich aus diversen Gründen erstmal unabhängig davon, dass die Softwareschmieden die Karten inzwischen immer härter Fordern.

Um eine der absurden Blüten aufzuzeigen, die diebezüglich meine Sichtweise beeinflussen:
https://www.extremetech.com/gaming/282924-denuvo-really-does-cripple-pc-gaming-performance
Da verbrennen die Softwarehersteller einen nicht unerheblichen Teil des Leistungsplus, das die Grafikkarten bringen am Kopierschutz.
Aufgrund solcher Dinge kann man zu dem irreführenden Schluss kommen, dass die neuen Karten dann mit entsprechender "moderner" Software zu lahm sind und Gaming im Verhältnis zur Leistung "teurer" geworden ist.
Aus solchen Sauereien (anders kann man das nicht bezeichnen) kann man also ein schlechtes Preis/Leistungsverhältnis stricken, obwohl NVIDIA überhaupt nichts dazu kann.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
@ZeroZerp
Agreed aber ich glaube bei manchen Usern interpretierst du zu viel Wunschdenken in die Aussagen.
Wenn ich z.B. sage "Die Preise für die RTX Karten sind 'ne Frechheit!", dann meine ich damit nicht dass ich die Karten für lau haben möchte oder High End Gaming nicht mehr als 200€ kosten darf.
Ich meine damit, dass Nvidia hier die Schmerzgrenze massiv überschreitet, ich das erkenne dass sie versuchen auszuloten was geht und mich ganz klar mit einem "nicht für mich" dagegen äußere.

Nvidia ist in meinen Augen wesentlich dreister als AMD, die bei Leibe nicht perfekt oder unschuldig sind! Ich sag nur Umlabelung :D.
Aktionen wie aber die 970, das GPP und das NDA vor einigen Monaten senden in meinen Augen klare Signale und im Zuge dieser Aktionen nun die Preise der RTX Karten noch oben drauf inkl. "it just works!" Märchen verleitet mich dann zu Aussagen á la: Die Preise für die RTX Karten sind 'ne Frechheit! ^^
 
  • Gefällt mir
Reaktionen: Acedia23, Casillas, SIR_Thomas_TMC und 2 andere
ZeroZerp schrieb:
Deshalb habe ich auch beim Vergleich der Leistungssteigerung/Geldentwicklung die 900er Serie gegen die 2000er Serie gestellt, damit man Generationenübergreifend sehen kann, dass sich die Preis-/Leistung der Karten auch nachhaltig nachwievor verbessert hat, auch wenn hier der eine oder andere ein anderes Gefühl hat.
Das ist ja nun kein Gefühl, sondern es ist erst einmal so. Zumindest von Pascal zu Turing.
1548833709366.png

P/L der 2060 ist derzeit schlechter als das der 1060, die RX580 zieht in der Leistungsklasse auf und davon. Und bei der 2080 sah es nicht besser aus.
1548834094640.png

Bzgl. Founders Edition ist der Stand derzeit immer noch so, "nur" die customs sind bzgl. P/L beim Stand der 1080Ti. Aber "verbessert" hat sich bzgl. P/L nach wie vor nichts. Und wehe ihr fangt wieder mit der Diskussion an, "aber damals zum release hat die Karte ABC auch mehr gekostet"...völlig irrelevant. Ich kaufe jetzt und nicht damals. Das gesamte System kann auch nur funktionieren, wenn wir über Jahre kontinuierlich einen drastischen Anstieg an P/L haben. Wo kämen wir hin, wenn P/L eines i9-9900K in etwa auf dem Niveau eines Pentium 166MHz liegen würde?!

Als Konsument sind mir die aufgeführten Gründe übrigens herzlich egal, schade für den Hersteller XYZ. Grundsätzlich finde ich es bedenklich, wenn Konsumenten Preissteigerungen verteidigen. Da läuft doch was nicht richtig, ihr versteht eure Rolle in der freien Marktwirtschaft falsch. (Soziale / ökologische Gründe gelten hier nicht)

ZeroZerp schrieb:
-Die Yield- Rate bei einem Riesenchip wie Touring muss aufgrund der Größe, der Transistorzahl und der dadurch gesteigerten Wahrscheinlichkeit eines Defekts signifikant höher liegen.
ich vermute einen Tippfehler? :confused_alt:
 
  • Gefällt mir
Reaktionen: Casillas, Revan1710 und Blaze1987
Begu schrieb:
Als Konsument sind mir die aufgeführten Gründe übrigens herzlich egal, schade für den Hersteller XYZ.
Ganz ehrlich denke ich, dass das eine ganz natürliche Einstellung ist, genauso wie es dem Hersteller egal sein wird, ob ich beim nächsten Barbesuch auf einen Cocktail verzichte, weil ich eine neue Grafikkarte haben will.

Grundsätzlich finde ich es bedenklich, wenn Konsumenten Preissteigerungen verteidigen. Da läuft doch was nicht richtig, ihr versteht eure Rolle in der freien Marktwirtschaft falsch. (Soziale / ökologische Gründe gelten hier nicht)
Ich verteidige das keineswegs. Sollte NVIDIA ein ineffizienter Laden sein, der ohne irgendwas zu liefern immer dickere Kohle einstreicht, dann muss man sich nicht wundern, wenn die irgendwann pleite sind.

Ich beleuchte nur, dass die Wahrscheinlichkeit aus diversen Gründen hoch ist, dass die Kosten zur Herstellung einer der neuen Platinen nicht unwesentlich in die Höhe gestiegen ist.
Mein Mitleid würde sich arg in Grenzen halten, wenn die bei einer 300$ Karte nach Abzug aller Kosten noch 250$ an Nettomarge hätten.
Wenn sie allerdings an Bereiche unter 20% kommen, dann kann ich verstehen, dass sie mit dem Preis nicht ohne große Schmerzen weiter runterkönnen und muss ihnen keine Böswilligkeit oder Abzocke mehr unterstellen.

Wenn man bedenkt, dass für eine 2060 noch vor Steuern nach dem verlinkten Bericht eines Großlieferanten Kosten von 158$ allein für den GDDR6 Speicher anfallen könnten (dasselbe gilt für einen möglichen Anteil der Kosten HBM2 der neuen AMD Karte), dann kann man davon ausgehen, dass wir eher von Zweiteren von mir oben beschriebenen Fall ausgehen sollten.

Interessant dazu auch:
1548836537067.png


Das sind die reinen Materialkosten und man kann die Tendenz der Kostenentwicklung zwischen der Komplexität der Architekturen ablesen- Das ist nicht gerade wenig.

Ergänzend:

Making the chip is around 40-50$ usually for a CPU/GPU that we use in our systems. Basically fancier the chip is, the more costly it gets.
New manufacturing process also costs more money, and added cost needs to be factored in from totally failed chips produced (that is chips that can't be down clocked, disable form cores and features, and sold as a lower end chip version).


The big cost is R&D. Nvidia spends around 2000 to 3000 engineers working on a new architecture, with an average wage of 100,000$ per year per engineers. That is not counting facility cost, equipment, simulators, HR, management, drivers, marketing, etc.


Nvidia makes most of it's money from the Quadro and Tesla card, because companies can afford to spend more on cards. They do get special features and specs (which costs a lot more), deeper testing, FAR better circuit for the GPU with better processing and components used so that the GPU is able to survive intensive heat, and being under intense load 24/7, especially the Tesla series. All this adds a lot to the cost.

Danke für den Hinweis auf meinen Logikfehler/Tippfehler :)

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Ich seh von FE zu FE 50$

Es macht ja auch wenig Sinn, FE mit FE zu vergleichen und nicht UVP mit UVP (bzw. MSRP), die 1060 FE war besser als das Referenzdesign, bei der 2060 entspricht die FE dem Referenzdesign. Das ist als würdest du den Preis einer übertakteten Custom mit Referenzdesign vergleichen. Aber das Thema hatten wir nun auch schon zig mal.

2% pro jahr Inflation ab sind wie bei einer Steigerung von 11%-12%
Hier polemisierst du schon wieder mit falschen Zahlen. 2 % pro Jahr macht bei 2,5 Jahren 5 % Inflation
Real sind es seit 2016 über 3 Jahre auch etwa 5% (Quelle)

Ich betone immer, dass hier absolutes Fischen im Trüben veranstaltet und das dann als "Fakt" verkauft wird. Solange Du mir nicht endlich mal die Fertigungskosten pro Einheit nach Abzug aller sonstiger Kosten nennen kannst, halte Dich doch einfach zurück mit Deiner Raterei.
Aber deine Behauptung, dass die Kosten so immens gestiegen sind bedürfen keiner konkreter Zahlen zur Untermauerung? Ich habe nie den Anspruch erhoben, dass meine Behauptung ein Fakt ist und es ist durchaus denkbar, dass auch die Kosten gestiegen sind - aber mit Sicherheit nicht annähernd 40 %. Daher halte ich deine Ansicht für sehr einseitig und blauäugig, dass dieser faktisch immense Preisaufstieg nicht mit einer deutlich höheren Marge einherhegeht.

Deiner These zufolge müssten die Preise der 7 nm GPUs ja förmlich explodieren

Ja- Aber auch dann hat meine Aussage Gültigkeit, da ich mit meinem Beispiel eine lang anhaltende Tendenz der Verteuerung und nicht nur einen kurzzeitigen Trend aufzeigen wollte.
Dann schau dir deine lang anhaltende Tendenz bei den GPUs an. Die 60er Modelle gab es immer für 199-249 $ (seit der GTX 460, ältere Modelle habe ich mir jetzt nicht angeguckt). Dass die GPU-Preise also sukzessiv teurer geworden sind über die Jahre ist also schlichtweg falsch -
das waren mit einem Knall 40 % und nicht von Gen zu Gen immer ~10 %
 
  • Gefällt mir
Reaktionen: Acedia23 und SIR_Thomas_TMC
Revan1710 schrieb:
Deiner These zufolge müssten die Preise der 7 nm GPUs ja förmlich explodieren
https://www.extremetech.com/computing/272096-3nm-process-node
https://semiengineering.com/how-much-will-that-chip-cost/

Aber deine Behauptung, dass die Kosten so immens gestiegen sind bedürfen keiner konkreter Zahlen zur Untermauerung?
Siehe Zahlen oben+Zahlen aus dem vorhergehenden Post inkl. Zitat.
Zudem ist immer derjenige in der Beweispflicht, der die Anschuldigung bzw. die Anklage erhebt.

Zur Prozentrechnung:
https://www.math.uni-bielefeld.de/~sek/biomath/stichw/prozent.htm
Du gehst bei Deiner Rechenart fälschlicher Weise davon aus, dass der Grundwert der gleiche bleibt. Der ändert sich aber Jährlich durch den Inflationsaufschlag.

Grüße
Zero
 
Zuletzt bearbeitet:
Revan1710 schrieb:
Daher halte ich deine Ansicht für sehr einseitig und blauäugig, dass dieser faktisch immense Preisaufstieg nicht mit einer deutlich höheren Marge einherhegeht.

Deiner These zufolge müssten die Preise der 7 nm GPUs ja förmlich explodieren
Naja nein, unter anderem hier siehe link haben wir mal etwas über DIE-Preise spekuliert. Am Ende sagten unsere Glaskugeln mehr oder weniger übereinstimmend, dass der Vega7 DIE günstiger sein sollte als das Pendant der RTX2080. Dafür sind die 16GB HBM2 natürlich deutlich teurer als die 8GB GDDR6. Ums kurz zu machen....eine deutlich höhere Marge bei den GPU möchte ich Nvidia noch nicht einmal unterstellen, eher gleichbleibend/minimal höher. Genau das ist aber mein Problem mit Raytracing...Technik schön und gut, aber selbst in der Mittelklasse absurd teuer (DIE-Size!), kaum nutzbar (BF5 exklusiv) und bei der 2060 im besten Fall mittelmäßig nutzbar.
 
hide.me schrieb:
Oder anders gesagt.
Dir sind Mensch und Umwelt egal, Betrug interessiert dich nicht wenn es zu deinem Vorteil ist. Das ist schwer kriminelles Denken was du da an den Tag legst und extrem egoistisch.

um agent smith aus matrix zu zitieren:
bin ich, bin ich, bin ich auch!!

wenn um dich herum haie schwimmen, wirst du das meer als sardine sicher nicht beherrschen.

wobei es schon spannend ist was einem hier so aus einzelnen aussagen angedichtet wird....mensch und umwelt wären mir egal? wo zum geier liest man das den heraus?? :freak:
 
  • Gefällt mir
Reaktionen: pietcux
ZeroZerp schrieb:
Das 7nm Chip-Design kostet also mind. das Doppelte wie die 12nm von Turing. Ergo darf AMD ja dann für Navi 80 % mehr für ihre Navi-GPUs verlangen. Ich bin gespannt, ob dur Recht behälst.

Siehe Zahlen oben+Zahlen aus dem vorhergehenden Post inkl. Zitat
Daraus lese z.B., dass eine 560 Ti 7$ mehr in der Herstellung kostet als eine 460. Das zeigt nur, dass der Kostenantieg vorhanden ist, aber nicht immens groß ist - wie ich es ja auch geschrieben hatte. Aber ohne die Kosten-Aufschlüsselung der Turing-Chips bringt uns das nicht weiter.

Zudem ist immer derjenige in der Beweispflicht, der die Anschuldigung bzw. die Anklage erhebt.
Da machst du es dir aber sehr einfach.

Begu schrieb:
Ums kurz zu machen....eine deutlich höhere Marge bei den GPU möchte ich Nvidia noch nicht einmal unterstellen, eher gleichbleibend/minimal höher

Das kann schon sein. Aber gerade für die 2060 unterstelle ich Nvidia schon eine deutlich höhere Marge, da sie genauso 100$ teurer geworden ist wie die 2080, wobei letztere mit Sicherheit teurer in der Herstellung ist. Und gerade das finde ich in der Budget-Klasse sehr kritikwürdig. Dazu kommt (da bin ich völlig D'accord mit dir), dass dieses Feature auf der 2060 nur bedingt nutzbar ist, was den Aufpreis ja noch weniger rechtfertigt.

ZeroZerp schrieb:
Du gehst bei Deiner Rechenart fälschlicher Weise davon aus, dass der Grundwert der gleiche bleibt. Der ändert sich aber Jährlich durch den Inflationsaufschlag
Die Inflationswerte zu addieren ist nicht ganz korrekt, das stimmt. Ändert aber in dem Beispiel eigentlich nichts:

Bei 2 % p.a. macht das dann bei 3,0 Jahren: (1, 02) ^ 3 = 1, 061 also damit 6,1 %
Bei 2 % p.a. macht das dann bei 2,5 Jahren: (1, 02) ^ 2,5 = 1, 050 und damit 5 %

Du darfst mir gerne erklären, wie du auf deine 11-12 % kommst
 
Zuletzt bearbeitet:
Zurück
Oben