News Nvidia-Quartalszahlen: Erwartungen an Umsatz und Gewinn erneut übertroffen

DocWindows schrieb:
Vergleich doch einfach mal die GTX 1070 und 1080 mit den absehbaren Konkurrenten GTX 980(ti) und der Titan und dann begründe mal warum die Preise überteuert sind.

Du hast völlig Recht. Und zwar ziemlich genau für etwas mehr als einem halben Jahr. Dann kommt der HighEnd-Chip auf den Markt und macht die GTX 1080 zur Mittelklasse. Ich habe es ja schon geschrieben. Nvidia hat Preiserhöhungen von weit über 100% vorgenommen seit Fermi. Und nur dadurch kommen auch diese Quartalsergebnisse zustande.
 
met schrieb:
Q1 2016 134 Millionen Gewinn.
Q1 2017 196 Millionen Gewinn.

Macht 46,2% mehr Gewinn. Hätte man doch nur in Mathematik besser aufgepasst oder alternativ einfach den Artikel gelesen.

In welchem Land/Unternehmen rechnet man denn bitte rein dein Gewinn vom Vorjahr gegen den Gewinn vom aktuellen Jahr?

z.B. bei:
Jahr 1: 1 Million Umsatz / 0,5 Millionen Gewinn
Jahr 2: 2 Millionen Umsatz / 0,6 Millionen Gewinn
würde man sicher nicht froh sein über die reine Gewinnsteigerung um 20%, sondern eher jammern warum die Gewinnspanne plötzlich so im Keller ist.



Die eigentliche Leistung liegt nicht darin den paar Gamern die Produkte schmackhaft zu machen, sondern den OEMs. Der Großteil der Gaming-Grafikkarten dürfte immer noch als Blackbox im Fertig-PC über die Ladentheke gehen.
Man muss dem Fertiger klar machen, dass er mit dem eigenen Produkt am besten fährt. Der Endkunde bekommt dann eben das was in dem Superdupergaming-PC drin ist und wenn das nur ein Zettel mit der Aufschrift "Ätschibätsch" ist.

Edit: Da hilft auch ein XY-Bundle wenig, wenn der Fertig-PC mit Nvidia gekauft wurde, wird man kaum noch extra eine AMD-Karte kaufen, selbst wenn da ein tolles Bundle dabei wäre.
 
Zuletzt bearbeitet:
strex schrieb:
Die richtigen Zahlen stehen beim richtigen Jahr, was soll da falsch sein..
Es geht ja nich um die Anleger, sondern um die die schreien das NV dem Kunden zu viel Geld aus der Tasche zieht. Das wurde durch meine Zahlen deutlich widerlegt.

Ich hätte schwören können das die Bilanzen eben noch bei den falschen Jahren standen. ;)
Nichts desto trotz: Deine Schlussfolgerung teile ich nicht. 14,5% Gewinnanteil am Umsatz ist eine Menge und widerlegt die Aussage überhaupt nicht.
 
met schrieb:
Nvidia hat Preiserhöhungen von weit über 100% vorgenommen seit Fermi. Und nur dadurch kommen auch diese Quartalsergebnisse zustande.

Kannst du das belegen? Ich denke nicht. Schauen wir uns die Zahlen an:

Fermi, Start 2010.

2008: 19,47%
2009: -0,87%
2010: -20,44%
2011: 7,14%
2012: 14,53%
2013: 13,13%
2014: 10,62%
2015: 13,45%

Die wirkliche Marge pendelt also von Jahr zu Jahr immer zwischen 10% und 20%. Ich sehe da keine langfristige Steigerung der Marge um 100% wie du spekuliert hast. Ich sehe da die üblichen Preisanpassungen über die Jahre wie mit jedem anderen Artikel auch.

met schrieb:
14,5% Gewinnanteil am Umsatz ist eine Menge und widerlegt die Aussage überhaupt nicht.

Wenn du meine Zahlen anschaust von anderen Firmen, dann wirst du feststellen das 15% nichts ist.

strex schrieb:
McDonalds, 2015 mit Marge von 17,70%. Also schnell schreien das die viel zu viel nehmen.
Google, 2015, Marge von 25,12% - also schnell Android boykottieren.
H&M, 2015, 11,55% - nicht kaufen!
Nestle, 2015, 15,77% - keine Fertigpizza kaufen!
Intel, 2015, 20,63%.
Samsung, 2015, 11,19%.
NV, 2015, 13,47% - man nehmen die viel mehr als andere Firmen.
AMD, 2011, 7,47%.
WD, 2015, 10,05%.
Telekom, 2015, 4,66%.
 
TrueAzrael schrieb:
In welchem Land/Unternehmen rechnet man denn bitte rein dein Gewinn vom Vorjahr gegen den Gewinn vom aktuellen Jahr?

Vorjahresquartal nicht Vorjahr. Und das ist neben dem Umsatzwachstum die wichtigste Kennzahl eines jeden Börsennotierten Unternehmens. Du scheinst nicht viele Aktien zu besitzen.
 
met schrieb:
Vorjahresquartal nicht Vorjahr. Und das ist neben dem Umsatzwachstum die wichtigste Kennzahl eines jeden Börsennotierten Unternehmens. Du scheinst nicht viele Aktien zu besitzen.

Ob man nun Jahre oder Quartale vergleicht... Wichtig ist nicht der Gewinn, sondern der Gewinn im Verhältnis zum Umsatz.
 
strex schrieb:
Kannst du das belegen? Ich denke nicht.

Der GF114 hat zum Marktstart 249$ gekostet. 332mm² bei 256bit Speicherinterface. Der Komplexitätsgrad ist also vergleichbar mit dem nagelneuen GP104. Ebenfalls um 300mm² bei 256bit Speicherinterface. Kostet zum Marktstart 699$.

Der GF110 hat zum Marktstart 499$ gekostet. 520mm² bei 384bit Speicherinterface. Der Komplexitätsgrad ist also vergleichbar mit dem GK110 oder GM200. 533mm²/601mm² bei 384bit Speicherinterface. Kosteten zum Marktstart 999$.

Rechnen kannst du ja selber. Ach ja GP100 wird auch mit Sicherheit nicht weniger als 999$ kosten. Marktstart Q1 2017 und bereits fertig entwickelt.

Jetzt könnte man natürlich behaupten das die Waferpreise ebenfalls um mehr als 100% gestiegen sind. Komischerweise macht TSMC aber weniger Umsatz und weniger Gewinn. Hmm wo bleibt da wohl das Geld ;)

TrueAzrael schrieb:
Wichtig ist nicht der Gewinn, sondern der Gewinn im Verhältnis zum Umsatz.

Nein wichtig ist Umsatzwachstum und Gewinnwachstum.
 
met schrieb:
Der GF114 hat zum Marktstart 249$ gekostet. 332mm² bei 256bit Speicherinterface. Der Komplexitätsgrad ist also vergleichbar mit dem nagelneuen GP104. Ebenfalls um 300mm² bei 256bit Speicherinterface. Kostet zum Marktstart 699$.

met schrieb:
Jetzt könnte man natürlich behaupten das die Waferpreise ebenfalls um mehr als 100% gestiegen sind. Komischerweise macht TSMC aber weniger Umsatz und weniger Gewinn. Hmm wo bleibt da wohl das Geld ;)

Ähm...

oiger.de schrieb:
Taipeh, 10.1.2012: Die weltweit größte Chip-Foundry „TSMC“ hat im Jahr 2011 Umsätze von rund 427,1 Milliarden Tainwan-Dollar (11,16 Milliarden Euro) realisiert, nur 1,8 Prozent mehr als im Vorjahr.

GF114 war meines Wissens irgendwo um 2011

macerkopf.de schrieb:
The company posted NT$306.57 billion (US$9.15 billion) in net profit for 2015, a 16.2 percent annual increase. TSMC’s 2015 earnings per share was NT$11.82, compared with NT$10.18 the previous year, and its consolidated sales rose 10.6 percent to NT$843.497 billion, it said.

Kurz:
2011 -> NT$427,1 Umsatz
2015 -> NT$843,5 Umsatz

Scheint doch fast doppelt so viel zu sein. Edit: Konnte übrigens auf die Schnelle keine USD Werte oder Gewinne für 2011 herum finden.

met schrieb:
Nein wichtig ist Umsatzwachstum und Gewinnwachstum.

Es ging um Preise! Und da hilft es mir gar nichts, wenn ich den Gewinn von Quartal A mit Quartal B vergleiche ohne den Umsatz mit einzubeziehen. Auch wenn man die Umsätze mit einbezieht, kann man immer noch keine Schlüsse auf die Preisgestaltung ziehen, aber ohne diesen schon gar nicht.
 
Zuletzt bearbeitet:
met schrieb:
Nein wichtig ist Umsatzwachstum und Gewinnwachstum.

Du kannst das Gewinnwachstum aber nicht separat vom Umsatzwachstum betrachten, sondern musst beides ins Verhältnis setzen.
Angenommen nVidia würde dieses Gewinnwachstum dieses Jahr mit 2,3 Millarden statt 1,3 Milliarden Umsatz erreichen. Dann wären deine 46% immer noch korrekt, aber die Aussage über den Erfolg müsste eine ganz andere sein. Der tatsächliche, echte Gewinn wäre dann nämlich auf einem Level irgendwo unter der Teppichbodenkante (8,5 %). Das wäre wahrscheinlich der Anlass für umfangreiche Restrukturierungsmaßnahmen inkl. Entlassungen. Und dann kommen natürlich gleich die Superschlauen um die Ecke und blöken: 46% Gewinnsteigerung und trotzdem Entlassungen? Wie asozial.

met schrieb:
Du hast völlig Recht. Und zwar ziemlich genau für etwas mehr als einem halben Jahr. Dann kommt der HighEnd-Chip auf den Markt und macht die GTX 1080 zur Mittelklasse.

Genau. Es wird so kommen wie es schon immer war. Davon kann jeder jetzt schon ausgehen. Man kann auch jetzt davon ausgehen dass die 10X0 Karten in 8-10 Monaten merkbar billiger werden. Die Leistung der Karten wird sich aber deswegen nicht schlagartig verringern, und wer jetzt so eine 10X0 Karte kauft, wird dieses halbe Jahr Freude damit haben und nächstes Jahr auch noch und das Jahr danach auch noch. Es wird immer etwas schnelleres kommen. Es wird auch was schnelleres als Big Pascal kommen und als Volta und als Big Volta. So what?
Ich persönlich bin gar nicht auf der Suche nach dem Schnellsten, sondern nach dem Passendsten. Darum käme auch nicht tendenziell die 1080 in Frage, sondern die 1070.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Vergleich doch einfach mal die GTX 1070 und 1080 mit den absehbaren Konkurrenten GTX 980(ti) und der Titan und dann begründe mal warum die Preise überteuert sind.

GTX 1070 hat 2 GB mehr Speicher als 980Ti, in etwa die gleiche Performance, verbraucht 100W weniger Strom und kostet wahrscheinlich 100 Euro weniger. Ich sehe da in der Tat keine überteuerten Preise. Schon gar nicht bei 1080 vs. Titan.

Verlangst du dass nVidia die neuen Karten jetzt günstiger anbietet, weil in 8 Monaten Big-Chips rauskommen? Dann kannst du auch gleich verlangen dass die Big-Chips günstig angeboten werden müssen weil danach irgendwann Volta kommt.

PS: Im Gegensatz zu einer Milchkuh kann sich ein Grafikkartenkäufer frei entscheiden ob er gemolken werden möchte oder nicht. Ich gehe davon aus dass jeder Mensch nicht nur einen Kopf hat damit es oben nicht reinregnet.

Du willst also einen Vergleich mit der Vorgängergeneration, zwischen der sogar zwei Fertigungssprünge liegen anstellen um zu beweisen, dass die Chips nicht überteuert sind? Mit Verlaub, das ist einfach nur lächerlich, jeden Wechsel zwischen den Fertigungstechniken gab es mehr Leistung für weniger Geld. Wenn man nun den GP104 betrachtet, dann sieht man einen relativ kleinen Chip, der billiger als GM200 ist. Dennoch gab es einen Preisaufschlag in nVidias offizieller Preisvorgabe zu Maxwells GM204, sowie den massiven Aufschlag für die "Founders Edition".

Ich verlange gar nicht, dass nVidia ihre Chips billiger als nötig anbietet, das wäre unwirtschaftlich. Mir ging es immer um deine Aussage, dass nVidia ihre Chips nicht überteuert verkauft. Aus unternehmerischer Sicht ja auch vollkommen nachvollziehbar.

Wenn du meinen Beitrag wirklich gelesen hättest, dann wäre dir auch aufgefallen, dass es mir nur allein um diese Behauptung von dir ging.

Warum du meinen Text komplett aus dem Kontext reisst bzw. ihn ignorierst, mir aber gleichzeitig unterschwellig Dummheit vorwirfst versteh ich auch nicht.

Vielleicht liegt es an mangelnder Leseverständnis, Allgemeinverständnis oder du willst einfach nur trollen?

Ich habe nur belegt, dass nVidia seine Karten überteuert anbietet. Deshalb auch das Kürzel qed, oder quod erat demonstrandum, oder für dich: Was zu beweisen war.
 
Zuletzt bearbeitet:
Idon schrieb:
Ich bin zwar nicht angesprochen, äußere mich aber dennoch:
AMD (bzw. ATI) hatte immer mal wieder das, zum Teil auch deutlich, bessere Produkt. Genauso wie bei der CPU-Sparte wurden die daraus generierten Gelder aber nicht umgesetzt, zum Beispiel in aggressive und zielführende Werbung.

Ja, es gibt derzeit mehr FreeSync-Monitore als G-Sync-Monitore. Und trotzdem verdient ausschließlich nVidia direkt durch den Monitorverkauf Geld, denn sie lassen sich ihr Modul bezahlen. AMD hingegen hatte ebenfalls Entwicklungskosten, gibt die Technologie aber kostenlos weiter.

Ja, PS4 und XBox One laufen mit AMD. Warum? 1) AMD kann ein Gesamtpaket liefern, nVidia konnte das damals zumindest nicht. 2) Das ist ein extrem hartes Geschäftsumfeld und nVidia hat aus vorherigen Erfahrungen gelernt, dass man dort eben nicht einfach nur nebenbei Geld druckt.
Die aktuellen Zahlen von AMD zeigen dann auch, dass es gerade in dieser Sparte Probleme gibt - nämlich sinkende Gewinne (oder sogar Verluste?) durch verringerten Absatz und dadurch auch geringere Preise.

So zieht sich das weiter: Mantle etc. haben in der Entwicklung sicher eine Menge Geld gekostet. Und dann wird die Technologie praktisch verschenkt.



Wo liegt nVidia vorne? Unter anderem bei Linux-Treibern, und zwar so, dass sie dort eigentlich die einzige Wahl bieten.

AMD investiert falsch und setzt die daraus resultierenden Ergebnisse dann auch noch schlecht um. Ja, hier im Forum und in anderen Foren wird AMD gefeiert, denn sie sind nicht nur der Underdog (ein total dummer und irrationaler Fanboy-Grund), sondern sie setzen tatsächlich stärker auf eine freie Verbreitung von Technologien. Das bringt aber kein Geld!


Dummerweise hat AMD seine Kundschaft mittlerweile folgendermaßen erzogen:
1) Zusatzleistungen müssen kostenlos sein (FreeSync, Mantle, whatever)
2) Die Karten müssen günstig sein (siehe Marktanteile Fury-Serie)
3) Auf keinen Fall irgendeine Art von Skandal bzw. "Marketingtrick"

Und nVidia? Die scheißen darauf. Warum? Weil die Kunden keine so hohen Erwartungen haben. Und das wiederum ergibt sich aus der Untätigkeit und Unfähigkeit AMDs in wirtschaftlichen Belangen - eben gerade nicht aus der reinen Hardwarequalität.

Jetzt könnte man sich natürlich über nVidia und nVidia-Kunden lustig machen. Das ist legitim. Gleichwohl ändert das rein gar nichts an dem Fakt, dass nVidia Gewinn erzielt - und AMD nicht.


Edit:
Ich habe mir übrigens G-Sync zugelegt weil es damals klar die bessere Technologie war und wohl auch immer noch ist. 30-144Hz. Ohne Frickelei. Mir ist aber auch einfach egal ob so ein Monitor 300€, 500€, 850€ (x) oder 1500€ kostet. Ich denke aber auch, dass jemand, der sich das nicht leisten _kann/möchte_, dann eben auch niedrigere Ansprüche haben sollte.
Aus der Unternehmensperspektive ist das Vorgehen Nvidias sicher richtig (wenn auch nicht immer legitim). Und du hast es auch wunderschön zusammengefasst. Eben aus der Unternehmensperspektive. Das hier ist allerdings keine Hauptversammlung und ich bin kein 70 jähriger Aktionär, den ausschließlich Gewinne um jeden Preis interessieren, z. B. durch unlauteren Wettbewerb ggü der Konkurrenz oder technologischer Stillstand weil die Produkte sowieso nicht konsumiert werden.

Ich schaue immer noch aus der Konsumentenperspektive und möchte technischen Fortschritt durch Wettbewerb. Mag für dich die Unterstützung eines Underdogs ein "ein total dummer und irrationaler Fanboy-Grund" sein, vielleicht weil technologischer Fortschritt dich gerade in diesem Bereich einen Scheiß interessiert (was passiert sieht man gut an der CPU Sparte). Da bringt es auch nichts wegen AMD Fanboys rum zu heulen, sondern man sollte jedem Fanboy dankbar sein, weil das Marktverhältnis und wiederum der Fortschritt entscheidend davon abhängen. Um die kausalen Zusammenhänge zu erkennen, muss man auch nicht studiert haben. Man sollte sich lediglich vor Augen halten, wie lange man noch an Grafikkarten und Spielen spaß haben wird sollte AMD in Bedeutungslosigkeit verlieren. Nvidia kommt dann ganz sicher nicht als Allheilsbringer auf den Konsumenten zu und bietet Mantle oder FreeSync. Die machen es nicht mal jetzt. Und die meisten Konsumenten sind zufrieden. Aber nur weil die Masse nicht taugt, heißt das doch nicht, dass man seinen eigenen Kopf ausschalten muss.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Genau. Es wird so kommen wie es schon immer war.

Nein das war nicht schon immer so. Das ist erst seit der Kepler-Reihe so. Vorher kamen erst die High-End-Chips und danach die Mittelklasse und zwar zum halben Preis.
 
Zuletzt bearbeitet:
Danke Berkeley, wenigstens einer der weis was Sache ist. Ohne Mantle gebe es jetzt womöglich kein DX12 und Vulkan. Aber lasst euch von Nvidia ruhig knechten was den G-Sync betrifft, ihr wollt keinen offenen Standard. Mal eine Frage, wozu braucht ihr Vulkan?

Liebe Grüße von einem Nvidiamd Besitzer
 
met schrieb:
Der GF114 hat zum Marktstart 249$ gekostet. 332mm² bei 256bit Speicherinterface. Der Komplexitätsgrad ist also vergleichbar mit dem nagelneuen GP104. Ebenfalls um 300mm² bei 256bit Speicherinterface. Kostet zum Marktstart 699$.

Der GF110 hat zum Marktstart 499$ gekostet. 520mm² bei 384bit Speicherinterface. Der Komplexitätsgrad ist also vergleichbar mit dem GK110 oder GM200. 533mm²/601mm² bei 384bit Speicherinterface. Kosteten zum Marktstart 999$.

Rechnen kannst du ja selber. Ach ja GP100 wird auch mit Sicherheit nicht weniger als 999$ kosten. Marktstart Q1 2017 und bereits fertig entwickelt.

Dir ist aber schon bekannt das neue Prozess nicht mehr komplett skalieren bezüglich Preis, Leistung und Fläche (siehe anandtech Artikel der unten verlinkt ist). Es gab keine massive Steigerung der Marge, ergo wird der höhere Preis für Aufwendungen ausgegeben. Denn gäbe es eine Preiserhöhung seitens NV, aber keine höheren Kosten für Fertigung und ähnliches würde die Marge deutlich steigen. Die ist aber wie zu sehen (https://www.computerbase.de/forum/t...eut-uebertroffen.1584324/page-7#post-18796444) immer auf einem Konstanten Niveau zwischen 10 und 15%.

Komisch, deine Behauptungen werden nicht von den Kennzahlen gedeckt. Meine aber schon. Auch wurde von mir aufgezeigt, dass eine Marge von 10 bis 15% nicht wirklich hoch ist und in anderen Branchen völlig üblich.

met schrieb:
Jetzt könnte man natürlich behaupten das die Waferpreise ebenfalls um mehr als 100% gestiegen sind. Komischerweise macht TSMC aber weniger Umsatz und weniger Gewinn. Hmm wo bleibt da wohl das Geld ;)

Das hat gute Gründe, etwa der Split von Apple auf Samsung und TSMC sowie Abgänge anderer wie AMD. Es ist ja nicht so als würde nur NV dort fertigen und andere wie Apple haben dort ein weit größeres Volumen. Schwankungen der Abnahme dieser hat massive Auswirkungen auf TSMC. Jedenfalls bleibt die Differenz nicht bei NV hängen, sonst wäre die Marge höher. Das Gegenteil konntest du nicht beweisen, sondern du stellst nur eine Behauptung auf die nicht von den Kennzahlen gedeckt wird und somit widerlegt wurde. Denn die Marge steigt nicht im Verhältnis zum höheren Verkaufspreis sondern ist seit Jahren bei 10 bis 15% stabil.

-> Bedeutet, NV verdient pro Jahr im Schnitt dasselbe an einer GPU.

BookerDeWitt schrieb:
Du willst also einen Vergleich mit der Vorgängergeneration, zwischen der sogar zwei Fertigungssprünge liegen anstellen um zu beweisen, dass die Chips nicht überteuert sind? Mit Verlaub, das ist einfach nur lächerlich, jeden Wechsel zwischen den Fertigungstechniken gab es mehr Leistung für weniger Geld. Wenn man nun den GP104 betrachtet, dann sieht man einen relativ kleinen Chip, der billiger als GM200 ist. Dennoch gab es einen Preisaufschlag in nVidias offizieller Preisvorgabe zu Maxwells GM204, sowie den massiven Aufschlag für die "Founders Edition".

Wie oft willst du diese Lüge oder Ungenauigkeit noch verbreiten? Das neue Karten teurer werden, weiß jeder der den anandtech Artikel bezüglich Fertigung von 2014 gelesen hat:

At the same time the fact that costs per transistor continue to come down at a steady rate may be par for the course, but that Intel has been able to even maintain par for the course is actually a very significant accomplishment. As the cost of wafers and fabbing have risen over the years there has been concern that transistor costs would plateau, which would lead to chip designers being able to increase their performance but only by increasing prices, as opposed to the past 40 years of cheaper transistors allowing prices to hold steady while performance has increased. So for Intel this is a major point of pride, especially in light of complaints from NVIDIA and others in recent years that their costs on new nodes aren’t scaling nearly as well as they would like.

http://www.anandtech.com/show/8367/intels-14nm-technology-in-detail
 
Zuletzt bearbeitet:
buergerkneifer schrieb:
Die Leistung spielt bei der großen Masse doch nicht wirklich eine Rolle
Äh..was denn dann ? oO
CCIBS schrieb:
P/L ergibt sich heute nicht mehr nur aus "Lange Balken / Preis". Dieses Denken ist längst überholt und auch nicht mehr Zielführend. In der Zwischenzeit sind andere Dinge weit gewichtiger geworden, die entscheiden, ob etwas ein gutes Preis/Leistung Verhältnis hat.
Welche Dinge z.b. ?
Tauscht du wirklich Leistung gegen z.b. (Strom-)Sparsamkeit ?
Meinst du wirklich das DIE BREITE MASSE auf sparsamkeit setzt?
RLY ?
Oder was gibt's da noch für brachial wichtige Sachen, die wichtiger sind als die blanke Leistung der karte verglichen mit dem preis ?
 
Zuletzt bearbeitet:
cruse schrieb:
Welche Dinge z.b. ?
Tauscht du wirklich Leistung gegen z.b. (Strom-)Sparsamkeit ?
Meinst du wirklich das DIE BREITE MASSE auf sparsamkeit setzt?
RLY ?
Oder was gibt's da noch für brachial wichtige Sachen, die wichtiger sind als die blanke Leistung der karte verglichen mit dem preis ?

Das wichtigste dürfte immer noch sein, dass die eigenen Karten von den großen OEMs verbaut werden und die schauen nicht nur auf reine Gamingleistung. Karten selbst kaufen oder nachrüsten dürfte immer noch eine Randerscheinung sein. Kann meine Vermutung aber nicht mit harten Zahlen unterlegen, daher auch so vorsichtig formuliert.
 
BookerDeWitt schrieb:
Du willst also einen Vergleich mit der Vorgängergeneration, zwischen der sogar zwei Fertigungssprünge liegen anstellen um zu beweisen, dass die Chips nicht überteuert sind?
Mit Verlaub, das ist einfach nur lächerlich, jeden Wechsel zwischen den Fertigungstechniken gab es mehr Leistung für weniger Geld. Wenn man nun den GP104 betrachtet, dann sieht man einen relativ kleinen Chip, der billiger als GM200 ist. Dennoch gab es einen Preisaufschlag in nVidias offizieller Preisvorgabe zu Maxwells GM204, sowie den massiven Aufschlag für die "Founders Edition".

Ich möchte einfach nur deutlich machen dass sich der Preis des Endprodukt nicht an dem orientiert was die Fertigung oder das Design kostet, sondern daran welche Leistung die Karte bringt. Man bezahlt nicht nach Quadratmillimeter Chipfläche oder nach Chipeinstufung. Das Ziel war schon immer für eine bestimmte Leistung einen bestimmten Preis zu erzielen. Und das gilt weiß Gott nicht nur bei nVidia in diesem Fall. Das künstliche einbremsen durch Powertargets, kleine Speicherinterfaces oder langsamere Taktraten wäre sonst total sinnlos.
Darum auch die Frage warum eine 1070 für schätzungsweise 500 bis 550 Euro überteuert sein soll, während eine 980Ti bis vor kurzem noch für lockere 650 Euro übern Tisch ging. Weil die Chipklassifizierung ne andere war?

BookerDeWitt schrieb:
Warum du meinen Text komplett aus dem Kontext reisst bzw. ihn ignorierst, mir aber gleichzeitig unterschwellig Dummheit vorwirfst versteh ich auch nicht.

Ich möchte nur eine alternative Sichtweise aufzeigen, und ich würde mir nicht erlauben dir Dummheit vorzuwerfen.

BookerDeWitt schrieb:
Ich habe nur belegt, dass nVidia seine Karten überteuert anbietet. Deshalb auch das Kürzel qed, oder quod erat demonstrandum, oder für dich: Was zu beweisen war.

Und ich habe gefragt aus welchem Grund die Karten überteuert sein sollten wenn die gleiche Leistung heute mindestens 100 Euro teuerer ist. Deine Beweisführung die rein auf technischen Daten basiert geht komplett an dem vorbei was ich als Gegenbeispiel anführe.

Du kannst mit deiner Methode auch locker beweisen dass iPhones überteuert angeboten werden.
 
Zuletzt bearbeitet:
Naja also wenn man korrekt bleiben möchte, hat man nichts 100% Handfestes zur Leistung und zum Preis.

Es kann auch so kommen, dass die 1080 OC etwa nur 10-15% schneller ist als eine 980Ti OC und dabei statt ca. 600€ mindestens 750€ oder mehr kostet. Nicht ausschließlich vom Best-Case-Szenario ausgehen.

Daher würde ich bis zu den offiziellen Benchmarks und Preisen im Preisvergleich warten. Dann kann mann auch wirkliche Vergleiche anstreben.
 
Hardware_Hoshi schrieb:
Das ist nicht vergleichbar. Milch ist ein wichtiges Lebensmittel, auf dem viele andere Produkte im Regal aufbauen. Grafikkarten sind ein Luxusgut. Man benötigt sich nicht zwingend zum Leben.
Vergleich nicht verstanden. 100€ auf den Kopf hauen, weil "man hat es ja", aber dann rumflennen wenn die Milch um 10 Cent den Liter teurer wird.

jbauer schrieb:
Freesync ist nutzlos für die meisten Anwender, da man sich dann auf einen Hersteller festlegen muss, in dem Fall auch noch auf den kleineren Hersteller, der sogar eventuell nicht mehr das Jahr 2017 erlebt.
:lol: :lol: :lol:
Demnach ist G-Sync auch nutzlos.
 
Zurück
Oben