News Halbleiter-Top-10 nach Umsatz: Intel wieder erster, Nvidia katapultiert sich weit nach vorn

ETI1120 schrieb:
Ich finde es sehr witzig dass solche Zahlen veröffentlicht werden bevor die Unternehmen überhaupt ihren Jahresabschluss vorgelegt haben.

Nvidia hat AMD nicht ueberholt, sondern liegt schon einige Jahre vor AMD.

Apple fehlt in solchen Statistiken, da die Halbleiter nur intern verwendet werden.

Die Frage ist in wie weit bei Samsung die Fremdfertigung und die intern verwendeten Halbleiter berücksichtigt werden.
Ich stimme zu: die Vergleichbarkeit ist ziemlich schwierig.
Intel - ok die fertigen Chips und verkaufen sie auch teils direkt, teils indirekt eben über OEMs und Co.
Nvidia - LASSEN Chips fertigen, verkaufen diese an Boardhersteller bei Grafikkarten, bzw. als fast fertige Produkte im HPC Segment, da gehören aber andere Komponenten auch dazu.
Apple: der Chip ist eigentlich nur ein Teil des Gesamtprodukts das die verkaufen. Wenn überhaupt. Denn Apple verdient ja nicht nur mit iPhone, Macbook und Co, sondern mit iTunes (oder wie das ganze nun heißt) Services, Ersatzteile, Kabel etc etc. Welcher Umsatz ist hier genau mit den 17mrd gemeint?
 
blackiwid schrieb:
Raytracing ... aus dem vollen schoepft da genau 1 Game Cyberpunk 2077, also selbst dafuer muss Nvidia blechen ...
Also dich stört, dass Nvidia Geld bezahlt damit Spieler Frame Generation und Path Tracing bekommen
obwohl du selbst sagst, dass es sich eigentlich finanziell nicht lohnt weil 90% der Gamer eine Konsole
oder keine RTX4000 haben. Merkst du nicht den Widerspruch in dieser Logik ? Du lobst doch Nvidia !
 
0ssi schrieb:
Also dich stört, dass Nvidia Geld bezahlt damit Spieler Frame Generation und Path Tracing bekommen
Es stört mich nicht, ich stelle es nur in den Raum und sage welche Nachteile es hat, es heißt Nvidia blecht nicht -> kein DLSS und wenn sie nicht für alle Spiele blechen wird die Technik weniger Verbreitung haben als FSR.

Zugegeben hab bisschen Bias und hab irgendwo ein Kinder mit Drogen Vergleich gemacht daher kommt vielleicht das Missverständnis, aber ich versuche (auch wenns mir nicht völlig gelinkt) sachlich zu bleiben.

0ssi schrieb:
obwohl du selbst sagst, dass es sich eigentlich finanziell nicht lohnt weil 90% der Gamer eine Konsole oder keine RTX4000 haben. Merkst du nicht den Widerspruch in dieser Logik ? Du lobst doch Nvidia !
Pff erstens wäre es kein Problem Nvidia zu loben, aber ich bin eigentlich neutral relativ. Ich stelle nur erstmal dar was nach meiner Ansicht und nach den unvollständigen Informationen die ich habe wohl passiert.

Es geht nicht um loben oder haten oder so was, es geht um fest zu stellen das ich prognostiziere das FSR MINDESTENS so gut unterstützt werden wird wie DLSS manche News hier lassen ja das Gegenteil durch blicken:

https://www.computerbase.de/2024-01...ele-mit-frame-generation-und-rt-angekuendigt/

Es gab noch einen 2. Aspekt, ich hab schon bei der News gefragt ob Nvidia vielleicht ja so wie du sagtest Gebühren verlangt das zu benutzen, und sich dadurch vielleicht erklärt das Nvidia nur von mehr spielen weiß, und daher die Liste länger ist nicht weil wirklich mehr raus kommen, aber jetzt scheint mir es wie gesagt umgekehrt da Nvidia die Games supported wissen sie es und das ist keine reine Spekulation mehr, sondern zumindest wiederholt richtigen Gerüchte / Leaks basiert (MooresLawIsDead) und macht logisch auch mehr Sinn.

Eine Einstufung auf loben oder verdammen wollte ich eigentlich nicht machen, nur eine darauf basierte Prognose was wohl passieren wird das sich FSR wohl mindestens als Gleichwertig wenn nicht sogar dominant durchsetzen wird.

Aber ich geb dir noch ne Meinung zu was ich davon halte das so zu machen, das ist sowas wie geplante Obsoleszenz, und Brückengeldern, ja man gibt auf der einen Seite solchen Spielefirmen Geld aber nur um auf der anderen Seite die Grafikkartenkunden ab zu zocken, man baut ne künstliche Blockade ein das DLSS 3.0 nur auf der 4. gen läuft und will damit Kunden nudgen / nötigen / drängen ihre Karten up zu Daten obwohl sonst die alte vielleicht noch reichen würde um eine proprietäre exklusive Technik zu puschen um sich Wettbewerber vom Hals zu halten, ich weiß nicht was ich daran positiv finden soll.

Ich wünschte die Firmen würden nur um die beste Hardware konkurrieren nicht mit solchen Tricksereien, aber das ist ne Meinung, die muss man nicht teilen, der Part mit der Einschätzung ist ein Versuch so weit wie möglich der Analyse was passiert und eine Prognose an zu ordnen ohne dazu eine Meinung zu packen.

Ich mein als Linuxnutzer sollte es dich nicht wundern das ich proprietäre Software und Techniken ablehne. Ums mal konkret zu machen auf der Liste oben stehte Dragons Dogma und FSR ist noch nicht angekündigt aber der 1. Teil war primär ein Konsolentitel PC Port kam glaub viel später, auch davon gibts einen Konsolenport, wenn sie also wirklich kein FSR unterstützen würden, hätte das Spiel einfach kein Upscaling auf Konsolen, das kann ich nicht glauben, obs dann FSR2 oder 3 ist das mag noch offen sein aber keines kann ich mir nicht vorstellen.

Ich will nur mal klarstellen das Leute nicht Nvidia kaufen sollten nur wegen DLSS also weil sie glauben das viele Spiele ohne kein Upscaling haben werden... und alle DLSS haben werden weil beides scheint mir nicht realistisch, vor allem ersteres nicht.

Ja wenn man will das man die nächsten 2-3 Monate vielleicht mehr Spaß haben wird mit besserem DLSS support / experience, dann ok, aber wer über 2-3 Monate hinaus denkt ist mit FSR wahrscheinlich sehr sehr gut bedient, und das ist wichtig da der einzige Kaufgrund für die RTX 4060 oder der primäre zumindest DLSS 3.0 laut Nvidiawerbung ist weil sie in ihren Benchmarks DLSS3.0 FPS mit entweder keinem upscaling oder FSR 2 vergleichen und fuer wenige Monate und wenige Spiele mag das auch zutreffen aber darauf wirds sich beschraenken.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Es stört mich nicht, ich stelle es nur in den Raum und sage welche Nachteile es hat, es heißt Nvidia blecht nicht
-> kein DLSS und wenn sie nicht für alle Spiele blechen wird die Technik weniger Verbreitung haben als FSR.
Wo ist denn der Nachteil für uns Gamer wenn Nvidia nicht mehr bezahlen würde es es gäbe kein
DLSS oder Frame Generation mehr in Spielen ? Dann sind doch AMD Karten eindeutig im Vorteil
und mehr Leute würden diese kaufen. Wirst du dann AMD kritisieren für deren FSR und FMF ???
Weil die könnten auch auch einfach damit aufhören weil jetzt machen sie es nur wegen Nvidia !
 
BAR86 schrieb:
Ich stimme zu: die Vergleichbarkeit ist ziemlich schwierig.
Darum ging es mir gar nicht in erster Linie, sondern dass man solche Zahlen veröffentlicht bevor die Unternehmen überhaupt ihre Jahresabschlüsse veröffentlicht haben.

Und alles was Gartner da zusammenbastellt, basiert letztendlich auf den Jahresabschlüssen.
Worauf den sonst? Alles was Gartner sonst an Zahlen bekommt sind bestenfalls Stichproben.

Definitionsgemäß sind die Halbleiter die Chips die man verkauft. Das wird schwierig zu bewerten, wenn ein Unternehmen sowohl Chips als auch fertige Produkte verkauft und beides nicht explizit aufschlüsselt. Oder wenn auch noch Softwareumsätze dabei sind.

Oder bei Apple, die eigene Chips herstellen und diese nur in eigenen Geräten verwenden. D. h. Apple weißt gar keine Zahlen zu den Halbleitern aus. Nur zu den Macs, iPads und iPhones.

BAR86 schrieb:
Intel - ok die fertigen Chips und verkaufen sie auch teils direkt, teils indirekt eben über OEMs und Co.
Intel hat 2022 63,1 Mrd. USD umgesetzt. Aber Gartner weist nur 58,436 Mrd. USD als Halbleiterumsatz aus.

Hier hat Gartner für 2022 knapp 5 Mrd. USD Umsatz als nicht-Halbleiter-Umsatz eingestuft. Wie gesagt Intel veröffentlich die Zahlen für 2023 am Donnerstag. Dass jeder der direkt von Intel Halbleiter kauft, dies an Gartner weitermeldet können wird doch als Möglichkeit ausschließen, oder?

BAR86 schrieb:
Nvidia - LASSEN Chips fertigen, verkaufen diese an Boardhersteller bei Grafikkarten, bzw. als fast fertige Produkte im HPC Segment, da gehören aber andere Komponenten auch dazu.
Ja, bei Nvidia hat Gartner einiges nicht als Halbleiterumsatz bewertet. Der Jahresumsatz von Nvida 2022 waren 26,97 Mrd, davon hat Gartner nur 15,331 als Halbleiterumsatz berücksichtigt. Alleine im Zeitraum August bis Oktober 2023 hat Nvidia 18,12 Mrd USD Umsatz gemacht, aber fürs Gesamtjahr 2023 nennt Gartner nur 23,6 Mrd Umsatz mit Halbleiter.

Aber wieso wird dann von Gartner bei AMD der volle Umsatz berücksichtigt? Die professionellen Grafikkarten und Instinct Karten enthalten auch mehr als AMD-Halbleiter. Außerdem verkauft auch AMD (Ex-Xilinx) Software.

Nvidia verkauft in seiner Netzwerksparte AI-Beschleuniger, DPU-Karten und wohl auch komplette Rechner. Bei Professional Visualization ist einiges an Software dabei. Das alles sind keine Halbleiter. Das schwierige ist nun wie ordnet Gartner die Umsätze zu und wie bewertet Gardner den Halbleiter Anteil daran.

BAR86 schrieb:
Apple: der Chip ist eigentlich nur ein Teil des Gesamtprodukts das die verkaufen. Wenn überhaupt. Denn Apple verdient ja nicht nur mit iPhone, Macbook und Co, sondern mit iTunes (oder wie das ganze nun heißt) Services, Ersatzteile, Kabel etc etc. Welcher Umsatz ist hier genau mit den 17mrd gemeint?
Im Consolidated Financial Statement des Gesamtjahres weist TSMC folgendes aus:
1705444560764.png

Mt den Zahlen von TSMC für Kunde A komme ich 2022 auf ca. 17,4 Mrd, aber die 18 Mrd. die Gartner für 2022 ausweist können nie und nimmer eine vernünftige Bewertung der Halbleiter sein.

17,4 Mrd ist das was Apple an TSMC gezahlt hat. Aber da kommen noch einiges an Kosten bei Apple oben drauf. Selbst wenn man für die Halbleiter keinen Anteil an der Marge zuerkennt ist die Summe die Gartner ausweist viel zu niedrig. Einfach nur lachhaft. Also entweder lassen die Apple raus, oder machen eine seriöse Bewertung.
Ergänzung ()

xexex schrieb:
TI ist einer der ältesten Chipproduzenten überhaupt, die haben schon Chips produziert, da war Intel noch ein Startup.
https://en.wikipedia.org/wiki/List_of_semiconductor_fabrication_plants
Eine kleine Ergänzung, Morris Chang der Gründer von TSMC hat sein erstes Berufsleben bei TI zugebracht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BAR86
blackiwid schrieb:
es geht um fest zu stellen das ich prognostiziere das FSR MINDESTENS so gut unterstützt werden wird wie DLSS
Die Frage ist wann denn der Faktor Zeit spielt eine wichtige Rolle aber mal ganz einfach gefragt:

Was glaubst du passiert mit den AMD Grafikkartenpreisen wenn deren next Gen genauso schnell
ist wie Nvidia und alle DLSS3 Spiele FSR3 bekommen. Werden die Preise weiterhin günstiger sein
oder auf Nvidia Niveau angehoben so wie es bei den Prozessoren im Vergleich zu Intel passierte !?

:heilig:
 
0ssi schrieb:
Wo ist denn der Nachteil für uns Gamer wenn Nvidia nicht mehr bezahlen würde es es gäbe kein
DLSS oder Frame Generation mehr in Spielen ? Dann sind doch AMD Karten eindeutig im Vorteil
und mehr Leute würden diese kaufen. Wirst du dann AMD kritisieren für deren FSR und FMF ???
Nein da FSR 3 auch auf allen neueren Nvidia Karten läuft, würde sich dann einfach entscheiden, wer schnellere Hardware für weniger Geld FPS / Dollar und ein paar andere Nebenfaktoren wie Lautstärke / Stromverbrauch über den Kauf entscheiden würde, wobei Nvidia das nicht nur bei Gaming macht, natürlich haben sie das auch schon mit Cuda gemacht und versuchen es jetzt mit A.I. nur ist AMD diesmal nicht so weit hinten wie mit Cuda wo sie fast komplett verloren hatten. Da AMD dort keine Konsolen in der Hinterhand hatte konnte Nvidia den Markt mit einem Softwaremonopol verschließen.

Ja Firmen und andere freuen sich natürlich teilweise das Nvidia das macht, weil wenn sie wie AMD nur Hardware anbieten würden, müssten die Firmen selbst mehr software schreiben, sie können halt mit fast unendlich Geld hinter Probleme werfen schneller mit brachialer Gewalt auf Märkte kommen und haben dadurch einen Vorteil schneller zu sein praktisch unendlich Geld zu haben ist halt nen netter Vorteil, aber dann darf man sich auch nicht beklagen warum Grafikkarten jetz so teuer sind.
Ergänzung ()

0ssi schrieb:
ist wie Nvidia und alle DLSS3 Spiele FSR3 bekommen. Werden die Preise weiterhin günstiger sein
oder auf Nvidia Niveau angehoben so wie es bei den Prozessoren im Vergleich zu Intel passierte !?

:heilig:
Das Problem ist das AMD nicht nur auf Intel Niveau ist sondern davon gezogen ist, AMD ist dort eigentlich so bisschen das Nvidia von CPUs nur das das sich noch bei Verkaufszahlen nicht zeigt, da z.B. Notebook OEMs aber auch der Fertiger nicht so schnell umsteigt auch wenn AMDs CPUS deutlich überlegen sind.

Ich würde auch nicht wirklich sagen das AMD so viel teurer wurde, es wurden Motherboards und lange DDR5 ram sehr teuer viel hatte da mit PCI-E 5.0 lanes zu tun auf viel zu teuren Motherboards.

Ich mein ein 5700X cpu mit 8 Kernen für 165 Euro neu trotz massivsten Inflation ist das so schlecht? 5800x für 170, ja klar mit 3D Cache wirds teurer für ne Oberklasse CPU top notch. Es geht mir auch nicht nur um den Preis, ich mag AMD z.B. lieber wegen Linux support, aber generell Quelloffene Sachen FSR profitieren z.B. auch Intel Kunden das war bei GSYNC nicht der Fall.

Wir reden bei CPUs in der Regel von 150-500 Euro bei Grafikkarten von 500-2000 Euro Nvidia ist schon noch der groessere Preistreiber.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Nein da FSR 3 auch auf allen neueren Nvidia Karten läuft, ...
Aber dann entgehen den Spiele Herstellern doch die Nvidia Einnahmen weil aktuell muss
laut deiner Theorie Nvidia Geld blechen um DLSS und FG in Spielen integrieren zu dürfen.

Weniger Geld bedeutet weniger Budget also schlechterer Spiele oder noch höhere Preise ?
Da können wir ja nur froh sein, dass Nvidia zur Zeit noch die Spieleindustrie mit finanziert.
 
0ssi schrieb:
Aber dann entgehen den Spiele Herstellern doch die Nvidia Einnahmen weil aktuell muss
laut deiner Theorie Nvidia Geld blechen um DLSS und FG in Spielen integrieren zu dürfen.
Naja erstens zahl ich lieber beim Spiel ein paar euro mehr wie wenn mich Spiele dazu nudgen Nvidia zu kaufen um dann dort die höheren Preise zu zahlen.

Zweitens zahlt Nvidia ja nicht Bestechungsgelder in dem Sinn nur da DLSS ZUSÄTZLICH implementiert werden muss, KOSTET das die Firmen und da springt Nvidia ein, sie übernehmen Teilweise oder Ganz diese kosten.

Wenn Spielefirmen nicht noch ZUSÄTZLICH DLSS implementieren müssen, brauchen sie auch kein Geld / Entwickler von Nvidia bezahlt bekommen um diese Kosten zu bezahlen.

Diese Rechnung mag btw bei Raytracing anders aussehen, da hier wirklich entweder Nvidia bezahlt oder zumindest ein Spiel wie Cyberpunk 2077 würde SOO nicht existieren.

da Raytracting aber auch nicht proprietär ist soweit ich das verstehe hab ich damit aber auch kein Problem. Ja Nvidia hat da die bessere Hardware und soll daraus auch einen Vorteil haben und sie machen damit auch keine geplante Obsoleszenz indem sie Raytracing teil-deaktivieren oder verlangsamen auf alten Karten mit einer Ausnahmen -> DLSS 3.5 wo wir wieder beim Problemkind liegen.

Selbst ohne AMD ist das nun mal geplante Obsoleszenz.
 
blackiwid schrieb:
Zweitens zahlt Nvidia ja nicht Bestechungsgelder in dem Sinn nur da DLSS ZUSÄTZLICH implementiert werden muss, KOSTET das die Firmen und da springt Nvidia ein, sie übernehmen Teilweise oder Ganz diese kosten.

Wenn Spielefirmen nicht noch ZUSÄTZLICH DLSS implementieren müssen, brauchen sie auch kein Geld / Entwickler von Nvidia bezahlt bekommen um diese Kosten zu bezahlen.
Wo wir wieder bei deiner komischen Logik sind denn Bestechung funktioniert doch ganz anders !?
Wenn Nvidia die Spiele mit finanzieren muss, aber es in den Spielen trotzden noch AMD FSR gibt,
welchen Vorteil hat dann Nvidia ? Die haben doch einen finanziellen Nachteil und nach deiner Logik
müsste man eigentlich sagen sie werden von der Spieleindustrie erpresst um mit dabei sein zu dürfen.
Ergänzung ()

blackiwid schrieb:
Ich mein ein 5700X cpu mit 8 Kernen für 165 Euro neu trotz massivsten Inflation ist das so schlecht?
Ist eine gute Budget CPU aber im High End Bereich muss schon AM5 und 3D Cache her.

cp2077.jpg

Der 14700K(F) ist vermutlich genauso schnell wie ein 7800X3D aber bietet eben nicht nur 8 Kerne.
 
0ssi schrieb:
Wo wir wieder bei deiner komischen Logik sind denn Bestechung funktioniert doch ganz anders !?
Ich sagte doch grade das es keine richtige Bestechung ist...

0ssi schrieb:
Wenn Nvidia die Spiele mit finanzieren muss, aber es in den Spielen trotzden noch AMD FSR gibt,
welchen Vorteil hat dann Nvidia ? Die haben doch einen finanziellen Nachteil und nach deiner Logik
Es geht wie so oft um Kurzfristige Marktinggewinne man kann dann auf Spiele mit DLSS verweisen wenn die Karten getestet werden und kurz nach Release die meisten verkauft werden, das dieser Vorteil in 6 Monaten verpufft ist sehen da viele noch nicht, um das Leuten klar zu machen schreib ich das, um nicht auf dieses Marketing herein zu fallen. Nvidia ist das Apple der Grafikkarten eine primäre Marketingfirma. Die durch Manipulation der Kunden Hype auslösen will.
0ssi schrieb:
müsste man eigentlich sagen sie werden von der Spieleindustrie erpresst um mit dabei sein zu dürfen.
Sie duerften auch so dabei sein, zum einen in dem sie ja FSR ohne irgendwelche Haken benutzen dürfen / unterstützt werden, zum anderen könnten sie auch DLSS quelloffen veröffentlichen so wie AMD es mit FSR gemacht hat und allen frei zur Benutzung geben, und wenn es dann auch auf AMD Hardware liefe, könnte es besser auf Konsolen laufen und vielleicht würden es alle dann sogar benutzen und FSR verschwinden, nur hätte Nvidia dann nicht mehr den Vorteil das sie sagen können "wir sind schneller als AMD weil wir DLSS 3.0 zum release der letzten Gen hatten AMD aber erst bisschen Später FSR 3. Sie entscheiden sich freiwillig den Weg zu gehen weil sie so mehr an sich schlechte Hardware mit kurzfristigen Softwarevorteilen verkaufen konnten und immer wieder koennen. Das ist voellig freiwillig.
0ssi schrieb:
Der 14700K(F) ist vermutlich genauso schnell wie ein 7800X3D aber bietet eben nicht nur 8 Kerne.
Nicht bei Spielen, der Punkt ist aber solche CPUS brauchst nur bei >1000 Grafikkarten von daher ist immer noch die CPU der Wucherpart, klar kannst sagen aber Mainboard und Speicher aber das ist ja in der Regel nicht AMD / Intel die das verkaufen.
Und die 5600 X3D wird für Gamer immer noch ne exzellente CPU sein und vermutlich um die 200 Euro kosten... was will man da sagen?

Wer extrem viel CPU Leistung für Anwendungen braucht, verdient damit in der Regel auch Geld und kann daher auch mehr Geld für zahlen aber so ne 200 Euro CPU selbst wenn es 250 wären, läuft wunderbar mit ner 1000 Euro Grafikkarte und bremst weniger wie wenn du nur ne 600 Euro Karte kaufst aber ne 500 Euro CPU.
 
Zuletzt bearbeitet:
Bei Samsung finde ich es schon schwer, dass man hier sinnvolle Zahlen ausrechnet, da es ja ein krasser Mischkonzern ist und sowohl Chips als auch Endprodukte mit diesen und ganz anderen Chips anbietet.
Aber wie rechnet man hier bei Apple bitte den "Umsatz" aus dem Chipsegement aus? Die haben keinerlei Endkunden für ihre Halbleitererzeugnisse, sondern verkaufen nur Endprodukte. Der Preis (im Sinne von Umsatz) ist doch total willkürlich, den so ein Chip bei denen hat. Der kann der Herstellungspreis sein oder die komplette Marge einen zB iPhones.
Ohne eine Berechnungsgrundlage anzugeben solch verschiedener Unternehmen und deren Ausrichtung halte ich für ziemlich nichts sagend.
Ergänzung ()

0ssi schrieb:
Wo wir wieder bei deiner komischen Logik sind denn Bestechung funktioniert doch ganz anders !?
Wenn Nvidia die Spiele mit finanzieren muss, aber es in den Spielen trotzden noch AMD FSR gibt,
welchen Vorteil hat dann Nvidia ?
Auf diese Diskussion die ihr hier habt, will ich gar nicht eingehen.

Aber dein Schluss ist ziemlicher Nonsense. Du schließt aus der Behauptung "Hersteller bezahlt Entwickler", dass diese dadurch eine Technik exklusiv einsetzt und auf eine andere verzichtet.
Das zeigt eigentlich nur, das du keine Ahnung von der Realität in dem Bereich hast.
Das "Schmiergeld" erfolgt hier meist nicht in Cash sondern in Ressourcen. Also stellt ein Hardware-Hersteller Entwickler kostenlos bereit, die die Software mitentwickeln und auf die eigene Technik optimieren. Im "Idealfall" dabei die konkuriende Technik nicht sabotieren und noch langsamer machen, als sie eh schon ist, bedingt durch die eigene Implementation durch das Studio ohne externe Entwickler vom zweiten Hersteller.
Und wenn du jetzt sagst: Warum schickt Hersteller 2 nicht auf Leute? -> das ist genauso logisch. Zum einen hat H2 weniger Geld für solche miesen Moves, zum anderen wird M1 weniger Geld/Leute bereitstellen, wenn das Studio von beiden Herstellern Entwickler annimmt.
Dass ein Hersteller überhaupt Leute abstellt ist ja nicht um das Endprodukt besser zu machen, sondern lediglich der Aspekt, dass man die eigene Hardware in eine bessere Lage bekommt zum Start also ohne Eingriff.

Das ist übrigens auch so ein Grund warum AMD-Hardware "besser" altert. Die Optimierungen kommen eben häufig erst deutlich nach Release-Zeitpunkt und damit nach den Tests.
Das haben wir noch bei jeder Hardware-Generation gesehen, dass Nvidia und AMD Produkte die faktisch gleich auf lagen über die Lebensdauer eine Tendenz hatten, dass die AMD-Produkte schneller wurden im Vergleich. Eine RX580 zB ist heute (teils deutlich) vor einer 1060 und das sind beides noch sehr aktuelle, da verbreitete Karten. Das war zu dem Zeitpunkt als diese aktuell waren ganz anders und die beiden waren quasi gleichauf mit Tendenz in beide Richtungen je nach Spiel und Test.
 
Zuletzt bearbeitet:
rg88 schrieb:
Bei Samsung finde ich es schon schwer, dass man hier sinnvolle Zahlen ausrechnet, da es ja ein krasser Mischkonzern ist und sowohl Chips als auch Endprodukte mit diesen und ganz anderen Chips anbietet.
Samsung Electronics schlüsselt die Zahlen auf, so dass der Außenumsatz relativ gut erfasst werden kann.

Die intern verwendeten Halbleiter existieren auch wenn sie nicht im Außenumsatz auftauchen.

Problematisch ist auch die Foundry, wenn man ihren Umsatz berücksichtigt, müsste auch TSMC auf die Liste
rg88 schrieb:
Aber wie rechnet man hier bei Apple bitte den "Umsatz" aus dem Chipsegement aus?
Aber den mit Abstand größten Kunden von TSMC zu ignorieren ist auch keine gute Lösung.
2022 kamen 23 % des Umsatzes von TSMC von Apple.

rg88 schrieb:
Ohne eine Berechnungsgrundlage anzugeben solch verschiedener Unternehmen und deren Ausrichtung halte ich für ziemlich nichts sagend.
Es wurde ja nur die Pressemitteilung des Reports veröffentlicht. Die Top 10 ist der Lockvogel.
Den detaillierten Bericht soll man erwerben.
 
  • Gefällt mir
Reaktionen: rg88
ETI1120 schrieb:
Aber den mit Abstand größten Kunden von TSMC zu ignorieren ist auch keine gute Lösung.
2022 kamen 23 % des Umsatzes von TSMC von Apple.
Ne, natürlich nicht. Aber Umsatz von TSMC ist nicht der Umsatz den Apple damit macht. Man kann doch nicht Herstellungspreis und Verkaufspreis beliebig mischen.

ETI1120 schrieb:
Die intern verwendeten Halbleiter existieren auch wenn sie nicht im Außenumsatz auftauchen.
Ja, wenns die gleichen Chips sind, dann kann man nen Preis angeben. Aber Chips die nicht verkauft werden, wie bemisst man da den Preis und errechnet daraus einen Umsatz?
 
rg88 schrieb:
Ne, natürlich nicht. Aber Umsatz von TSMC ist nicht der Umsatz den Apple damit macht. Man kann doch nicht Herstellungspreis und Verkaufspreis beliebig mischen.
Aber man kann fundiert schätzen.

Das was Apple an TSMC zahlt ist die Untergrenze. Aber es gibt weitere Kosten.


rg88 schrieb:
Ja, wenns die gleichen Chips sind, dann kann man nen Preis angeben.
Aber auch nur ungefähr.
Für Apple gilt es übrigens anders herum, bezogen auf die Fremdteile
rg88 schrieb:
Aber Chips die nicht verkauft werden, wie bemisst man da den Preis und errechnet daraus einen Umsatz?
Auch hier bietet sich eine fundierte Schätzung an.

Natürlich kommt dann kein Betrag heraus, der auf die Million USD genau ist.
 
ETI1120 schrieb:
Hersteller ist die Person oder Unternehmen die das Produkt Unter eigenem Namen in den Verkehr bringt und dafür haftet.
Rechtlich vollkommen klar. Technisch halt nicht.
 
Dito schrieb:
Und NVIDIA jammert, dass sie zu wenig bekommen. Zahlen lügen nicht.
Also: Immer schön weiter kaufen.
Und du schön bei deiner alten GTX bleiben … man, man, man nicht bei jedem fehlt das Geld an allen Ecken, der PC mit seinem guten Werterhalt ist immer noch ein sehr günstiger Hobby.
Würde ich meine RTX 4090 später dieses Jahr nach 2 Jahren verkaufen hätte ich vermutlich keinen Cent verloren. 1-2 Jahre später vielleicht ein paar 100€. Bei 100€ pro Jahr sind das immer noch weniger als der Preis für Netflix 4K - und das für die mit Abstand beste Grafikkarte für Consumer …

Wer natürlich nicht wirklich helle ist und die RTX 4090 anstatt zu Ebay auf den Restmüll schickt, dem ist leider auch nicht zu helfen. Aber bei der Masse hat die Grafkkarte auch nach der eigenen Nutzung noch einen Verwendungszweck.

Wie dem auch sei - bleib bei der GTX, zahl dein Netflix und jammer weiterhin, dass alle anderen verantwortlich sind, dass du dir nun keine neue Grafikkarte leisten kannst/willst.

BTT:

Interessant wie hier alle bereits ab dem ersten Kommentar gerne eine andere Statistik hätten, in der Intel nicht vorne steht - immer diese kindischen Glaubenskriege :lol:
 
@MalWiederIch Wo hab ich das geschrieben, dass ich bei meiner GTX bleibe?
Es ging darum, dass die Grünen gerne jammern und am Ende dennoch (Rekord)-Gewinne/Umsatz machen. Der mündige Käufer glaubt das meist auch noch.
 
Im Gesamten haben die Firmenumsätze 2023 im Vergleich zum Vorjahr deutlich abgenommen. Und Nvidia hat wenig überraschend extrem stark vom KI-Hype profitiert.
 
AMD gestern auch.
Ergänzung ()

Sron schrieb:
Rechtlich vollkommen klar. Technisch halt nicht.
Auch technisch ist dies vollkommen klar. Halbleiter herstzustellen ist ein ziemlich komplexes Geschaft. Das Chipdesign auf das Silizium zu bringen ist zwar ein entscheidender aber eben auch nur ein Schritt.

Im Englischen ist es mit to manufacture und manufacturer genauso.

Es gibt eben Fachwörter deren Bedeutung sich vom Wortstamm lösgelöst hat. Man kann nun sinnfrei darüber lamentieren oder die Bedeutung akzeptieren.

Im übrigen erfasst die als Alternative vorgeschlagene Bezeichnung Halbleiterverkäufer das Wesen der fabless semiconductor manufactorer noch viel weniger. Schau Dir mal an wie viel Geld Nvidia und AMD für die Produktentwicklung ausgeben und wie viele Mitarbeiter sie damit beschäftigen.

Um Mal einen ersten Eindruck von der ganzen Sache zu bekommen kann ich nur folgendes Buch empfehlen:
https://www.amazon.de/Fabless-Transformation-Semiconductor-Daniel-Nenni/dp/1497525047/

Es ist sehr gut lesbar und zeigt wie sich die Halbleiterindistrie entwickelt hat. Es geht dabei nicht um technische Details sondern um die Konzepte und die Unternehmen:
1705494329361.png


Zu Kapitel 6: Die News zu Synopsys hast Du gesehen. Mentor Graphics ist heute teil von Siemens
 
Zuletzt bearbeitet:

Ähnliche Themen

Antworten
1.738
Aufrufe
354.301
Zurück
Oben