News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

DevPandi schrieb:
Du bist es, der hier gerne - und ich wiederhole auch oft zu recht - auf sehr eindimensionale Diskussionen und ebenso auf fehlende Differenziertheit hinweist. Gleichzeitig bist du es allerdings genauso oft, der differenzierte Betrachtungen nicht zulässt und das besonders oft, wenn es um Nvidia geht.
Naja wenn nicht mal Fakten vom roten Lager akzeptiert werden wie zB der >90% Marktanteil von Nvidia kann man jede Diskussion vergessen oder schon mal unsachlich werden.
Ergänzung ()

blackiwid schrieb:
die 92% sind extrem veraltete Zahlen... und könntest bitte nicht sowas abkürzen... viel zu umständlich jetzt danach zu suchen. Letztes jahr hatte Nvidia 92% wobei das nie reine Spielerstatistiken waren... und meistens sind dort dann eben logischerweise IGP raus gerechnet. Steam beinhaltet aber auch IPG zahlen, also sind die schon daher nicht vergleichbar.

Außerdem gehts ja oft um "wie viel % haben X oder Y" nicht wieviel wurden jetzt in letzten Monat / 3 Monate verkauft jeweils also wenn vor 1 Jahr extrem viel Nvidia gekauft wurde zählt das noch rein obwohl sich der Wind vielleicht schon längst gedreht hat.
Hier hast jetzt frische, Nvidia bei 94% Marktanteil: https://www.jonpeddie.com/news/q225...d-shipments-increased-27-0-from-last-quarter/
 
TheInvisible schrieb:
Naja wenn nicht mal Fakten vom roten Lager akzeptiert werden wie zB der >90% Marktanteil von Nvidia kann man jede Diskussion vergessen oder schon mal unsachlich werden.
Es ist aus den Quartalszahlen offensichtlich, dass Nvidia weit mehr GPUs absetzt als AMD.

Aber die Zahlen die zu den Marktanteilen veröffentlicht werden kann man allesamt in die Tonne treten. Egal wer da was veröffentlicht.

Die Argumentation Deiner Fraktion, dass Nvidia die besten GPUs sind weil sie sich am besten verkaufen, ist hohl.

Mit dieser Argumentation ist die Bild-Zeitung die beste Zeitung in Deutschland.

Diese ganze lächerliche Diskussion die auf beiden Seiten darum geht Fakten zu verdrehen, zu negieren oder klein Zureden, zeigt doch das es gar nicht um die Technik geht. Es geht um Emotionen. Mein Verein ist der bessere.
 
  • Gefällt mir
Reaktionen: Dama, thom_cat, dohderbert und 8 andere
ETI1120 schrieb:
Die Argumentation Deiner Fraktion, dass Nvidia die besten GPUs sind weil sie sich am besten verkaufen, ist hohl.
Nö dazu braucht man keine Verkaufszahlen, Nvidia ist Hardware- und Softwaretechnisch nun mal voran, oder willst das jetzt auch verneinen? Und wennst die Zahlen von JPR nicht glaubst gehörst halt zu den Leuten die denken das auf der Welt sowieso alles gefälscht und gelogen ist. Bitteschön, aber dann brauchst auch keine ernsthafte Diskussion führen oder erwarten
 
  • Gefällt mir
Reaktionen: Pisaro und Quidproquo77
ETI1120 schrieb:
Es wäre für AMD sehr teuer und sehr riskant.
Ich sehe da für AMD kein so großes Risiko. AMD will die selbe grundlegende Architektur als Nachfolger für die Instinct-Karten genau so wie für die Radeon Karten nutzen. Dieser Spagat ist die Schwierigkeit. Wenn sie denn schaffen, dürfte auch AT0 funktionieren. Wenn sie es nicht schaffen, haben sie ganz andere Probleme. Dann spielt AT0 kaum mehr eine Rolle oder wird sowie noch vor Release gestrichen.

ETI1120 schrieb:
Für den Workstation Markt könnte die GPU passen. Aber es wäre für AMD sehr schwer hier genügend Karten zu verkaufen.
Das sehe ich absolut nicht. Alles was sich gut für lokales Inferencing eignet, ist derzeit stark gefragt, egal ob Mini-PCs mit Strix Halo, Mac Studios oder eben GPU-Modelle mit viel VRAM.

ETI1120 schrieb:
Ich kenne kein Statement von AMD das besagt wir machen zukünftig wieder High Ende Karten.

Aus einem Interview von Tom's Hardware mit AMD VP.
TH: Price point-wise, you have leadership, but you won't go after the flagship market?
JH: One day, we may.
Hört sich erst einmal nicht so eindeutig an, aber ich denke, wenn AMD keinen entsprechenden Pläne hätte, wäre die Antwort anders ausgefallen.
 
DevPandi schrieb:
Auch im OEM-Bereich spielt Psychologie eine Rolle.
Nein, spielt kaum eine Rolle, dort geht es um Lieferfähigkeit, Toolsets (Notebooks), Support-Infrastruktur.
Langfristige Verträge, Effizienz, Skalierbarkeit, Kompatibilität wie CUDA, Funktionsumfang, wie gut kann ich das Produkt verkaufen usw, was ist die Marge, usw.
Käufer interessieren sich nicht groß für die Hardware und kaufen das was die großen OEMs wie DELL, HP usw. in die Kisten verbauen und das deckt den mit Abstand größten Marktanteil von add-in boards ab.

Bei Smartphones interessiert sich auch kaum jemand für den Chip, man will einfach, dass es läuft.
DevPandi schrieb:
Nur scheinst du an der Stelle nicht zu verstehen, dass es hier viele Faktoren gibt, die sich eben gegenseitig nicht ausschließen.
OEMs sind keine Tiktok Teenager oder gehypte Retail-Kunden und auch DIY macht keinen großen Anteil.

Dein langer Text ist halt ein Paradebeispiel dafür was passiert, wenn man subjektive Enttäuschung mit objektiver Analyse verwechselt und sich dabei versucht intellektuell über "Fanboys" zu erheben, während man selbst ein Paradebeispiel für selektive Wahrnehmung ist.
DevPandi schrieb:
Ebenso scheinst du nicht zu verstehen, dass meine Anmerkung gegen einen gewissen Typus einer sehr eindimensionalen Argumentationskette gerichtet ist, die in der Regel nur von Fanboys verwendet wird...
Jaja, der böse, böse Typus. Das permanente Hinweisen auf den "Fehltritt" Blackwell und die völlige Überzeichnung von Problemen in dem Zusammenhang ist bei 94 zu 6% Marktanteil wohl eine Art Foren-sportliche Trauerbewältigung, während der schlichten Hinweise von @TheInvisible schon mehrere zwar oft überzeichnete aber berechtigte Gegendarstellungen enthielten, die allgemein viel zu kurz kommen.
DevPandi schrieb:
Wenn ich schreibe, dass ich Blackwell als Generation enttäuschend finde, dann habe ich dafür eine vielzahl an Arguemten, darunter die kaum bis nicht gesteigerte Effizienz. Der relativ geringe Leistungssprung, der sich in der Regel innerhalb der gestiegenen Leistungaufnahme bewegt und ebenso, dass Nvidia seit Januar 2025 jetzt gut ein halbes Jahr bis dreiviertel Jahr mit Problemen zu kämpfen hatte, die ich so von der Firma nur zur Jahrtausend wende kannte und zur Startzeit von Windows Vista.
Dass AMD auch Treiberprobleme hat ( Anfangs weniger), großartige Steigerungen seitens Nvidia gegenüber Ada Lovelace gar nicht nötig waren und auch aus Sicht des Herstellungsprozesses auch weniger zu erwarten war, lässt du unter den Tisch fallen. Unter Strich sind die Argumente schwach, weil konkreten Vergleichen mit der Konkurrenz aus dem Weg gegangen wird.
Wenn ein Hersteller näher an den Marktführer herankommt, bedeutet das nicht, dass zufriedene Kunden oder OEMs automatisch die Lager wechseln. Mal abgesehen davon, dass nicht sauber zitiert wird, sondern du Begriffe umtauschst "Fehltritt" wird zu "Enttäuschend" und Bezüge zu Postings verschleierst.
DevPandi schrieb:
Die Argumentation dagegen ist von manchen, dass Blackwell ja nicht enttäuschend sein kann, weil sie sich ja gut verkauft. DAS ist eine stumpfe und weitgehend eindimensonale Fanboy-Argumentation.
Stumpfe Argumentation gegen stumpfe Argumentation, mit dem Unterschied, dass Blackwell nach wie vor besser/stärker als die Konkurrenz ist und auch das Featureset weit mehr überzeugt, Alleinstellungsmarkmale für sich verbuchen kann, während das AMD nicht kann. In der Anwendungs B Note hinsichtlich KI auch erste Wahl ist.
DevPandi schrieb:
Und zum finanziellen Erfolg der Gaming-Sparte von Nvidia tragen auch viele psychologische Effekte bei. Der Sohn meins Kollegen...
Anekdotische Evidenzen und außerdem wieder Retail bzw. DIY Markt.
Tatsache ist du kannst deine "psychologischen Effekte" und die "Kunden sind Schuld" um zur Ehrenrettung für AMD anzutanzen nicht schlüssig begründen oder gar belegen, weil deine Links rein zur Preisgestaltung führen. Preispsychologie im OEM Bereich? Einfach nein.
DevPandi schrieb:
Gleichzeitig bist du es allerdings genauso oft, der differenzierte Betrachtungen nicht zulässt und das besonders oft, wenn es um Nvidia geht.
Ganz im Gegenteil, ich wäre erfreut darüber, wenn es eine differenzierte auch gerne kritische Betrachtung geben würde und man mit Argumenten und Quellen arbeitet.
Warum verkauft sich denn Ryzen momentan so gut? Liegt es daran, weil er gegenüber dem Vorgänger ineffizienter wurde und Intel viel näher rangekommen ist, oder daran, weil er immer noch die beste/schnellste Lösung in Anwendungen und Spielen ist?
DevPandi schrieb:
Dann erläutere doch mal, warum man Blackwell keine schwache Generation nennen darf, die durchaus auch enttäuschend ist.
Schwache Steigerung im Inhouse-Vergleich, keinesfalls schwach im Vergleich zur Konkurrenz sondern imho stärker als Ryzen gegenüber Arrow Lake, wenn man die Gesamtsicht betrachtet und sich nicht nur einzelne Punkte herausarbeitet. Wie das Echo zu Arrow Lake ist, weißt du ja.
DevPandi schrieb:
Erläutere ebenso, warum der finanzielle Erfolg gegen diese Sichtweise steht und das das ultimative Argument dagegen wäre.
Wurde in der Form so nie geäußert, also muss ich das auch nicht erörtern.
DevPandi schrieb:
Ich weiß, warum Nvidia mit Blackwell erfolgreich ist,
Dann sprich es doch mal aus. Deine Schätzung war, dass AMD mit RDNA4 Marktanteile zurückerobert, währenddessen Nvidia sie weiter ausgebaut hat. Was auch daran liegt, dass Nvidia einfach sämtliche Invests auf GPUs umlegen kann und AMD am Hungertuch nagt und dadurch gar nicht mehr in den Notebookmarkt kommt, weil es für AMD momentan selbst zu teuer und zu schwierig wäre.
https://de.dataconomy.com/2025/01/28/warum-amd-nvidia-im-laptop-gpus-fuer-2025-unangefochten-bleibt/

Es gibt so viele Gründe- Psychologie und Kundenbeeinflussung kommt so ziemlich als allerletztes. UDNA könnte daher auch eine Konzentration auf AI bedeuten und eine Abkehr vom Gamingbereich bis auf Einsteiger-Hardware und einer Ausklinkung davon. 128 Shader pro CU sind dafür ein Hinweis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
TheInvisible schrieb:
Ja das Problem ist halt das wir verschiedenste Sachen vermischen, sicher ich geb zu das ich mit den AIB zahlen argumentiert hab, und das war offenbar ein Eigentor es bleibt aber eine Sache erhalten:
Die Statistik ist Dumm, Nvidia kann nicht kontrollieren ob Leute z.B. in Singapur ne Grafikkarte oder 2 als Privatmensch kaufen oder um sie direkt nach China zu schicken...
Also 100% aller aktuell Massenhaft stattfindenen Schmugeleien nach China sind Nvidia Karten, oder 99% weil es ja um A.I. geht und die 9070er sind zu lahm für K.I. Firmen.

Wenn es also darum geht was für K.I. und Gaming und vielleicht noch andere Sachen an geht WELTWEIT verkauft werden, dann hat Nvidia mit einem vollen Lineup noch dazu gewonnen, das muss ich ein gestehen, wundert mich, da man mit 88 oder 92% so viel Verkauft das auch ein halbes Lineup mit guten Verkauften Karten das Theoretisch reduzieren könnte, da war ich wohl zu optimistisch.

Und AIB includiert auch schon wieder zusammen gebaute PCs nicht den Selbstbaumarkt um den es ursprünglich ging. Also PCs wo der Nutzer gar keine Auswahl hat, er geht in Mediamarkt und darf gar nicht entscheiden ob in dem PC den er kauft ne Nvidia oder AMD verbaut ist.und wenn dann in 95% Nvidia verbaut ist hat da Nvidia auch fast automatisch 95% Anteil...

Das Problem gabs auch bei AMD zu den Zeiten von Athlon x2 oder 64 oder so in Tests wurden sie hoch gejubelt die Leute haben bei kleinen PC Läden nach gefragt und bekommen sie da aber bei Mediamarkt und co wurde trotzdem stur 99% Intel verbaut. Aber gut das würde nichts ändern am Ausgang, ich finde Gründe nennen aber immer wichtig.

Anders sieht es bei den Chinaverkäufen aus, bzw AIB offenbar zählen da ja auch Workstationkarten dazu nen Nvidia A100 oder sowas zählt auch zu AIB (laut chatgpt), mir gings aber um Gamingmarktanteil und da fällt man zurück auf die sehr umstrittenen Steamzahlen.

Und ehrlich gesagt find ich da Mindfactory ganz gute Quelle für zahlen, ja man darf sie nicht 1:1 repräsentativ nehmen aber man kann durchaus Trends sehen, weil da fast nur Spieler einkaufen und ja es sind eben Selbstbausysteme, aber da ändern sich die zahlen am direktesten, weil die genau das kaufen was sie wollen und nicht kompromisse eingehen bei der Grafikkarte weil von den Gesamtpcs irgendwelche Nvidia Systeme vielleicht mit ner Größeren SSD kommt oder irgend sowas oder einfach mehr Modelle verfügbar sind.

Die Frage ist ja auch, kann man leichter ne Nvidia H100 und AMD Instinct MI100 oder wie die heißen nach China schmuggeln oder ne 5090 schmuggeln? Wenn ne 5090 dann hätte da AMD auf die Zahlen bezogen ein Problem, denn ne 5090 ist faktor 2-10 langsamer wie diese Großen Karten, da kommt man dann auch mit Stückzahlen an ein Ende, wenn Nvidia z.b. statt einer A100 5 oder 10 5090 verkauft ist die Rechenleistung die selbe der Gewinn vielleicht auch ähnlich oder gar geringer who knows, aber Anzahl hat man plötzlich ver 5 facht.

Das halt bei Nvidia blöd letztlich wären z.B. Deutschlandverkaufszahlen oder USA verkaufszahlen besser aber auch da kaufen Leute die normalen Consumerkarten um stattdessen nicht zu konsumieren damit sondern sie für Firmen benutzen. Wenn ich aber Gaming vergleichen will ist das schwierig.

Letztlich ist es fast egal Marktanteil wäre interessant für bessere Game unterstützung, da AMD aber die Next Gen konsolen und darüber hinaus die Handheld PCs kontrolliert und auch FSR4 auf die Playstation kommt kommen die Spielefirmen nicht drum rum sie zu unterstützen, aber was es zeigt ist das AMD sich was einfallen lassen sollte als Antwort auf die Super Karten.

Eine Sache hat sich mal jetzt geändert wenn man ne 9070 kauft kann man vielleicht noch sagen ich hab schlechteres Experience weil weniger Games noch FSR4 unterstützen das ist dann aber der einzige Nachteil der Karten, das weniger oder mehr verkauft wurden selbst ist ja für den Kunden der Kauft kein direkter Nachteil oder Vorteil, man hat dafür bessere Treiber und geringeren CPU Overhead... während man noch letztem Jahr eine ganze Einkaufsliste an Nachteilen hatte wenn man bei AMD gekauft hat. Und man hat ja weiterhin massive Vorteile bei z.B. Linux Support. Bezogen auf Gaming, bei Anwendungen ist der Kampf noch im Gange :)

Nachtrag:
Ein kleiner Wehrmutstropfen oder Einschränkung gibts dann doch noch für Nvidia, sie haben sich die guten Zahlen mal von China Schmuggeleien ab gesehen auch durch etwas erkauft, sie haben aggressiv die Preise gesenkt. Nun weiß ich nicht genau wer da hat bluten müssen, Nvidia die OEMs oder die Verkäufer der Karten, aber ja die 5080 und 5090 konnten sie noch fast zu UVP verkaufen aber alles darunter ist stark rabatiert, auch im vergleich zur letzten Gen.

Ne 5070 TI ist 100 Euro unterhalb UVP erhältlich und ne RTX 5070 65 Euro und ne 5060Ti 8gb 60 Euro unter UVP in Prozent sind das 11% 11% und 15% bei Nvidia während es bei AMD nur von Oben nach unten 7% 6% und 2% sind.

Dazu kommt das z.B. ne 5070 Ti Super die gleiche Größe des Dies und GDDR7 hat, sicher der GDDR6X mag damals gleich teuer gewesen sein selbst wenn er teurer wie GDDR7 gewesen wäre war er sicher nicht 50 Dollar teurer, das ist aber schon der UVP der Geringer ist.

Also obwohl Nvidia die UVP gesenkt hat, bei ungefähr gleichen kosten (also weniger Gewinn pro Karte/Chip), mussten sie im Handel noch stärker rabattiert werden deutlich als AMD.

Während AMD ein Chip der nur minimal größer wie eine RX 7800xt ist von deren UVP 500 USD auf 600 USD erhöhen konnte, bei gleichem Ram also man konnte die Gewinnmarge pro Chip erhöhen leicht. Assuming 4nm ist nicht deutlich teurer wie damals 5nm war. Schlimmstenfalls hat man die Gewinnmarge gehalten.

Also soweit ich das überblicke hat man erstmal bei Nvidia weniger Marge pro Chip veranschlagt, als auch ide Händler in ne Lage gesetzt trotz dieser Senkungen um die bestellten Mengen halbwegs los zu bekommen die stärker zu rabatieren.

Wenn ich nen Händler habe der sieht, ok ich hab 1000 Nvidia Karten gekauft und 100 von AMD sagen wir deren Gewinn mit UVP wäre 20% und ich muss davon bei Nvidia 5-13% mehr Preis nach lassen, dann bleiben mir bei Nvidia noch 9% 9% und 5% gewinn bei AMD 13% 14% und 18% ohh dann kauf ich das nächste mal 200 oder 300 von AMD senke die leicht im Preis und krieg trotzdem noch >10% gewinn statt den 5-9% bei Nivdia.

Also ist ne Frage wie Träge sind solche Systeme. Bei Notebooks ists ja ganz extrem da kann AMD über Jahre bessere Chips bauen und es dauert jahre um auch nur bisschen bewegung zu sehen.

Also was denke ich relativ sicher ist, ist das der Gewinn pro Chip bei Nvidia gesunken ist, das ist denke ich ein Meilenstein, man musste sich mit Geld erkaufen das man so hohe Anteile behält in dem man die Preise senkt. Das geht aber nicht unendlich, außer Nvidia will irgendwann Gaming subventionieren.

Es ist auch ne Marketingfrage selbst wenn man noch leichet Gewinne macht bei weiteren Senkungen, wenn man die Leute nur noch über den Preis bekommen kann, verliert man das Apple Image... und es wird immer Leute geben denen ist Preis egal, also dieses Image das man bei Nvidia das beste bekommt wenn man im Zweifel aufpreis bezahlt, das will Nvidia sicher ungern verlieren.

Und ja wäre das alles so toll, das Nvidia einfach 94% des Marktes fest im Griff hat, wozu dann die Super karten... ergibt doch 0 Sinn oder hat Nvidia plötzlich das Herz für Gamer gefunden das man gerne genügend RAM verteilt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und jo0
ETI1120 schrieb:
Es ist aus den Quartalszahlen offensichtlich, dass Nvidia weit mehr GPUs absetzt als AMD.
Amazon Analysen, John Peddie Research, Steam, Quartalszahlen usw. blasen alle ins gleiche Rohr.
Das ist absolut unstrittig und trivial. Man muss diese Debatte über Marktanteile nicht führen.
9070(XT) ist bei Steam ja nicht einmal aufgeführt.
ETI1120 schrieb:
Aber die Zahlen die zu den Marktanteilen veröffentlicht werden kann man allesamt in die Tonne treten. Egal wer da was veröffentlicht.
Naja, bei solchen Äußerungen fällt es schwer noch eine Debatte führen zu können, wenn nicht einmal triviale Grundaxiome akzeptiert werden. Zahlen sind lästig. Viel wichtiger ist es doch was man im Gefühl hat...
ETI1120 schrieb:
Die Argumentation Deiner Fraktion, dass Nvidia die besten GPUs sind weil sie sich am besten verkaufen, ist hohl.
Wurde so nur nie geäußert und als taktisch falsche Prämisse eingebracht und von dir zur ganzen "Fraktion" hochstilisiert, damit man auch um das nächste Grundaxiom "Nvidia hat die schnelleren Karten" drumherumkommt, was eigentlich auch ungefragt gilt.
ETI1120 schrieb:
zeigt doch das es gar nicht um die Technik geht.
Richtig, es geht nur um genehme Technik. Also alles das wo AMD konkurrieren kann, der Rest wird häufig abgewertet und das schaffst du ja auch zu den Marktanteilen, schließlich zählt ja eine Forumsumfrage mit 3K Teilnehmern oder so ähnlich. Sicher sind das momentan auch primär GPUs für KI, aber das KI Thema wird für Spiele genauso breit kommen und in 5-10 Jahren wird man gar nicht mehr verstehen wie man jemals ohne RT/PT und "KI" bzw. neural shading spielen konnte.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Wurde so nur nie geäußert und taktisch falsche Prämisse eingebracht und von dir zur ganzen "Fraktion" hochstilisiert, damit man auch um das nächste Grundaxiom "Nvidia hat die schnelleren Karten" drumherumkommt, was eigentlich auch ungefragt gilt.
Das ist es ja, es wird hier um Fakten diskutiert die nicht diskussionswürdig sind weil Zahlen vorliegen. Als würde man diskutieren ob die Erde nun rund oder flach ist. Die Faktenlage ist hier klar, trotzdem gibs genug Diskussion darüber was Schwachsinn ist.
 
Um nochmal eine Leistungsprognose zu wagen:

Sofern wir 12288 echte Shader samt 512bit Interface bekommen dürfte es ja eher ein Big Chip werden.

Leistungsaufnahme vermutlich dann bis zu 525 Watt.
3x150w 8Pol und 75w über PCIe

Ich denke AMD visiert wieder 50% mehr Energieeffizienz an

N2P werden wir vermutlich nicht sehen.
N3 spart aber auch 30% ggü N5.
20% durch Design und bessere/konservativere Taktrate ggü der 9070xt halte ich für realistisch.

Dann wären wir bei 525watt Budget bei 2,6facher Leistung ggü der 9070xt.

Das reicht um sich 25-30% vor eine 5090 zu schieben. (2,6×48%)

Damit wird Man vermutlich gegen eine 6080ti antreten können.

Ende 2026/Anfang 2027 halte ich das für realistisch.
 
  • Gefällt mir
Reaktionen: SweetOhm
AfFelix schrieb:
Leistungsaufnahme vermutlich dann bis zu 525 Watt.
3x150w 8Pol und 75w über PCIe

Ähm... mehr als 66W (5,5A) gibbet nich über PCIe / 12V.
Die restliche Leistung gäbe es über die 3,3V-Schiene... das ist nur für die Graka gnadenlos uninteressant...
 
  • Gefällt mir
Reaktionen: AfFelix
Araska schrieb:
Ähm... mehr als 66W (5,5A) gibbet nich über PCIe / 12V.
Ah was dazu gelernt.
Naja dann halt 500w oder der verhasste 12Pol.

Wobei ich mir Ende 2026/Anfang 2027 auch gut N2p vorstellen könnte. Dann käme man eh in die 400 Watt Region
 
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Käufer interessieren sich nicht groß für die Hardware und kaufen das was die großen OEMs wie DELL, HP usw. in die Kisten verbauen und das deckt den mit Abstand größten Marktanteil von add-in boards ab.

Bei Smartphones interessiert sich auch kaum jemand für den Chip, man will einfach, dass es läuft.

OEMs sind keine Tiktok Teenager oder gehypte Retail-Kunden und auch DIY macht keinen großen Anteil.
Fertig-PCs werden doch nur noch höchstens von Business-Kunden für die Büros gekauft, und selbst da geht der Trend eher weg von Desktop-PCs persönlichen Schreibtischen und hin zu Notebooks und Rollcontainern.

Und bei Privatkunden und Kleingewerbe geht der Trend schon noch länger weg von den Desktop-PCs und hin zu den Notebooks.

Aber wer aus bestimmten Gründen einen Desktop möchte, Gamer haben darunter sicher den Grössten Anteil, aber auch Video-Creator, etc. der baut ihn sich schon in der Regel selbst nach Wunsch zusammen oder lässt ihn sich Custom zusammenbauen.
 
Limit schrieb:
Ich sehe da für AMD kein so großes Risiko. AMD will die selbe grundlegende Architektur als Nachfolger für die Instinct-Karten genau so wie für die Radeon Karten nutzen. Dieser Spagat ist die Schwierigkeit. Wenn sie denn schaffen, dürfte auch AT0 funktionieren. Wenn sie es nicht schaffen, haben sie ganz andere Probleme. Dann spielt AT0 kaum mehr eine Rolle oder wird sowie noch vor Release gestrichen.
Es ist ein eigener große teurer Die, für einen Markt bei dem sich AMD bisher nicht etablieren konnte.

Und wie weit das ganze für Games skaliert ist ebenfalls ungewiß.

Limit schrieb:
Das sehe ich absolut nicht. Alles was sich gut für lokales Inferencing eignet, ist derzeit stark gefragt, egal ob Mini-PCs mit Strix Halo, Mac Studios oder eben GPU-Modelle mit viel VRAM.
Für diesen zweck wäre AT3 mit LPDDR6 besser geeignet.

Limit schrieb:
Aus einem Interview von Tom's Hardware mit AMD VP.
TH: Price point-wise, you have leadership, but you won't go after the flagship market?
JH: One day, we may.
Hört sich erst einmal nicht so eindeutig an, aber ich denke, wenn AMD keinen entsprechenden Pläne hätte, wäre die Antwort anders ausgefallen.
One day we may, signalisiert dass es nicht geplant ist, aber in Zukunft durchaus kommen kann. Aber du hast sehr geschickt geschnitten, unmittelbat vor einem "Aber".

Die Frage und komplete Antwort:
TH: Price point-wise, you have leadership, but you won't go after the flagship market?

JH: One day, we may. But my priority right now is to build scale for AMD. Because without scale right now, I can't get the developers. If I tell developers, ‘I’m just going for 10 percent of the market share,’ they just say, ‘Jack, I wish you well, but we have to go with Nvidia.’ So, I have to show them a plan that says, 'Hey, we can get to 40% market share with this strategy.' Then they say, 'I’m with you now, Jack. Now I’ll optimize on AMD.' Once we get that, then we can go after the top.
In der kompletten Antwort wird klar, dass Jack Huyhn erst Volumen und Marktanteile will, wenn er das hat, dann ...

Es ist kein Statement bei dem AMD ankündigt dass AMD wieder High End Grafikkarten machen will.
 
ETI1120 schrieb:
Es ist ein eigener große teurer Die, für einen Markt bei dem sich AMD bisher nicht etablieren konnte.
Das Risiko liegt bei der Entwicklung der Architektur. Ein so großer Chip ist sicherlich teuer, aber im Vergleich zu den Architekturkosten spielen dies Kosten für einzelne Chips eine untergeordnete Rolle. ChatGPT sagt 40-70% Kosten für Architektur und Software und 10-25% für die einzelnen Varianten.

ETI1120 schrieb:
Und wie weit das ganze für Games skaliert ist ebenfalls ungewiß.
Ginge es nur oder hauptsächlich um Gaming, würde kein AT0 Chip kommen. Dann gäbe es eher ein AT1 Chip, den man dann wohl als Navi31 Nachfolger betrachten hätte können. Da wären dann vielleicht 80CUs bei 256/384Bit SI realistischer. Wenn man aber für AI einen entwickelt, kann man ihn auch in einer Gaming-Variante bringen und sich den großen Gaming-Chip sparen,

ETI1120 schrieb:
Für diesen zweck wäre AT3 mit LPDDR6 besser geeignet.
Für Windows Copilot oder ähnliches reicht das, aber es gibt vieles, was einfach nach mehr Leistung verlangt, sei es ein lokales LLM, dass Software-Code generiert oder ein Diffusion Modell, das fotorealistische Bilder und Videos generiert. Heute werden dafür gerne High-End Gaming Karten oder bei etwas geringeren Anforderungen so etwas wie Strix Halo oder Max Studio genutzt. Dabei spielt die Speichergröße fast schon eine größere Rolle als die Rechenleistung.

ETI1120 schrieb:
One day we may, signalisiert dass es nicht geplant ist, aber in Zukunft durchaus kommen kann. Aber du hast sehr geschickt geschnitten, unmittelbat vor einem "Aber".
Bei dem Interview ging es um die Einführung von RDNA4. Natürlich hätte er sagen können: "Wir haben die Entwicklung von RDNA4 vermasselt und können daher nur Mittelklasse liefern, aber die nächste Generation bekommt wieder eine High-End-Variante." Aber das Framing mit dem Fokus auf die Mittelklasse um den Gamern günstigere Karten anbieten zu können hört sich doch viel besser an.
Neue GPUs haben lange Vorlaufzeiten. Wäre nichts geplant, hätte er das einfach sagen können. So wie er es formuliert hat, heißt es eher wir planen was, aber ich will dazu nichts weiter sagen.
 
Und auf der IFA kann man natürlich nicht über die bevorstehende Einführung von RDNA4 sprechen? Ich geb's auf. Wenn das der einzige Punkt ist, über den du hier schreiben willst, hab ich dem nichts mehr hinzuzufügen.
 
Limit schrieb:
Und auf der IFA kann man natürlich nicht über die bevorstehende Einführung von RDNA4 sprechen?
Du kannst doch alle 3 Teile des Interviews bei Toms Hardware lesen. Du kannst auch das Echo zum ersten Teil des Interviews lesen. Auch hier bei Computer Base.

Es war nicht die Einbführung von RDNA 4 und Dein Wortspiel ist lahm.
 
Limit schrieb:
ChatGPT sagt 40-70% Kosten für Architektur und Software und 10-25% für die einzelnen Varianten.
Die Kosten für die Entwicklung des Chips sind allerdings auch nur ein Teil dessen, was rein gespielt werden muss.

Dazu kommen noch Folgekosten, die AMD einspielen muss. AMD hat in den letzten beiden Quartale. Ca. 1,4 Millionen GPUs ausgeliefert. NVIDIA in gleichen Zeitraum knapp 20.000.000.

AMD ist jetzt von 8 % auf 6 % abgestürzt und mit diesem Marktanteil wird AMD mittelfristig keine Highend-Duelle mit NVIDIA angehen. Selbst wenn ich es mir wünschen würde.

Klar, der AT-0 könnte - und hier ist die Betonung drauf - für MS und Sony gedacht sein und deren Cloudlösungen für XBox und PlayStation. In wie weit dann für uns Consumer etwas abfällt, bleibt abzuwarten.

Alleine pro Maske werden ca. 1.000.000 bis 10.000.000 an Kosten veranschlagt. Bei 10 bis 15 Masken reden wir im Worstcase von 150.000.000 nur für die Masken eingerechnet werden.

Bei einem Preis von 999$ wollen Händler und AIBs auch. Wenn die ganze Kette „nur“ 10 % will, ist man mit dreien in der Kette bei 700 $

Die 10 % sind jedoch utopisch, da ist eher 20, 20, 20 die jeder bekommt und das ist schon sehr positiv für AMD. Also eher so 500 $ die AMD für den Chip und den RAM bekommt. Da das ja gebündelt wird.

AMD müsste also mindestens. 300.000 AT-0 absetzten, damit alleine die Kosten für die Masken drin sind. Und da haben wir sowas wie VRAm, Wafer und Co ausgeblendet.

Mit alle. Weiteren Kosten könnte man hier eher von 600.000 bis 900.000 GPUs ausgehen, die AMD verkaufen muss, damit alleine die Kosten drin sind, die der Chip sie bei TSMC kosten könnte.

Aktuell müssen wir uns eher die Frage stellen, ob AMD sowie Intel noch bereit sind wirklich Ressourcen abseits des iGPU-Marktes und Spezialaufträge durch MS und Sony „dediziert“ in die GPU Entwicklung zu stecken.

Bei AMD könnte ich mir gut vorstellen, dass sie Gaming eben wegen Sony und MS weiter betreiben, jedoch die Kosten so runter fahren, dass wir in Zukunft „minimal“ angepasste Konsolen-Fassungen ihrer Chips bekommen und wenn man sich AT-3 und AT-4 ansieht und was da an Gerüchten herumgeistert, ist das nicht mal unwahrscheinlich.

bei Intel ist es aktuell auch die Frage ob wir Xe3 noch als AIB sehen oder es bei iGPU bleibt.

In dem Bereich iGPU haben AMD und Intel „noch“ eine Chance, da NVIDIA auf ARM und Partner angewiesen ist. Je nach „Erfolg“ der Kooperation mit Mediatek und einem ggf. Durchbruch mit ARM SoC auf mittlere oder lange Sicht, könnt es allerdings auch da passieren, dass AMD und Intel sich auf HPC zurück ziehen. Da haben sie wenigsten Ansatzweise selbst bei geringem Marktanteil die Chance Gewinn zu machen.
 
  • Gefällt mir
Reaktionen: Nighteye, Quidproquo77 und ETI1120
DevPandi schrieb:
Die Kosten für die Entwicklung des Chips sind allerdings auch nur ein Teil dessen, was rein gespielt werden muss.
Sicher gibt es noch andere Fixkosten wie Marketing usw., aber die sollten nicht so ins Gewicht fallen.

DevPandi schrieb:
AMD ist jetzt von 8 % auf 6 % abgestürzt
Wobei das nur relativen Zahlen sind, da der Gesamtabsatz gestiegen ist, hat AMD in absoluten Zahlen nicht unbedingt weniger verkauft.

DevPandi schrieb:
und mit diesem Marktanteil wird AMD mittelfristig keine Highend-Duelle mit NVIDIA angehen. Selbst wenn ich es mir wünschen würde.
Wäre AI nicht, würde ich dir Recht geben, aber man hat die Architektur bereits und bei den Margen für AI-Karten ist es ein überschaubares Risiko eine Gaming-Variante des High-End AI-Chips zu bringen. Den Specs nach ist AT0 in erster Linie für AI ausgelegt und Gaming ist nur eine Resteverwertung.

DevPandi schrieb:
Klar, der AT-0 könnte - und hier ist die Betonung drauf - für MS und Sony gedacht sein und deren Cloudlösungen für XBox und PlayStation. In wie weit dann für uns Consumer etwas abfällt, bleibt abzuwarten.
Nur dafür würde man wohl eher nicht einen extra Chip auflegen, aber eine zusätzliche Variante auf Basis des gleichen Chips ist sicherlich drin.

DevPandi schrieb:
Alleine pro Maske werden ca. 1.000.000 bis 10.000.000 an Kosten veranschlagt. Bei 10 bis 15 Masken reden wir im Worstcase von 150.000.000 nur für die Masken eingerechnet werden.
Die Kosten für Tape-Out hatte ChatGPT bereits in den 10-25% mit drin. Tape-Out und Validierung sind mit Abstand die größten Kostenpunkte für einen zusätzlichen Chip auf Basis einer vorhanden Architektur.

DevPandi schrieb:
Bei einem Preis von 999$ wollen Händler und AIBs auch. Wenn die ganze Kette „nur“ 10 % will, ist man mit dreien in der Kette bei 700 $
Wie gesagt dürfte AI der Fokus bei AT0 sein und da kosten Nvidia Karten über 8000€ für eine 96GB-Karte mit GB202. AMD wird nicht die gleichen Preise verlangen, aber die Marge dürfte trotzdem sehr ordentlich werden.
Wenn dann die Marge für die Gaming-Ableger geringer ist, ist das im Gegensatz zu einem reinen Gaming-Chip verschmerzbar.

DevPandi schrieb:
Aktuell müssen wir uns eher die Frage stellen, ob AMD sowie Intel noch bereit sind wirklich Ressourcen abseits des iGPU-Marktes und Spezialaufträge durch MS und Sony „dediziert“ in die GPU Entwicklung zu stecken.
Die Konsolenchips bringen zwar gut Cashflow, aber keine hohen Margen. Das Geschäft lohnt sich nur dann, wenn du die nötige IP schon hast. Würde AMD sich auf iGPUs zurückziehen wäre das auch das Aus für das Konsolengeschäft und natürlich das mit Beschleunigern für Rechenzentren.


DevPandi schrieb:
bei Intel ist es aktuell auch die Frage ob wir Xe3 noch als AIB sehen oder es bei iGPU bleibt.
Sie wollen genau wie AMD in den AI-Markt. Da gibt es zur Zeit das große Geld zu verdienen und das funktioniert nicht mit kleinen iGPUs.
 
  • Gefällt mir
Reaktionen: Quidproquo77
DevPandi schrieb:
Die Kosten für die Entwicklung des Chips sind allerdings auch nur ein Teil dessen, was rein gespielt werden muss.
ChatGPT antwortet viel wenn der Tag lang ist. auch die Kosten für die Software steigen wenn mehr Hardwarevarianten unterstützt werden müssen.

Chip Design und Physical Design eines Dies veruracht hohe Kosten und benötigt Ressourcen. Auf der CES 2025 haben die Leute von AMD mehrmals gesagt, dass sie die großen GPUs nicht kostendecken waren. und dass sie wegzulassen mehr Spielraum bei der Preisgestaltung der anderen GPUs gibt.
DevPandi schrieb:
Dazu kommen noch Folgekosten, die AMD einspielen muss. AMD hat in den letzten beiden Quartale. Ca. 1,4 Millionen GPUs ausgeliefert. NVIDIA in gleichen Zeitraum knapp 20.000.000.

AMD ist jetzt von 8 % auf 6 % abgestürzt und mit diesem Marktanteil wird AMD mittelfristig keine Highend-Duelle mit NVIDIA angehen. Selbst wenn ich es mir wünschen würde.
Ob AMD jetzt 2 % oder 20 % Marktanteil hat, der Ansatz in der Spitze ist dünn. Nvidia hat dafür gesorgt dass die 4090 und 5090 für AMD unangreifbar waren. Das wird bei der 6090 uch nicht andres sein
DevPandi schrieb:
Klar, der AT-0 könnte - und hier ist die Betonung drauf - für MS und Sony gedacht sein und deren Cloudlösungen für XBox und PlayStation. In wie weit dann für uns Consumer etwas abfällt, bleibt abzuwarten.
Mal eine Frage, was soll so eine große Grafikkarte im Cloudgaming bringen?
DevPandi schrieb:
Aktuell müssen wir uns eher die Frage stellen, ob AMD sowie Intel noch bereit sind wirklich Ressourcen abseits des iGPU-Marktes und Spezialaufträge durch MS und Sony „dediziert“ in die GPU Entwicklung zu stecken.

Bei AMD könnte ich mir gut vorstellen, dass sie Gaming eben wegen Sony und MS weiter betreiben, jedoch die Kosten so runter fahren, dass wir in Zukunft „minimal“ angepasste Konsolen-Fassungen ihrer Chips bekommen und wenn man sich AT-3 und AT-4 ansieht und was da an Gerüchten herumgeistert, ist das nicht mal unwahrscheinlich.
Das siehst Du zu schwarz. AMD kann aus vielen Gründen diesen Markt nicht aufgeben.

Allerdings hat AMD in der vergangenheit viel zu wenig aus ihren Konsolendeals herausgeholt. Der Fehler war dass AMD nur die Hardwaregeliefert hat.
DevPandi schrieb:
bei Intel ist es aktuell auch die Frage ob wir Xe3 noch als AIB sehen oder es bei iGPU bleibt.

In dem Bereich iGPU haben AMD und Intel „noch“ eine Chance, da NVIDIA auf ARM und Partner angewiesen ist. Je nach „Erfolg“ der Kooperation mit Mediatek und einem ggf. Durchbruch mit ARM SoC auf mittlere oder lange Sicht, könnt es allerdings auch da passieren, dass AMD und Intel sich auf HPC zurück ziehen. Da haben sie wenigsten Ansatzweise selbst bei geringem Marktanteil die Chance Gewinn zu machen.
Ohne eine Starke Position auf dem Client haben weder AMD noch Intel eine Chance auf Dauer im HPC oder DC AI Markt mitzumischen.

Das hat AMD im verlauf der letzten 2 Jahre kapiert:
Ein nettes Interview:

PS
Ich weiß nicht so recht wie ich einschätzen soll, dass die Grafik Dies nach Transformern benannt wurden
AT = Alpha Trition
 
  • Gefällt mir
Reaktionen: [SM]Valen und Quidproquo77
Zurück
Oben