News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

Nighteye schrieb:
Weils mir pur um die Technik von RDNA geht.
Ich mache Cherrypicking, indem ich deine manipulierten Grafiken vervollständige und stelle mich dumm, weil ich nicht verstehe, dass deine "Eingriffe" in die Tabellen nur "technischer Natur" sind? :p
Nighteye schrieb:
Das habe ich auch begründet.
Und wie begründest du dann das Fehlen der 5070Ti und 5080, die in dem RT Ranking vorne gewesen wären?
Naja, es sei wie es sei.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
Limit schrieb:
Das behaupte ich ja auch gar nicht. Die Instinct-Serie wird bei HBM-Speicher bleiben. Aber zwischen den Instinct-Karten und einem Nachfolger von Navi44 bzw. Navi31gibt es durchaus genügend Platz für zusätzliche Karten mit KI-Fokus.
Platz ja, aber gibt es da auch einen Markt für AMD?
Limit schrieb:
Wenn die Stückzahlen eher geringer sind macht es doch umso mehr Sinn den gleichen Chip für KI und Gaming zu nutzen.
Das kann sich Nvidia leisten weil sie den entsprechenden Absatz haben.

Bei AMD bleibt es die große Frage.
 
ETI1120 schrieb:
Was gerne vergessen wird, AMD hat die Release Frequenz für CDNA auf jährlich umgestellt.
Die MI400 wird H1 2026 released.
Die MI400 soll GFX12.5 sein. Die GPUs über die wir hier diskutieren sind GFX13.
Alle reden von 2027.
Also RDNA 5/CDNA1 kommt deiner Einschätzung nach erst im 1 Halbjahr 2027 ?
Und RDNA 6/CDNA2 (so nenne ich es einfach mal) dann schon 1 jahr nach RDNA 5 ?
 
LikeHike schrieb:
Offensichtlich schon, sost würde der durchschnittliche Vorteil nicht bei ~20% liegen.
Mal nen neuen Gaming Bench Parkour abwarten, wenn mehr UE5 Titel reinkommen (sollten). ;)
LikeHike schrieb:
Dann ist ja noch besser dass ich mich in keiner einzigen Aussage darauf bezogen habe.
Deine ursprüngliche Aussage (auf die ich erst reagiert habe) war ja auch: "ein EINZIGER Ausreißer" und "wird in den beiden Titeln DEUTLICH von der 5080 geschlagen".

Das habe ich mit meinen genannten Quellen erfolgreich korrigiert...und dir sogar noch DEUTLICH mehr Ausreißer genannt ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut und Quidproquo77
Nighteye schrieb:
Also RDNA 5/CDNA1 kommt deiner Einschätzung nach erst im 1 Halbjahr 2027 ?
Der Tenor ist Ende 2026 Anfang 2027. Ob der Tenor stimmt weiß ich nicht.

Es gibt einen Ausreißer der behauptet Medusa Point kommt für Notebooks Anfang 2026, alle anderen sagen Ende 2026 Anfang 2027.

Was man aus den Export Datenbanken zu Fp10 Medusa hört passt zum späteren Termin. Warum sollte AMD zu FP10 wechseln wenn es nicht um LPDDR6 geht?

Nighteye schrieb:
Und RDNA 6/CDNA2 (so nenne ich es einfach mal) dann schon 1 jahr nach RDNA 5 ?
Die Datacenter GPUs werden auf absehbare Zeit einen 1 Jahres Rhythmus haben.

Was sollte sich AMD Rhythmus bei den Gaming GPUs ändern? Ein bisschen mehr als 2 Jahre passt doch.

Wie gesagt mein Verständnis ist AMD wird Datacenter GPUs, Gaming GPUs und das Programiermodell kompatibel halten. Es wird aber nach wie vor unterschiedliche Dies für beides geben.
Ergänzung ()

Noch eine Anmerkung. Kepler hat beim Initialen Post im Anandtech Forum geschrieben dass der Tape Out noch nicht erfolgt sei. Wenn das stimmt ist Anfang 2026 ausgeschlossen.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Noch eine Anmerkung. Kepler hat beim Initialen Post im Anandtech Forum geschrieben dass der Tape Out noch nicht erfolgt sei. Wenn das stimmt ist Anfang 2026 ausgeschlossen.
Das ist doch wieder dem AMD Hype geschuldet. Auch diese Speku das man für RDNA5 alle Entwickler zusammenzieht ist doch Unsinn, wenn gehen die alle in die AI Sparte. Bei GPUs muss man dauernd draufbleiben und nicht alle paar Jahre mal, Nvidia ist mit Neural Rendering schon wieder vorn und AMD bastelt noch immer an Redstone herum.
Es wird aber lieber schon 1,5 Jahre vor Release herumgehyped wie toll ja alles sein wird, MLID kommt schon mit "5090 Killer" daher, jede Generation das gleiche...
 
ETI1120 schrieb:
Platz ja, aber gibt es da auch einen Markt für AMD?
Wieso denn nicht, wenn sie selbst mit Navi48 einen extra AI-Beschleuniger herausbringen. Die HW-Specs von AT0 entsprächen viel mehr einem KI-Beschleuniger als einer Gaming-GPU.

Beim Trainieren von Modellen hat Nvidia sicherlich einen sehr großen Vorsprung (hier wären AMDs Instinct-Karten die Konkurrenz), aber wenn es um Inference geht, sehe ich die Hürden für andere Anbieter wie eben AMD nicht so hoch.

ETI1120 schrieb:
Das kann sich Nvidia leisten weil sie den entsprechenden Absatz haben.
Das macht keinen Sinn. Bei hohen Stückzahlen macht es mehr Sinn separate Chips zu entwickeln (höhere Fixkosten, geringere Stückkosten). Bei geringeren Stückzahlen hingegen ergibt ein gemeinsamer Chip mehr Sinn (niedrigere Fixkosten, höhere Stückkosten).
 
blackiwid schrieb:
die 92% sind extrem veraltete Zahlen...
Nicht wirklich - siehe Q1/2025:
IMG_0669.jpeg

Genau 92% …
Ergänzung ()

SKu schrieb:
Wenn die 10090 XTX 30-40% schneller wird als die 6090, dann Deal. Ansonsten kann sich AMD Highend sparen, wenn nicht konkurrenzfähig.
Das ist doch Schwachsinn - aber wenn die RX xxx90 XTX wenigstens überhaupt einmal mit der RTX xx90 und nicht xx80 konkurrieren würde wäre schön :)
danyundsahne schrieb:
Aber im RR und RT ist AMD NV doch sehr dicht auf den Fersen mit ihrer 650€ Karte..... Man kann sehr gut konkurrieren für dieses Geld.
Ja - aber eben mit der 100€ teureren und im Schnitt 8% stärkeren 5070 Ti:
IMG_0599.jpeg

Die 5080 hat verhältnismäßig ein schlechteres P/L-Verhältnis - ist aber ganze 24% vorne … bei Intel spricht man bei 15-20% Differenz bereits von „nicht fürs Gaming geeignet“ :p
danyundsahne schrieb:
Aber dass man auch auf anderer Seite im Raster immer wieder mal auf ein 1000€+ 5080 Niveau kommt
Ist nett - aber eben ein Einzelfall wie der Schnitt zeigt, man ist ja offensichtlich auch genauso oft weiter hinten als diese 24% im Schnitt …
danyundsahne schrieb:
Daher kommt eben eine 9070XT automatisch sehr nah von ihrer eigentlichen Konkurrentin 5070ti ran. Isso
Grammatikalisch schwierig, aber die Aussage passt.
danyundsahne schrieb:
Was kostet ne 5080 nochmal Aufpreis?
ca. 350€ für 24% mehr Leistung - was wäre denn die Alternative wenn einem die Leistung der Mittelklasse aktuell nicht ausreicht? Stimmt …

Es gibt einfach teurere Hobbies …
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, Taxxor und TheInvisible
Nighteye schrieb:
Mein Tenor gestern war, die Karte wird mit 80% Powertarget bereits ohne Undervolting sehr viel effizienter.
Sehr viel mehr als bei Geforce RTX 5080. Richtig ?
Woher weist du das denn ohne Tests?
Bei der 5090 wurde das getestet, 10% Performanceverlust bei 70% Powerlimit, 5% bei 78% Powerlimit.

Da gilt genau das gleiche, wie bei der 9070XT, auch bei der 4090, die Karten hätten allesamt ohne Probleme mit 20-30% niedrigerer TDP kommen können.

Die 5080 verbraucht zudem auch im Testparcour trotz 360W TDP ja gerade mal 282W im Schnitt, während die 9070XT sich in jedem Spiel genau an ihre 304W hält.

Da kommst du mit der Effizienz auch nicht über die 5080, wenn man die 9070XT mit PT Limit auf 243W festnagelt und 5% verliert, dann verbraucht die 5080 Stock halt 40W mehr(+16%) ist dafür aber auch 30% schneller.
Die Performance/W Tabelle bei CB wird ja leider auch nur von einem einzigen Spiel gebildet und nicht vom Durchschnitt(obwohl man für jedes Spiel die FPS und Verbräuche ja mitgeloggt hat)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, ElliotAlderson und MalWiederIch
  • Gefällt mir
Reaktionen: Nighteye
Edit: Doppelpost …
 
TheInvisible schrieb:
Nvidia hat wieder zugelegt:
Warum das so ist dafür gibts 2 Gründe:
1. Jensen hat vor einiger Zeit 1Mio $ dem orangen Trumpel für ein Abendessen bezahlt.
2. bitte den Chinesen in einem von Steve´s letzten genau Video zuhören.
 
  • Gefällt mir
Reaktionen: SweetOhm
Limit schrieb:
Wieso denn nicht, wenn sie selbst mit Navi48 einen extra AI-Beschleuniger herausbringen. Die HW-Specs von AT0 entsprächen viel mehr einem KI-Beschleuniger als einer Gaming-GPU.
AMD hat schon immer Workstation Grafikkarten von den Gaming Karten abgeleitet. Der Erfolg war sehr überschaubar. Und nun musste halt auch da AI in den Namen.

Ein Chip mit den Specs vom AT0 wäre sehr teuer mit ziemlich bescheidenen Absatzchancen, weil die Leute und Firmen die so was kaufen Stammkunden von Nvidia sind. Bei der Gamingseite wird es bei AMD sehr schnell dünn wenn die Preise über die 1000 USD klettern.

Außerdem, wäre etwas zu machen wäre das glatte Gegenteil von dem was AMD seit 2 !/2 Jahren erzählt. Dass Navi 48 zu klein ist, das ist klar. Aber einen Gegenspieler zu x090 zu entwickeln und den entweder zu verscherbeln zu müssen wie die 7900 oder nichts zu verkaufen ist keine Erfolgsstrategie.

Limit schrieb:
Beim Trainieren von Modellen hat Nvidia sicherlich einen sehr großen Vorsprung (hier wären AMDs Instinct-Karten die Konkurrenz), aber wenn es um Inference geht, sehe ich die Hürden für andere Anbieter wie eben AMD nicht so hoch.
Die MI300 wurde von AMD als Inference Lösung vermarktet. Mit der MI350 will AMD auch ein bisschen vom Trainingkuchen abhaben. Wenn man sich die Zahlen anschaut dann sind es die guten alte Freunde, die die MI300 kaufen. Die Hyperscaler. Sonst ist der Absatz mau.

Limit schrieb:
Das macht keinen Sinn.
Erzähl das Jensen Huang.

Der GB202 wird wir in den Profikarten und abgespeckt für die 5090 verkauft. Bei Ada Lovelace hat Nvidia sogar einige AD102 in die 4070TI gepackt.
 
TheInvisible schrieb:
Das ist doch wieder dem AMD Hype geschuldet.
Für den AMD meist nichts kann.
Ausnahmen Vega und RDNA 3.

Ich halte mich grundsätzlich aus allen Performance Spekulationen raus, weil ich erstens nicht das notwendige Wissen haben um fundierte Schätzungen zu machen und zweitens weil solche Diskussionen in immer Wunschdenken ausarten. Und zwar in beide Richtungen.

TheInvisible schrieb:
Auch diese Speku das man für RDNA5 alle Entwickler zusammenzieht ist doch Unsinn, wenn gehen die alle in die AI Sparte.
Das AMD alle Entwickler für RDNA5 zusammenzieht hat auch niemand behauptet. Es wurde verbreitet, dass AMD bei RDNA4 weniger Leute drangesetzt damit mehr Leute an RDNA 5 arbeiten können und RDNA5 früher kommt. Was aber nicht funktioniert ist, weil ein ganzes Jahr innerhalb von 2 Jahren aufzuholen ist nicht möglich. Vollkommen illusorisch ist das Ganze wenn man weiß dass die Releasefrequenz bei CDNA hochgefahren wird. Natürlich hat die erhöhte Releasefrequenz bei CDNA Umschichtungen erfordert, aber "alle in die AI Sparte" trifft es eben auch nicht.

TheInvisible schrieb:
Bei GPUs muss man dauernd draufbleiben und nicht alle paar Jahre mal,
AMD war dauernd bei den GPUs drauf. Aber es hilft nicht sonderlich alle 3 Generationen die Strategie zu ändern.

Es war eben fatal, dass AMD RDNA 3 verbockt hat. Auch bei RDNA4 lief es nicht rund, weil mit 2 Dies gegen 5 Dies von Nvidia anzutreten, kann IMO nicht der ursprüngliche Plan gewesen sein. Es lässt Nvidia zu viel Spielraum AMD auszumanöverieren.

TheInvisible schrieb:
Nvidia ist mit Neural Rendering schon wieder vorn und AMD bastelt noch immer an Redstone herum.
Neural Rendering ist erst Mal wie bei Nvidia üblich Marketing Geblubber. Bis aus dem Marketing Geblubber was relevantes raus kommt, vergeht noch einige Zeit.

Ob AMD gebastelt hat, werden wir sehen sobald Redstone draußen ist.

TheInvisible schrieb:
Es wird aber lieber schon 1,5 Jahre vor Release herumgehyped wie toll ja alles sein wird, MLID kommt schon mit "5090 Killer" daher, jede Generation das gleiche...
Das ist jetzt ein bisschen unfair.

Dies ist einer der wenigen Fälle wo die Boten schuld sind. Alle Jahre wieder erzählen MILD, Red Gaming Tech und Kepler tolle Geschichten. Da niemand die ursprünglichen Infos kennt, kann niemand einschätzen, wie glaubwürdig das ganze ist. Und wenn man mit hohen Zahlen einsteigt, muss man das ganze früher oder später toppen. Und damit nimmt der Hypetrain fahrt auf.
 
  • Gefällt mir
Reaktionen: SweetOhm
MalWiederIch schrieb:
Ja - aber eben mit der 100€ teureren und im Schnitt 8% stärkeren 5070 Ti:
Eher 150. Stärker ist sie alleine durch MFG/Reflex in mehr Titeln, oder durch Hinzunahme von Pathtracing für manche ausreichend, für andere wiederum nicht. Geschmackssache. Siehe CPUs.
MalWiederIch schrieb:
Die 5080 hat verhältnismäßig ein schlechteres P/L-Verhältnis - ist aber ganze 24% vorne … bei Intel spricht man bei 15-20% Differenz bereits von „nicht fürs Gaming geeignet“
Und damit ist eigentlich alles gesagt.
 
Quidproquo77 schrieb:
Spielt keine Rolle, das Geld wird im OEM Bereich gemacht mit Gaming Hardware.
Auch im OEM-Bereich spielt Psychologie eine Rolle. Nur scheinst du an der Stelle nicht zu verstehen, dass es hier viele Faktoren gibt, die sich eben gegenseitig nicht ausschließen.

Ebenso scheinst du nicht zu verstehen, dass meine Anmerkung gegen einen gewissen Typus einer sehr eindimensionalen Argumentationskette gerichtet ist, die in der Regel nur von Fanboys verwendet wird und an der Stelle musst du dir auch gefallen lassen, dass man dich weitgehend als Fanboy damit abstempeln kann.

Wenn ich schreibe, dass ich Blackwell als Generation enttäuschend finde, dann habe ich dafür eine vielzahl an Arguemten, darunter die kaum bis nicht gesteigerte Effizienz. Der relativ geringe Leistungssprung, der sich in der Regel innerhalb der gestiegenen Leistungaufnahme bewegt und ebenso, dass Nvidia seit Januar 2025 jetzt gut ein halbes Jahr bis dreiviertel Jahr mit Problemen zu kämpfen hatte, die ich so von der Firma nur zur Jahrtausend wende kannte und zur Startzeit von Windows Vista.

Die Argumentation dagegen ist von manchen, dass Blackwell ja nicht enttäuschend sein kann, weil sie sich ja gut verkauft. DAS ist eine stumpfe und weitgehend eindimensonale Fanboy-Argumentation. Wie geschrieben, du legst hier angeblich sehr viel Wert auf eine differenziertes Meinungsbild, dafür bist du es allerdings, der ebenso oft auf ziemlich eindimensionale und undifferenzierte Argumente zurückgreift und nur Bilder in Schwarz oder Weiß zulässt.

Und zum finanziellen Erfolg der Gaming-Sparte von Nvidia tragen auch viele psychologische Effekte bei. Der Sohn meins Kollegen wollte auch erst eine RTX 5070 Ti haben, erst als die RX 9070 XT 200 € günstiger war und man damit statt 2 TB nun 4 TB SSD kaufen konnte, war er zum "Experiment" bereit. Klar, das ist jetzt nur ein empirischer Bericht und damit nur als Anekdote zu verstehen. Nur beobachte ich sowas sehr genau und es wird auch immer wieder in Blindtests und Co bewiesen, dass Menschen durchaus eine gewisse Markentreue habe und der Name sowie der Preis eine Rolle spielen.

https://www.unternehmer-deutschland...tung-wie-du-kundenentscheidungen-beeinflusst/
https://mindsell.de/psychologie-der-preise/

Das mal so als "Schnelleinwurf". Ich beobachte es in meiner Familie auch, dass teilweise "überteuerte" Produkte als "wertiger" empfunden werden, gleichzeitig jedoch das wertigere güntiger Produkt weniger wertig wirkt, weil der Preis im Hinterkopf eine Rolle spielt. Genauso dass meine Cousins alle BMW fahren und da die Verarbeitung als Spitzenklasse ansehen, weil ja BMW, währnd BWM da durchaus nachgelassen hat.

Nvidias Marktmacht heute beruht auf vielen Faktoren, gleichzeitig ist gerade Marketing und der Aufbau eines gewissen Images eine Stärken von NVIDIA.

Du bist es, der hier gerne - und ich wiederhole auch oft zu recht - auf sehr eindimensionale Diskussionen und ebenso auf fehlende Differenziertheit hinweist. Gleichzeitig bist du es allerdings genauso oft, der differenzierte Betrachtungen nicht zulässt und das besonders oft, wenn es um Nvidia geht.

Dann erläutere doch mal, warum man Blackwell keine schwache Generation nennen darf, die durchaus auch enttäuschend ist. Erläutere ebenso, warum der finanzielle Erfolg gegen diese Sichtweise steht und das das ultimative Argument dagegen wäre. Und erkläre auch mal, warum all die psychologischen Studien zu Kaufverhalten, Markentreue und Co hier keine Auswirkung haben.

Ich weiß, warum Nvidia mit Blackwell erfolgreich ist, ich weiß aber auch, warum man von Blackwell enttäuscht sein kann und ich weiß ebenso, warum beides zutreffen kann und es auch kein Widerspruch ist, sondern erst genau dann eine differenzierte Sichtweise möglich ist, wenn man beide Aspekte akzeptieren kann.
ETI1120 schrieb:
Oder es wurden wieder die Zahlen der ALUs wie bei RDNA3 verdoppelt und Dual Issue als vollwertige ALUs gezählt. Deshalb sage ich bevor wir keine Die Sizes kennen ist es ein Ratespiel
Das kann gut sein, dass hier auch wieder vielleicht die zweite Flanke der Vec-ALU als zusätzliche Shader interpretiert hat und es daher bei 96 CU geblieben ist, es weiterhin die "Vec32+32" ist und nun jemand die eben als 128 Shader, statt den 64 Shadern ließt.
ETI1120 schrieb:
Da finde ich es interessant dass es massive Änderungen an der Cache Hierarchie geben soll. Diese Infos sind über Einträge in Sourcen besser belegt.
Das AMD an der Cache-Struktur noch mal arbeitet, war abzuwarten. Es gibt da auch einige "Begründungen" und das könnte auch mit SER zutun haben.

Es gibt in einigen Entwickler-Foren - Mesa-Treiber und Co - die Mutmaßung, dass AMD SER zwar durchaus auch bereits in Hardware kann - AMD hatte bei GCN und hat auch RDNA bereits Hardware-Scheduler implementiert - jedoch der L2-Cache hier eine Strich durch die Rechnung machen könnte, da dieser zu "klein" für die Sortierung ist und daher die Sortierung im weiten nicht so effizient sein.

Intel hatte auch bereits bei Alchemist ein sehr mächtigen Hardware-Scheduler, jedoch einen kleinen L2-Cache und erst in Battlemage SER jetzt quasi frei geschaltet.

Gleichzeitig kann bereits RDNA 3 die Shader anhand der Memory-Zugriffe neu sortieren und RDNA 4 auch, und das Sortieren anhand der Memory-Zugriffe ist der "automatische" Part, denn auch Nvidia bei SER beschreibt.

Es wird spannend.
ETI1120 schrieb:
N3P und N2 skalieren nicht mehr so gut wie es früher üblich war.
Ich weiß, ich habe an der Stelle - und das habe ich auch erwähnt - einfach pauschal gerechnet um das zu veranschaulichen.
ETI1120 schrieb:
Die Frage ist immer wie weit kann die GPU bei Games skalieren. Eine große GPU zu bauen und diese nicht auslasten zu können bringt rein gar nichts.
Ein sehr komplexes Thema. Die Frage ist halt auch, wie viele "Shader" laufe in Zukunft pro Frame ab, wie viele Pixel gibt es usw.
ETI1120 schrieb:
MLID findet ab und zu korrekte Infos. Das Problem ist dass MLID auch falsche Infos findet und sehr viel dazu spekuliert.
Allgemein ist das ein Problem, dass aber nicht nur MLID betrifft, sondern viele Redakteure und damit auch mich. Wir finden bestimmte Informationen, haben einen bestimmten Wissenstand und müssen damit dann arbeiten und auch irgendwie die Informationen einschätzen. Je nach eigenem Wissensstand gelingt das mal besser und mal schlechter. Ich hab mir jetzt auch zwei mal eine blutige Nase geholt und einmal war es so, dass ich etwas falsch interpretiert hatte, das was ich geschrieben habe war zwar mit der von mir getroffen Annahme richtig, nur hatte ich die falsche Annahme getroffen und das andere mal habe ich etwas zu grob vereinfacht.

Manchmal hat man dann den Wunsch die Informationen aufzubereiten und allen zugänglich zu machen oder will etwas erklären, damit alle das Problem verstehen können und Schwups hat man einen Bock geschossen.
blackiwid schrieb:
Und was ist an Unterhaltung schlecht, was ist die Webseite anderes? Zumindest zu nem großen Teil Unterhaltung. "Infotainment".
Wer hat hier geschrieben, dass es schlecht ist? Auch ich habe nicht geschrieben, dass es schlecht ist. Das Problem ist in dem Fall auch nicht direkt bei MLID, Kepler und Co oder eben bei uns zu verorten, sondern ein Stückweit bei den Lesern.

Und das merke ich ja an dem Thema hier auch schon, wie manche aus dem Gerücht bereits einen RTX 5090 "Killer" gemacht haben und ebenso auch bei MLID und Co, was da teilweise bereits aus den Informationen gemacht wird. Was meinst du, warum ich in der News nur die bekannten Informationen wieder gebe und darüber hinaus mich absolut bedeckt halte und erst Recht keinen Vergleich zu Nvidia ziehe - den MLID jedoch in seinen Folien teilweise zieht.

Auch das jetzt mit den 128 Shadern pro CU ist so eine Sache. Je nach dem, wie man die Shader zählt, hat bereits RDNA 3 und RDNA 4 128 Shader pro CU, nur eben in Dual-Issue und das ganze in einem VLIW2-Konzept.

RDNA 3 und RDNA 4 ISA können zwei Operationen als OP-X und OP-Y zusammen gefasst werden und in der Vec-ALU ausgeführt. Das hat gleichzeitig einige Limitierungen - wobei manche bei RDNA 4 etwas "gelockert" wurden. Zum Beispiel, dass es nur 3 Register gibt und das Zielregister eines der Quell-Register überschreibt.

MILD, Kepler und Co, aber ebenso auch wir, müssen uns halt immer bewusst darüber sein, dass wir Informationen weitergeben und diese entsprechend auf bereiten. dazu gehört aber auch, dass wir verantwortungsvoll damit umgehen, auch wenn es "Infotaiment" ist.
 
  • Gefällt mir
Reaktionen: thom_cat, Hatch, SweetOhm und 5 andere
ETI1120 schrieb:
AMD hat schon immer Workstation Grafikkarten von den Gaming Karten abgeleitet. Der Erfolg war sehr überschaubar. Und nun musste halt auch da AI in den Namen.
Der Markt für Workstation-Grafikkarten war in der Vergangenheit eher klein. Mit dem KI-Boom ist die Nachfrage stark gewachsen.

ETI1120 schrieb:
Ein Chip mit den Specs vom AT0 wäre sehr teuer mit ziemlich bescheidenen Absatzchancen, weil die Leute und Firmen die so was kaufen Stammkunden von Nvidia sind. Bei der Gamingseite wird es bei AMD sehr schnell dünn wenn die Preise über die 1000 USD klettern.
AT0 ist also deiner Meinung nach praktisch nutzlos, keine Chance bei KI und zu teuer für Gaming?

Der Markt für teure AMD Gaming-Karten halte ich auch für eher klein, aber wenn es um Edge-AI geht sehe ich die Sache anders. Hier haben viele potentielle Kunden bisher noch kein AI genutzt. Natürlich ist auch hier Nvidia die Premium-Lösung, aber wenn das bevorzugte KI-Modell auch gut auf AMD läuft (das soll es wirklich geben), kann man überlegen ob man Nvidias Premium-Preise unbedingt bezahlen muss. Für viele Aufgaben muss es da auch nicht unbedingt das beste vom Besten sein. Das das grundsätzlich funktionieren kann sieht man z.B. bei den ganzen Mini-PCs mit Strix Halo, die ja für Edge-AI recht beliebt sind.

ETI1120 schrieb:
Außerdem, wäre etwas zu machen wäre das glatte Gegenteil von dem was AMD seit 2 !/2 Jahren erzählt. Dass Navi 48 zu klein ist, das ist klar. Aber einen Gegenspieler zu x090 zu entwickeln und den entweder zu verscherbeln zu müssen wie die 7900 oder nichts zu verkaufen ist keine Erfolgsstrategie.
AMD hat mehrmals gesagt, dass sie sich zwar bei RDNA4 auf die Mittelklasse konzentrieren, später aber wieder High-End-Modelle herstellen möchten.


ETI1120 schrieb:
Die MI300 wurde von AMD als Inference Lösung vermarktet. Mit der MI350 will AMD auch ein bisschen vom Trainingkuchen abhaben. Wenn man sich die Zahlen anschaut dann sind es die guten alte Freunde, die die MI300 kaufen. Die Hyperscaler. Sonst ist der Absatz mau.
Das sind halten Karten für's Rechenzentrum, nicht so sehr für die Workstation. Wie gesagt, andere Baustelle.

ETI1120 schrieb:
Erzähl das Jensen Huang.

Der GB202 wird wir in den Profikarten und abgespeckt für die 5090 verkauft. Bei Ada Lovelace hat Nvidia sogar einige AD102 in die 4070TI gepackt.
Mit einem auf Gaming optimierten Chip mit einer Leistung im Bereich der RTX5090, hätte man bei gleicher Marge vielleicht High-End Gaming-Karten im Bereich von 1500-1800€ bringen können. Aber ohne Konkurrenz spart man sich die zusätzlichen Entwicklungskosten und verlangt einfach 2300€ für die Karten. Unter dem Strich macht das dann für Nvidia keinen Unterschied, aber das funktioniert eben nur solange es keine Konkurrenz gibt.
 
  • Gefällt mir
Reaktionen: SweetOhm
Limit schrieb:
AT0 ist also deiner Meinung nach praktisch nutzlos, keine Chance bei KI und zu teuer für Gaming?
Es wäre für AMD sehr teuer und sehr riskant.

Für den Workstation Markt könnte die GPU passen. Aber es wäre für AMD sehr schwer hier genügend Karten zu verkaufen.

Der Gaming Markt ist ebenfalls dünn.

Also ist meiner Meinung die Wahrscheinlichkeit hoch dass die Werte falsch interpretiert werden oder die GPU gecancelt wird.
Limit schrieb:
AMD hat mehrmals gesagt, dass sie sich zwar bei RDNA4 auf die Mittelklasse konzentrieren, später aber wieder High-End-Modelle herstellen möchten.
Ich kenne kein Statement von AMD das besagt wir machen zukünftig wieder High Ende Karten.

Es gibt jede Menge News dazu, aber es ich kenne kein Statement von AMD.

Und da es gewöhnlich so läuft dass Spekulationen von heute morgen als "AMD hat gesagt" verkauft werden, trete ich hier so kräftig auf die Euphorie Bremse.
 
Zurück
Oben