News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

Artikel-Update: Nachdem Kepler_L2 im Anandtech-Forum bereits den groben Aufbau der kommenden Chips beschrieben hat, folgt nun auch endlich die Auflösung des Kürzels AT. Nicht mehr Navi, sondern Alpha Trion. Damit scheint AMD die Sterne als Namensgeber hinter sich zu lassen und wendet sich dem Transformer-Universum zu. Neben Alpha Trion wirft Kepler auch die Namen Ultra Magnus für Xbox und Pax Orion für PlayStation 6 in den Raum.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: _Cassini_, SweetOhm, BrollyLSSJ und 4 andere
Wenn die jetzt noch eine KI fähige GPU mit dem Namen Megatron rausbringen, da habe ich aber Angst...

Obwohl sich Hasbro das sicher teuer bezahlen lassen würde... Daher nix is... 🤣 :mussweg:
 
Namen, Schall und Rauch, dies das. 🙄
 
  • Gefällt mir
Reaktionen: Mr.Zweig und SweetOhm
Da macht man sich bei Intel über Flüsse lustig, das ist dann kaum noch zu toppen. Demnächst Manga Figuren vielleicht?
 
  • Gefällt mir
Reaktionen: SweetOhm, fox40phil, the_IT_Guy und eine weitere Person
ETI1120 schrieb:
und dass sie wegzulassen mehr Spielraum bei der Preisgestaltung der anderen GPUs gibt.
Sind halt die Kosten für die Simulation, dann die Maskenerstellung und so weiter.

Ich glaube, dass AMD Highend erst wieder in Angriff nehmen wird, wenn sie ihr Chiplet-Design auf GPU-Ebene gefunden haben und das funktioniert und sie damit quasi die Chipgröße beliebig skaliere können.
ETI1120 schrieb:
Ob AMD jetzt 2 % oder 20 % Marktanteil hat, der Ansatz in der Spitze ist dünn. Nvidia hat dafür gesorgt dass die 4090 und 5090 für AMD unangreifbar waren. Das wird bei der 6090 uch nicht andres sein
Das ist, wenn man sich es Rückblickend ansieht auch richtig. Nvidia ist bei AD102 und nun auch beim GB202 "All-In" gegangen. Beide Chips kratzen an dem, was aktuell auf Wafer-Ebene möglich ist.

Bei einem GR102/GR202 RU102/RU202 bin ich mir nicht so sicher, ob Nvidia wieder "All-In" geht, die Frage ist allerdings auch, ob sie All-In gehen müssen.
ETI1120 schrieb:
Mal eine Frage, was soll so eine große Grafikkarte im Cloudgaming bringen?
Wenn entsprechende Virtualisierung Möglichkeiten geben sind, kann man mit so einer großen Karte schon mehrere "Playstations" und "XBox"-System simulieren. Wir haben bei uns o ein System - in dem Fall aber mit einer RTX 6000 Blackwell - auf dem wir für unsere Entwickler "kleinere" Grafikkarten dann simulieren und die damit Remote arbeiten können. Die haben alle dann grob vereinfacht eine RTX 5070 mit 24 GB VRAM.
ETI1120 schrieb:
Das siehst Du zu schwarz. AMD kann aus vielen Gründen diesen Markt nicht aufgeben.
Natürlich male ich da etwas schwärzer. Gleichzeitig muss man sich allerdings mit der Zeit auch dieser Frage stellen und gerade die Investoren werden mit dieser Zeit diese Frage stellen.

AMD braucht natürlich weiterhin die Hard- und Softwareentwickler für neue GPU-Architekturen und sie können da auch nicht stehen bleiben. Man sieht ja, dass der Handheldmarkt für sie durchaus Früchte abwirft. Genauso können Sie nicht bei der Software stehen bleiben, FSR und Co bleiben auch dann noch wichtig. Es gibt sehr viele Menschen die nur mit iGPU spielen.

Die Frage ist halt nur, ob es für AMD nicht ab einem gewissen Zeitpunkt sinnvoller sein könnte, sich eben auf iGPU und HPC-GPU zu fokussieren.
ETI1120 schrieb:
Allerdings hat AMD in der vergangenheit viel zu wenig aus ihren Konsolendeals herausgeholt. Der Fehler war dass AMD nur die Hardwaregeliefert hat.
AMD hat einfach mal quasi seit ihrer Gründung den Softwarestack vollkommen vernachlässig und sich immer gedacht, dass die Hardware es richtet. ATi wiederum hatte zwar sich bei Software bemüht, nur konnte sich vermutlich gegen den AMD-Filz nicht durchsetzen, dazu dann die finanziellen Probleme durch die Übernahme, entsprechend hat man ja alls, was damals als HPC-Schnittstelle kam, wieder fallen gelassen oder stiefmütterlich behandelt und dann gedacht OpenCL regelt das.

Heute kann Nvidia wohl froh sein, dass der Kauf durch AMD quasi nicht geklappt hat. Wobei es interessant wäre, wie sich ATi von da an weiter entwickelt hätte. Auf der anderen Seite, damals hätte bereits der Software- und Treiber-Ansatz bei AMD damit Einzug gehalten, was sicher auch spannend gewesen wäre bei den CPUs zu sehen.
ETI1120 schrieb:
Ohne eine Starke Position auf dem Client haben weder AMD noch Intel eine Chance auf Dauer im HPC oder DC AI Markt mitzumischen.
Die Frage ist an der Stelle, benötigt AMD und Intel wirklich ein Standfuß im AIB-Markt mit ihren Grafikkarten, oder reicht es, wenn sie starke iGPUs haben, die entsprechend weitgehend für alles reichen, auch für das Entwicklen von "Demoversionen".

Aktuell empfehle ich oft Nvdia Grafikkarten in Notebooks für Freunde, Bekannte und deren Nachwuchs im Studium teilweise, weil es mit dem CUDA-Softwarestack unter Windows und Linux oft einfacher ist. Intel arbeitet - ebenso wie AMD - jedoch stark daran auch unter ihrer iGPU und nun NPU die Softwarestacks zum laufen zu bringen. Wenn die Stacks irgendwann quasi wirklich Plug-and-Play sind, könnten viele Studenten, Semi-Pro-Entwickler und Co auch zu den iGPU und NPUs greifen für die ersten Schritte und müsste nicht mehr eine CUDA fähige Grafikkarte einbauen.

Wenn dann AMD und Intel - und das deutet sich ja bei Xe3 an und nun auch ein Stückweit bei AT-3 und AT-4 - genug Rechenleistung in die iGPU einbetten, könnte das vollkommen ausreichen. Klar, das ist jetzt stark vereinfacht, nur man sieht ja auch, wie viele Leute auf einem Steamdeck und Co Spaß haben könen.

Mal abwarten, was da alles kommt.
 
  • Gefällt mir
Reaktionen: fox40phil, Brrr und Michael vdMaas
DevPandi schrieb:
Psychologie
Typus
Argumentationskette zum finanziellen Erfolg
viele psychologische Effekte bei
Menschen
Schnelleinwurf
Marktmacht
NVIDIA
Du bist
ich wiederhole
enttäuschend
Kaufverhalten, Markentreue
Ich weiß
die zweite Flanke
Strich durch die Rechnung
Es wird spannend
Ich weiß
komplexes Thema
Redakteure
Informationen
Wissensstand
blutige Nase
interpretiert
etwas zu grob
Manchmal hat man
Informationen
Schwups
Bock geschossen
Wer hat hier geschrieben
Auch ich habe nicht geschrieben
Und das merke ich ja
was da teilweise gemacht wird
Was meinst du
bedeckt
Recht
mit den 128 Shadern
ebenso auch wir
verantwortungsvoll damit umgehen
Infotaiment
Du wärst ein guter HardwareRapper Panda :D
DevPandi schrieb:
Dazu kommen noch Folgekosten, die AMD einspielen muss. AMD hat in den letzten beiden Quartale. Ca. 1,4 Millionen GPUs ausgeliefert. NVIDIA in gleichen Zeitraum knapp 20.000.000.
Fatal :(
DevPandi schrieb:
AMD ist jetzt von 8 % auf 6 % abgestürzt und mit diesem Marktanteil wird AMD mittelfristig keine Highend-Duelle mit NVIDIA angehen. Selbst wenn ich es mir wünschen würde.
Die ganzen Nvidia Käufer werden sich noch umsehen wenn Radeon noch mehr verschwindet.
RTX 7060ti für 850€ halte ich für realistisch.
Wir hatten nur 2,2% Inflation von 2014 bis 2024.
GTX 780 500€
GTX 980 500€
GTX 1080 500€
Dann sank AMD,s Marktanteil langsam von 40% auf 30%.
Bei RTX 3080 800€ hatte AMD nur noch 20% Marktanteil.
Bei RTX 5080 1300€ hatte AMD nur noch 6% Marktanteil.
Ich sehe da eine klare verbindung.
An TSMC liegt das nicht. Intel verscherbelt seine 2t beste 3nm CPU (265K) für 200€, wohingegen Blackwell noch im alten 4nm Prozess von 2022 ist.
DevPandi schrieb:
Aktuell müssen wir uns eher die Frage stellen, ob AMD sowie Intel noch bereit sind wirklich Ressourcen abseits des iGPU-Marktes „dediziert“ in die GPU Entwicklung zu stecken.
Wäre ein Alptraum und womöglich der Untergang von ATX und x86 wenn sich die normalen Leute zum Zocken keine GPU,s mehr leisten können und alle auf Konsolen zum Zocken umsteigen.
DevPandi schrieb:
die Kosten so runter fahren, dass wir in Zukunft „minimal“ angepasste Konsolen-Fassungen ihrer Chips bekommen und wenn man sich AT-3 und AT-4 ansieht und was da an Gerüchten herumgeistert, ist das nicht mal unwahrscheinlich.
Recht hast du pandabärchen.
DevPandi schrieb:
bei Intel ist es aktuell auch die Frage ob wir Xe3 noch als AIB sehen oder es bei iGPU bleibt.
Laut dem Interview zwischen Steve und MLID gestern, nein. Steve sagte Intel bekommt den Driveroverhead bei Games nicht in den Griff. Ein Launch wäre demnach eine Katastrophe, welche Intel sich nicht antun will.
 
  • Gefällt mir
Reaktionen: KadmosIII, dohderbert, E2K3 und 5 andere
Nitschi66 schrieb:
Muss AMD für die Nutzung der Namen dann eigentlich irgendwelche Tantiemen zahlen?
Das sind interne Namen und werden sicherlich nicht auf Kartons gedruckt
 
  • Gefällt mir
Reaktionen: SweetOhm und schneeland
Wichelmanni schrieb:
Computerbase-Nutzernamen.
Dann bin ich ja mal froh, bis mein Name dran ist, wird die Welt wie wir sie kennen längst untergegangen sein.... 😏
 
  • Gefällt mir
Reaktionen: knoxxi, fox40phil, RaptorTP und eine weitere Person
DrFreaK666 schrieb:
Das sind interne Namen und werden sicherlich nicht auf Kartons gedruckt
Was meinst Du warum AMD Namen von Städten, Sternen, Fischen, Sagenwesen, ... als Codewörter verwendet hat. Das sind alles Namen die nicht durch Markenrechte geschützt werden können.

Es gab Mal in Deutschland Abmahnungen gegen Computershops die Trition in auf die Verkaufsbeschreibungen geschrieben haben.

Orion, Magnus oder AT 2 ist kein Problem. Alpha Triton zu verwenden bringt früher oder später Ärger.
 
DevPandi schrieb:
Neben Alpha Trion wirft Kepler auch die Namen De Maggus für Xbox und Pax Orion für PlayStation 6 in den Raum.

Habe es mal verbessert, dann hätte der Chip richtig Power bei den Namen :D
 
  • Gefällt mir
Reaktionen: SweetOhm, Fab0r und Wichelmanni
DevPandi schrieb:
AMD hat einfach mal quasi seit ihrer Gründung den Softwarestack vollkommen vernachlässig und sich immer gedacht, dass die Hardware es richtet. ATi wiederum hatte zwar sich bei Software bemüht, nur konnte sich vermutlich gegen den AMD-Filz nicht durchsetzen, dazu dann die finanziellen Probleme durch die Übernahme, entsprechend hat man ja alls, was damals als HPC-Schnittstelle kam, wieder fallen gelassen oder stiefmütterlich behandelt und dann gedacht OpenCL regelt das.
AMD hat nicht in dem Maße wie ATI einen eigenen Softwarestack gebraucht. Für den hat gewissermaßen Intel gesorgt.

Und dann gab es zwar bei der Übernahme eine Vision, Fusion genannt. Diese Vision wurde nur auf der Hardwareseite umgesetzt. Die Softwareseite wurde stiefmütterlich behandelt. Eine Programmierschnittstelle um die GPU zu programmieren wäre das Minimum gewesen. Aber um wirklichen erfolg zu haben wäre ein kompletter Softwarestack erforderlich gewesen. ROCm nähert sich langsam diesem Status.

Es war AMD eigentlich klar, dass Fusion ohne software nicht funktionieren kann.
https://ir.amd.com/news-events/pres.../amd-promotes-phil-rogers-to-corporate-fellow

Auf der anderen Seite weiß ich nicht, in wie weit ATI damals verstanden hatte, dass Hardware und Software Hand in Hand entwickelt werden müssen. Das Verständnis dass Hard- und Software gemeinsam das Produkt ausmachen steckt AFAIU hinter dem Erfolg von CUDA der wiederum den Erfolg von Nvidia im Datacenter treibt.

Das fatale bei der Übernahme von ATI durch AMD war, dass die Führungskräfte von ATI scharenweise das Weite gesucht haben. Hier haben Hector Ruiz und Dirk Meyer versagt. Und dieser Aderlass hat ATI geschwächt. Sowohl technologisch als auch vom Standing im gemeinsamen Unternehmen.

DevPandi schrieb:
Heute kann Nvidia wohl froh sein, dass der Kauf durch AMD quasi nicht geklappt hat.
Je mehr ich mitbekomme, desto mehr bin ich davon überzeugt es hätte noch mehr Reibung gegeben hätte als bei AMD und ATI.

Jensen Huang hätte einem Kauf nur dann zugestimmt, wenn er CEO geworden wäre. Damit hätte AMD zwar Nvidia gekauft aber Nvidia hätte AMD übernommen. Und das wäre eine ganz andere Geschichte geworden.

DevPandi schrieb:
Wobei es interessant wäre, wie sich ATi von da an weiter entwickelt hätte.
So wie ich es verstehe, war ATI gerade erst dabei den Einkaufsmarathon zu verdauen, den sie selbst hingelegt hatten. Und genau in diese Phase platze die Übernahme durch AMD.

Die entscheidende Frage, hätte es ATI alleine eine Strategie entwickelt und diese konsequent umgesetzt? Das fatale in den letzten 15 Jahren war, dass es ständig eine andere Strategie gab.
 
  • Gefällt mir
Reaktionen: Viper816
DevPandi schrieb:
Bei einem GR102/GR202 RU102/RU202 bin ich mir nicht so sicher, ob Nvidia wieder "All-In" geht, die Frage ist allerdings auch, ob sie All-In gehen müssen.
Nvidia hat doch einen Markt in dem die fetten Teile AFAIU gut skalieren.

Die Gamer werden begeistert 3000 Euro und mehr hinlegen, wenn da nochmal 20 bis 30 % mehr Performance je Generation im Vergleich zur 5090 hinzukommen.
DevPandi schrieb:
Wenn dann AMD und Intel - und das deutet sich ja bei Xe3 an und nun auch ein Stückweit bei AT-3 und AT-4 - genug Rechenleistung in die iGPU einbetten, könnte das vollkommen ausreichen. Klar, das ist jetzt stark vereinfacht, nur man sieht ja auch, wie viele Leute auf einem Steamdeck und Co Spaß haben könen.
Wenn AT3 und AT4 ein LPDDR Interface haben sind sie natürlich als iGPUs vorgesehen.

Die Frage, ist ob es für AT3 auch die option gibt AT3 mit einem GDDR7 Speicherinterface auszurüsten. Mit GDDR7 Speicherinterface gäbe AT3 eine gute Figur als dGPU ab.

Dazu gehört auch die Frage was sind die GMDs? Sind AT3 und AT4 GMDs weil sie die APU mit Grafik und Speicherinterface ausrüsten oder ist AT3 selbst aus GMD und GCD aufgebaut. Was die nächste Frage aufwirft gib es verschiedene Typen von GMD, z. B. einen mit LPDDR und den anderen mit GDDR7?

bei den genannten terminen Ende 2026 Anfang 2027 (Klartext die Notebooks die ab Frühjahr 2027 erscheinen) stellt sich die Frage ob tatsächlich noch LPDDR5X verwendet wird. Auch dass FP10 kommt werte ich als hinweis dass AMD den Umstieg auf LPDDR6 schon aktiv vorbereitet.
 
ETI1120 schrieb:
Was meinst Du warum AMD Namen von Städten, Sternen, Fischen, Sagenwesen, ... als Codewörter verwendet hat. Das sind alles Namen die nicht durch Markenrechte geschützt werden können.
Das würde leider nicht ausreichen, schon die Verwechselungsmöglichkeit mit einem geschützten Begriff kann zu Abmahnungen führen. Allerdings nutzt AMD diese Bezeichnungen auch nicht im Geschäftsverkehr sondern als interne Codenamen, bei denen das Markenrecht nicht greift.
ETI1120 schrieb:
Es gab Mal in Deutschland Abmahnungen gegen Computershops die Trition in auf die Verkaufsbeschreibungen geschrieben haben.
...weil es angeblich der damals geschützten Marke Tricon zu ähnlich war, siehe z. B. https://www.heise.de/news/Triton-Vorsicht-Abmahnung-284248.html
Da hatten einige Anwälte damals gut daran verdient. Soweit ich weiß war Intel selber aber nie betroffen, da sie Triton ebenfalls nur als internen Codenamen für den Chipset verwendet hatten.

Ich glaube das hat die kryptischen Modellbezeichnungen bei Prozessoren und anderen Chips wesentlich gefördert.
 
dev/random schrieb:
Das würde leider nicht ausreichen, schon die Verwechselungsmöglichkeit mit einem geschützten Begriff kann zu Abmahnungen führen.
Je bekannter der Ort/Fluss/Mond/Stern ist, desto geringer das Risiko.

Die Geschichte damals mit Triton/Tricon war schon grotesk, wahrscheinlich kannte das Landgericht München I sich nicht sonderlich mit Astronomie aus.


dev/random schrieb:
Allerdings nutzt AMD diese Bezeichnungen auch nicht im Geschäftsverkehr sondern als interne Codenamen, bei denen das Markenrecht nicht greift.
Das Problem ist, siehe Trition, dass die internen Codenamen durchaus in den Geschäftsverkehr gelangen können. Damals wollte die Händler lieber Triton anstatt 430FX verwenden.

Deshalb verwendet man für Codenamen in der Regel Namen, von denen man weiß dass die nicht als Marken verwendet werden können.

AMD verwendet Codenamen wie Milan, Genoa, Turin und Venice regelmäßig öffentlich.
 
LikeHike schrieb:
in BF6 wird die 9700XT deutlich geschlagen, in Hellblade 2 ebenfalls. Musst du dir deinen Kauf schönreden oder warum schreibst du sowas? Die 9700XT schlägt in der Regel nichtmal eine 5070 TI.
Fyi
Eine 9700XT gibt es nicht !
Eine 9070XT ist im Schnitt mit einer 5070TI auf Augenhöhe ... (siehe Anhang)
Ergänzung ()

DaHell63 schrieb:
Alles klar..Cherry ist wie üblich nur bei AMD erlaubt.
Du meinst also keiner spielt mit FSR4/DLSS4 Qualität?
Der AMD "Cherry" wird doch nur gegen den NV "Cherry" ausgepackt !!! :stacheln:
Ergänzung ()

mesohorny schrieb:
Vernünftiges Pathtracing (wie z.B. in CP2077) ist so mit das Erstaunlichste, was die letzten Jahre so kam, der Unterschied zu "normalem" Raytracing ist gewaltig und genau dort macht sich dann eine Nvidia Karte auch bezahlt.
Stuss ³ !!
Mit Pathtracing bekommst mit einer 2500 - 3000 € Karte ne Dia Show. Ganz großes Kino ... :daumen:
Ergänzung ()

LikeHike schrieb:
Die 9070XT ist kein Konkurrent zur 5080. Ganz einfach. Es gibt immermal Ausreißer, diese sind aber genau das. Ausreißer.
Somit ist sie bei den Ausreißern allerdings der Konkurrent ... ;)
Denn bei den anderen Ausreißern, in denen eine 5080 schneller ist, sind es halt auch Ausreißer.
Ergänzung ()

Nighteye schrieb:
Wobei im Nachhinein, ist RDNA 4 jetzt garnicht so ein großer Wurf wie ich erst dachte.

Anhang anzeigen 1652868
Du vergleichst da allerdings RDNA3 (big Chip / High End) mit RDNA4 Midrange ... :rolleyes:
Ergänzung ()

TheInvisible schrieb:
Nö passt genau zur Steam Verteilung und die 92% Marktanteil
Sagst das eigentlich auch immer zu Deinem Pfarrer bei der Beichte : Nein, die Steam Verteilung lügt nicht :lol:
Ergänzung ()

TheInvisible schrieb:
Gähn auf die CherryPicks geh ich nicht mehr ein
Ja, Fakten können eine bittere Pille sein :heul:
Ergänzung ()

TheInvisible schrieb:
Wieso nicht wenn es das bessere Produkt ist?

Ist halt so, einfach gute Produkte bringen und es wird gekauft
https://www.pcgameshardware.de/Graf...dfactory-Verkaufszahlen-VRAM-Anteile-1480891/
 

Anhänge

  • GPU Index 2025.jpg
    GPU Index 2025.jpg
    313,5 KB · Aufrufe: 68
  • Bench Mafia 3440 x 1440.jpg
    Bench Mafia 3440 x 1440.jpg
    225,4 KB · Aufrufe: 64
Zuletzt bearbeitet:
TheInvisible schrieb:
Es wird aber lieber schon 1,5 Jahre vor Release herumgehyped wie toll ja alles sein wird, MLID kommt schon mit "5090 Killer" daher, jede Generation das gleiche...
Du meinst wie der Hype, dass die die 5090 mind. 50% schneller sein wird als eine 4090 ?!? :rolleyes:
Ergänzung ()

TheInvisible schrieb:
@gustlegga Und die zocken alle auf Steam? :D
Klaro ! ALLE zocken auf Steam, und ALLE mit NV Karten !! :schaf:
Ergänzung ()

TheInvisible schrieb:
Nvidia bei 94% Marktanteil:
Voll Supi ! Du bist beim Sieger Team :daumen:
Wissen wir, weil dies in jedem 2. Post erwähnst.
Bist echt mein Held. Im nächsten Leben würde ich gern Dein Freund sein tuen dürfen tun :streicheln:
Ergänzung ()

TheInvisible schrieb:
Als würde man diskutieren ob die Erde nun rund oder flach ist.
Kannst Du als Flachländer beweisen, dass die Erde rund ist ? ;)
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Wenn AT3 und AT4 ein LPDDR Interface haben sind sie natürlich als iGPUs vorgesehen.

Die Frage, ist ob es für AT3 auch die option gibt AT3 mit einem GDDR7 Speicherinterface auszurüsten. Mit GDDR7 Speicherinterface gäbe AT3 eine gute Figur als dGPU ab.
LPDDR spricht in der Tat sehr für APUs/SoCs als Haupteinsatzzweck, aber ich verstehe nicht warum GDDR gebraucht wird für eine dGPU. Wenn die Bandbreite für die APU ausreicht, wo auch die CPU mitversorgt werden muss, dann sollte es auch für eine dGPU reichen. Es wäre unkonventionell, aber was spricht dagegen?
Der Hauptvorteil von GDDR7 im Vergleich zu LPDDR5X/6 ist, dass das SI um den Faktor 3 bzw. 2 schmaler sein könnte, aber wenn das SI wegen der APUs/SoCs sowieso so breit sein muss ist GDDR-Unterstützung eigentlich überflüssig und geringerer Stromverbrauch wäre ein zusätzlicher Bonus.

ETI1120 schrieb:
Dazu gehört auch die Frage was sind die GMDs? Sind AT3 und AT4 GMDs weil sie die APU mit Grafik und Speicherinterface ausrüsten oder ist AT3 selbst aus GMD und GCD aufgebaut. Was die nächste Frage aufwirft gib es verschiedene Typen von GMD, z. B. einen mit LPDDR und den anderen mit GDDR7?
Für mich würde es Sinn ergeben wenn GMDs den MC gleich integrieren, da die benötigte Bandbreite grob mit der Rechenleistung skaliert und man so auch den Kommunikationsoverhead gering halten könnte. Höchstens Kostengründe könnten für eine Trennung oder Varianten mit unterschiedlichen SIs sprechen, aber ich bezweifle, dass die Einsparungen groß genug wären um Extra-Chiplets zu rechtfertigen.

ETI1120 schrieb:
bei den genannten terminen Ende 2026 Anfang 2027 (Klartext die Notebooks die ab Frühjahr 2027 erscheinen) stellt sich die Frage ob tatsächlich noch LPDDR5X verwendet wird. Auch dass FP10 kommt werte ich als hinweis dass AMD den Umstieg auf LPDDR6 schon aktiv vorbereitet.
Ich halte LPDDR6 auch für wahrscheinlich.
 
Zurück
Oben