News Neue AMD-APU: Medusa Point mit 10 Kernen im Geekbench gesichtet

Piktogramm schrieb:
Sehr optimistisch.
Realistisch. Apple legt die Kerne auf maximale Single Core Leistung aus, AMD auf maximale Multithreading Leistung.
Piktogramm schrieb:
Klar Geekbench skaliert nicht all zu gut und die Ergebnisse muss man zu deuten wissen.
Per Pendel? Würfel?

Eine nette Rand von Glenn K. Lockwood
Benchmarks drive technical change amongst technology providers who act without conviction. The tech industry is full of companies who are blindly chasing consumer demand, and these companies design entire product lines to achieve high benchmark results with the mistaken belief that those benchmarks are a reasonable proxy for actual productivity. And even worse, many buyers (especially in lower-sophistication markets like enterprise) also believe that benchmarks, by virtue of being designed by community organizations who have ostensibly thought deeply about performance, are a good proxy for productivity, make purchasing decisions around these same benchmarks.

The net result is that a bad set of benchmarks can create and sustain an entire economy of buyers and sellers who think they are buying and selling something useful, when in fact they are wasting resources (time, energy, and COGS) because none of them actually understand what really drives productivity within their organizations.

Piktogramm schrieb:
Was den Durchsatz auf einem einzelnen Kern angeht, steht Apple besser da bei gleichzeitig besserer Effizienz egal ob Intel oder AMD damit verglichen werden.
Was die Single Core Leistung angeht, ist es keine Frage, dass Apple vorne ist.

Die relevante Metrik bei Halbleitern ist PPA.

Warum wohl hat Apple der Anzahl der Performancekerne bei M5 reduziert? Und nun ganz plätzlich M-Kerne kreiert?

Philste schrieb:
Ich werde aus Medusa Point auch nicht schlau. Gegeben zu sein scheint zumindest mal ein monolithischer Die mit 4+4+2 Kernen (in welcher Form auch immer), 8CU RDNA3.x IGPU und dem üblichen Uncore. Also mehr oder weniger ein ideales Replacement für Krackan.
Die 4+4+2 Kerne sind anhand der Kombination Exportdatenbank + Benchmarkdatenbank eigentlich bestätigt.

Zur Anzahl der CUs der iGPU gibt es die Gerüchte. Welche Architektur verbaut ist, wird man sehen.
Philste schrieb:
Dann ist noch ein 12 Kern CCD gegeben, der mehr oder weniger 1:1 aus dem Desktop entwendet zu sein scheint.

Aber jetzt fängt es an seltsam zu werden: Die eine Fraktion sagt, daß CCD wäre zusätzlich, sprich Medusa Point könnte in der Spitze 16+4+2 Kerne haben. Die andere Fraktion sagt, dass die 4+4 Kerne im APU-Die einfach deaktiviert werden, sprich die Spitze bei Medusa Point wären 12+0+2 Kerne. Also tendenziell ein Strix Point Replacement.
Die zweite Variante hatte ich ganz vergessen. Die hat ja adroc_thurston vehement vertreten.

Allerdings gibt es nun die Gerüchte mit AT3 und AT4. AT4 soll man mit einem CCD kombinieren können und unter dem schönen Namen Medusa Halo Mini firmieren. Diese Kombination 12 C CPU + 24 CU GPU wäre der passenderer Strix Point Nachfolger als eine Kombination mit 12C + 8 CU.

Philste schrieb:
Rein von der Kernanzahl her erscheint Lösung 2 als die sinnigere. Gleichzeitig setzt sie aber ein absolutes Novum vorraus: Die absichtlich Deaktivierung eines kompletten 8 Kern-CCX.
Was abstrus ist, vor allem wenn man bedenkt dass das CCX bei dem 2 Kerne übrig bleiben 32 MByte SRAM hat.
p-trettin schrieb:
Da bin ich ja mal gespannt, was RDNA 3.5+ (3.7(5)) so sein soll und ob das was bringt. Aktuell ist das ja eher ein das letzte aus der alten Architektur rauspressen.
Da wird nichts aus einer alten Architektur herausgepresst.

AMD hat in die CUs von RDNA4 jede Menge Transistoren investiert, um AI und Raytracing zu verbessern. Was will man mit der zusätzlichen Raytracing-Leistungs bei iGPUs mit 2, 4 oder 8 CUs?.

Die zusätzliche AI-Leistung von RDNA4 ist relevant. Also portiert AMD AI Funktionen von RDNA4 zurück nach RDNA3.5:
 
  • Gefällt mir
Reaktionen: Deinorius und Haldi
Emerald Flint schrieb:
Bedeutet ja nicht, daß es parallel dazu keine APUs mit den aktuelleren Graphikmodulen kommen. Oder konnte irgendjemand glaubwürdig belegen, daß AMD ausschließlich an RDNA 3,5 festhalten will.
Macht ja keinen Sinn. Entweder alle Leaks sind falsch und es kommt RDNA4 oder neuer oder es bleibt eben bei RDNA3.5. Es gibt doch gar keinen Sinn noch mehr CPUs gleichzeitig zu bringen.
Ergänzung ()

Tharan schrieb:
Jeder Office-Kiste reicht das und die Dinger, die wirklich GPU-Leistung brauchen, müssen eh eine separate GPU angebaut bekommen mit schnelleren bzw. eigenem Speicher.
Das ist ja Quatsch. Dann hätte AMD auch keine 8 oder 12 CU verbauen müssen.
Tharan schrieb:
Denn jede iGPU ohne eine eigene Speicheranbindung wie bei den Halo-Produkten oder den neuen Arc-Lösungen ist eh zu lahm. Das sieht man ja auch an den Arc-Tests, wie gut die mit LPDDR5X ist und wie sehr die einbricht bei normalen SO-DIMMs.
Die haben keine eigene Speicheranbindung. Das ist ein Interface für die gesamte APU. Genau so wie bei Strix Point oder Medusa Point.
Ergänzung ()

ETI1120 schrieb:
Die zusätzliche AI-Leistung von RDNA4 ist relevant. Also portiert AMD AI Funktionen von RDNA4 zurück nach RDNA3.5:
Das ist wohl eher Wunschdenken. Wenn AMD den Aufwand betreiben wollen würde, hätte man es schon zu Strix Halo gemacht.
 
Zuletzt bearbeitet:
bensen schrieb:
Macht ja keinen Sinn. Entweder alle Leaks sind falsch und es kommt RDNA4 oder neuer oder es bleibt eben bei RDNA3.5. Es gibt doch gar keinen Sinn noch mehr CPUs gleichzeitig zu bringen.
Du kennst offensichtlich nicht den aktuellen Stand der Gerüchte zu RDNA5
https://www.computerbase.de/news/gr...-udna-aussehen.94084/#update-2025-09-04T16:00

AT3 und AT4 mit dem LPDDR5 Speicherinterface sind offensichtlich für APUs vorgesehen. Die Gerüchte nennen die Namen Medusa Halo (AT3) und Medusa Halo Mini (AT4).

Die kleinen monolitischen APUs bleiben auf RDNA3.5. Oder wird es doch RDNA4m, wie es der Eintrag in LLVM suggeriert?

1773710121924.png


bensen schrieb:
Das ist wohl eher Wunschdenken. Wenn AMD den Aufwand betreiben wollen würde, hätte man es schon zu Strix Halo gemacht.
AMD betreibt den Aufwand:
https://www.phoronix.com/news/AMD-GFX1170-More-ISA-Diffs

AMD macht alle neuen WMMA-Befehle von GFX1200 für GFX1170 verfügbar, einfach nur den Links im Artikel folgen und die Sourcen von LLVM anschauen.

Bei AMDGPU dem Linuxtreiber sind übrigens Einträge zu GFX12.1 aufgetaucht. Auch hierfür gibt es keine passenden Gerüchte über neue RDNA4 GPUs.
 
ETI1120 schrieb:
Du kennst offensichtlich nicht den aktuellen Stand der Gerüchte zu RDNA5
Doch, aber du erkennst den Bezug nicht. Der Post hat sich auf Medusa Point bezogen.
AT3 und AT4 sind ne ganz andere Klasse.
ETI1120 schrieb:
AMD betreibt den Aufwand:
https://www.phoronix.com/news/AMD-GFX1170-More-ISA-Diffs

AMD macht alle neuen WMMA-Befehle von GFX1200 für GFX1170 verfügbar, einfach nur den Links im Artikel folgen und die Sourcen von LLVM anschauen.
Und was genau soll GFX1170 sein?
 
CastorTransport schrieb:
da kommt AMD fast zu spät
Ich fand seinen Kommentar auch komisch. Aber es ist auch typisch Mensch. Man befindet sich auf einer kostenfreien Plattform. Man schaut regelmäßig vorbei, schreibt auch Mal was. Aber wie das alles für diesen Menschen bereitgestellt wird, ist wohl offensichtlich egal. Obendrauf sind ja noch die anderen, wie du es schon geschrieben hast, die sich dafür interessieren.

Mit Strix Point, Ryzen AI 300 gibt es 4 + 8c Kerne + SMT. Insofern bleibt es bei 12 Kerne. Vielleicht werden es auch noch 8 + 8c.

HOCLN2 schrieb:
Warum hat AMD bei Strix Halo kein RDNA4 implementiert?
Strix Halo war ein Chiplet Produkt. Da ging es nur darum neue Wege zu gehen. Zu diesem Zeitpunkt gab es kein RDNA 4. Jetzt versucht man eben noch damit Geld zu verdienen. Der Fokus liegt nicht bei Games. Auch wenn es AMD sicherlich völlig egal ist, wenn andere Halo zum Spielen vermarkten.
Jedenfalls liegst du richtig, man muss AMD nicht verteidigen, weil weiterhin das alte Zeug unter der Mütze steckt.
Niemand kann es verstehen, warum RDNA 4 nicht überall kommt. RDNA 3 war ein Griff ins Klo. +8%. RDNA 3.5 bringt nicht mehr Leistungsentfaltung, sondern erfuhr kleine Veränderungen, für mehr Auslastung bei geringerer Leistungsaufnahme. Vielleicht ist RDNA 4 ein Teil der RDNA 5 Entwicklung?
Nach dem Lesen der RDNA 3 Tests war mein erster Gedanke, wenn kann ich nicht leiden, um dieser Person eine RDNA 3 zu empfehlen. AMD hat sicherlich Zeit verloren. Und jetzt konkurriert man mit Intel, die den gleichen TSMC Fertigungsschritt haben wie Zen 6. Gleichzeitig ist aktuell Instinct und Venice einfach die alles überbietende Dringlichkeit. Warum da wegen 20% Marktanteil an der iGPU fummeln? Wenn RDNA 5 schnell kommen soll und andere Aufgaben wichtiger sind?.
Zumindest ist die RDNA 4 Leistungsantfaltung schon überraschend gewesen. Damit haben viele nicht gerechnet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AAS
Alesis schrieb:
Zu diesem Zeitpunkt gab es kein RDNA 4.
Das ist doch komplett gelogen. RDNA4 wurde Anfang 2025 bei der CES vorgestellt. Strix Halo wurde ebenfalls auf der CES 2025 vorgestellt.

Alesis schrieb:
Der Fokus liegt nicht bei Games. Auch wenn es AMD sicherlich völlig egal ist, wenn andere Halo zum Spielen vermarkten.
Das ist mir durchaus bewusst, aber dir ist anscheinend nicht bewusst, dass RDNA3.5 deutlich unterlegen ist ggü. RDNA4 bei AI/LLM. Es macht von vorne bis hinten kein Sinn RDNA3.5 noch zu verbauen.

Mich interessiert es als Kunden einfach herzlichst wenig, wieso, weshalb und warum A und B nicht funktioniert hat.

Wenn man sogar vom "Newcomer" Intel neuste Features auf der A-Serie bekommt, dann muss man sich schon hart an der Stirn runzeln. Und wenn die Community FSR4 inoffiziell zum laufen bekommt, umso mehr.

Ich würde prinzipiell kein Laptop kaufen grade, der eine aktuelle AMD APU hat. Da würde ich lieber ein Intel Modell wie Panther Lake nehmen. Das ist wie Technik von vorgestern kaufen.
 
bensen schrieb:
Doch, aber du erkennst den Bezug nicht. Der Post hat sich auf Medusa Point bezogen.
Die Frage ist halt, welche Konfigurationen es geben wird und welche AMD damit ersetzt. Es müsste eigentlich klar sein, dass Medusa Point mit RDNA 3.5 (3.7?) kommt, während Medusa Halo RDNA5 mit bringen wird.

Welche Kombination kommt für welches Segment? Das ist der Bezug, der hier wichtig ist
 
ETI1120 schrieb:
Daraus werde ich nicht schlau. Die Kombination 16C 4D ergibt für Notebooks keinen Sinn.

Für Desktop Replacement soll es auch noch Olympic Ridge mit BGA geben.
Das stimmt. Vielleicht soll diese Option auch nicht für kompakte Laptops gedacht sein, aber dann kommt wieder Olympic Ridge und ... wirklich verwirrend.

ETI1120 schrieb:
Man kann die Microarchitektur abspecken und trotzdem dieselbe ISA haben.
Kein Widerspruch von mir.

ETI1120 schrieb:
Das Problem mit dem Abspecken der Microarchitektur ist, dass dabei meist die Effizienz von Bord geht. D.h. die Kerne sind nur für kleine Lasten zu gebrauchen. Wenn sie wirklich gefordert werden fangen sie an zu schlucken.
Ein Problem, das man ja mittlerweile umgeht (SD 8 Elite, Intel). Frage ist, ob AMD beim Beginn der Entwicklung das auch korrekt auf dem Schirm hatte.

Philste schrieb:
Die andere Fraktion sagt, dass die 4+4 Kerne im APU-Die einfach deaktiviert werden, sprich die Spitze bei Medusa Point wären 12+0+2 Kerne.
Das macht doch keinen Sinn.
Entweder die yield rate ist gut und man würde absichtlich Silizium verschwenden, oder diese ist so schlecht, dass sich das lohnt und dann muss ich mich fragen, was die da treiben?

HOCLN2 schrieb:
Das große "Ja und" wäre, dass Ampere aber auch DLSS4 nutzen kann. Nicht alle Features, aber die wichtigsten. Das kann man unterhalb von RDNA4 nicht behaupten und FSR3.1 ist einfach Schrott im Vergleich.
Es geht nicht nur darum, was technisch geht, sondern was mit der Gesamtleistung Sinn macht. DLSS auf der Switch 2 ist nicht dasselbe wie auf dem PC. Es gibt zwei Varianten mit herunterskalierter Qualität, damit es nicht zu viel Leistung verbrät. Auch wenn DLSS4 prinzipiell möglich wäre, das bringt nichts.
Allgemein hätte ich gerne, dass DLSS und FSR (in Zukunft auch XeSS, wenn es besser wird) leichtere Varianten für integrierte GPUs/Handhelds als Option bieten würden.

HOCLN2 schrieb:
Das ist mir durchaus bewusst, aber dir ist anscheinend nicht bewusst, dass RDNA3.5 deutlich unterlegen ist ggü. RDNA4 bei AI/LLM. Es macht von vorne bis hinten kein Sinn RDNA3.5 noch zu verbauen.
Ich könnte mir noch vorstellen, dass sie RDNA3.5 als Sicherheit verwendet haben. Ein völlig neues Konzept für AMD und anstatt mehr Silizium für RDNA4 herzunehmen, war Strix Halo einfach sicherer.

HOCLN2 schrieb:
Ich würde prinzipiell kein Laptop kaufen grade, der eine aktuelle AMD APU hat. Da würde ich lieber ein Intel Modell wie Panther Lake nehmen. Das ist wie Technik von vorgestern kaufen.
Hier spielen ja mehrere Punkte rein. Vor Arrow/Lunar Lake waren AMDs APUs seit Zen2/3 bei der Effizienz und Leistung einfach besser. Was gerade für Laptops wichtiger ist, wie sich das Gesamtpaket gibt und da kann Intel mehr glänzen. Ich wäre an einem generellen Vergleich bei z.B. Standby Problemen (s2idle, S3/Suspend-to-RAM, usw.) interessiert.
Würde ich einen neuen Laptop kaufen, würde es sicherlich Panther Lake werden, vorausgesetzt, man bekäme Modelle mit dem X7 358H zu akzeptablen Preisen.
 
  • Gefällt mir
Reaktionen: HOCLN2
HOCLN2 schrieb:
Das ist doch komplett gelogen.
Stimmt. Im Sommer 2023, als wir etwas über Strix Halo gelesen haben, war RDNA 4 schon auf dem Markt? Bei Ahnungslosigkeit anderen lügen zu unterstellen ist sozial inkompetent.
Strix Halo war ein Entwicklungsprojekt. Von Anfang an mit RDNA 3.5 geplant. Weil RDNA 3.5 schon eine Entwicklung ist, mit weniger Leistungsaufnahme eine höhere/gleichbleibede Auslastung zu bekommen. Halo ist keine Zockermaschine.
 
stefan92x schrieb:
Die Frage ist halt, welche Konfigurationen es geben wird und welche AMD damit ersetzt. Es müsste eigentlich klar sein, dass Medusa Point mit RDNA 3.5 (3.7?) kommt, während Medusa Halo RDNA5 mit bringen wird.

Welche Kombination kommt für welches Segment? Das ist der Bezug, der hier wichtig ist

Medusa Point ist der Nachfolger von Krackan Point.

Medusa Halo Mini passt als Nachfolger für Strix Point.

Medusa Halo ist der Nachfolger von Strix Halo.

AMD steckt Aufwand in GFX11.7 welche Produkte sind auf der Road Map?
Ergänzung ()

Die Plattformen sind laut Gerüchten Medusa Halo Mini und Medusa Point auf FP10 und Medusa Halo auf FP12
 
Zuletzt bearbeitet:
Deinorius schrieb:
Hier spielen ja mehrere Punkte rein. Vor Arrow/Lunar Lake waren AMDs APUs seit Zen2/3 bei der Effizienz und Leistung einfach besser. Was gerade für Laptops wichtiger ist, wie sich das Gesamtpaket gibt und da kann Intel mehr glänzen. Ich wäre an einem generellen Vergleich bei z.B. Standby Problemen (s2idle, S3/Suspend-to-RAM, usw.) interessiert.
Würde ich einen neuen Laptop kaufen, würde es sicherlich Panther Lake werden, vorausgesetzt, man bekäme Modelle mit dem X7 358H zu akzeptablen Preisen.
Absolut, mir ist die Effizienz und das P/L-Verhältnis extrem wichtig, war auch der Ausschlag wieso ich 40 AMD Ryzen 5 220 Notebooks gekauft habe. Die Grafikleistung ist mir im Alltag relativ schnuppe für ein bisschen Web ERP, KIS, RemoteApps und Teams. Dafür habe ich auch nur 550 CHF pro Stück gezahlt.

Der CB-Bubble sollte man bewusst werden, dass sie weniger als 0.1% der Kunden sind.
Der Grosse Umsatz wird im Geschäftsumfeld gemacht (Server + Clients), wo alle Geräte auch nach 3-5 Jahren ersetzt werden.
 
Zu GFX11.7 mögliche Produkte sind Gorgon Halo und Medusa Point. Ansonsten ist nichts bekannt. Der Zeitpunkt zu dem die Treiberentwicklung gestartet wurde passt eher zu Medusa Point.

HOCLN2 schrieb:
Das ist doch komplett gelogen.
Mäßige Deinen Tonfall.

Bei den Release Terminen waren RDNA4 und Strix Halo sehr nahe zusammen. Und RDNA4 wurde was Stückzahlen anbelangt vor Strix Halo ausgeliefert.

Deshalb stimme ich Dir zu dass es eher nicht die Termine waren.

AMD hat RDNA3.5 wiederholt als Lösung für den Mobilmarkt bezeichnet.

Was macht es dazu? IMO dass RDNA4 erheblich mehr Transistoren je CU benötigt und dass AMD geglaubt hat die Features und Performance von RDNA4 nicht für die APUs zu benötigen.

GFX11.7 ist ein Hinweis darauf, dass AMD den Fehler eingesehen hat, zumindest was die AI Features anbelangt.
 
ETI1120 schrieb:
Realistisch. Apple legt die Kerne auf maximale Single Core Leistung aus, AMD auf maximale Multithreading Leistung.
Ohne Aussagen seitens der Hersteller auf was sie genau Wert legen, ist das reines Wunschdenken. Also abgesehen von den typischen "leading performance in the XYZ".
Von den Analysen die es gibt (von älteren M Socs), zeigen die Apple M-Socs recht gut Werte was Kommunikation zwischen den Kernen angeht. Was auch nicht einfach so passiert, sondern aktiv Aufwand bedeutet, damit das so gut klappt. Entsprechend skalieren die Kerne auch gut beim Multithreading, wenn es die Anwendung hergibt.

ETI1120 schrieb:
Per Pendel? Würfel?
Der Benchmark ist vom Hersteller dokumentiert, samt Ansätzen zur Wertung. Lies es, anstatt so launige Einwürfe in die Runde zu geben ;). Es sind halt kleine Subbenches mit viel Zeit zwischen den einzelnen Läufen mit allenfalls mittelgroßem Speicherbedarf der Läufe. Was an Software bzw. Bibliotheken genutzt wird mit welchen Optimierungen ist auch bekannt.

Warum wohl hat Apple der Anzahl der Performancekerne bei M5 reduziert? Und nun ganz plätzlich M-Kerne kreiert?
Wo ist bei der Frage das Argument? Wieso Apple etwas macht, wissen die Ingenieure intern. Auch würde ich das "plötzlich" in Frage stellen. Entsprechende Designentscheidungen sollten über ein Jahr alt sein.
Es ändert auch wenig am Fakt, dass die SoCs sehr gut und die CPUs-Kerne dem Wettbewerb voraus sind.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Medusa Point ist der Nachfolger von Krackan Point.
Aber was ist dann mit Medusa Point plus extra CCD? Kommt das, kommt es nicht, und wenn ja, in welcher Kernkonfiguration? Und für welchen Zielmarkt? Das ist bei dem ganzen glaube ich noch das große offene Thema.

Es wäre meiner Ansicht nach die richtige Lösung für High-End-Gaming und ähnliches, wo es auf die iGPU nicht ankommt, sondern eine richtige dGPU erwartet wird.
 
  • Gefällt mir
Reaktionen: DF86
Alesis schrieb:
Stimmt. Im Sommer 2023, als wir etwas über Strix Halo gelesen haben, war RDNA 4 schon auf dem Markt?
Was juckt mich, was 2023 gelesen wurden ist. Wenn die eine komplett neue CPU entwerfen, was Strix Halo ist aufgrund des Interconnect, dann können die auch RDNA4 integrieren. Beides befand sich zur selben Zeit in Entwicklung und sie hätten Strix Halo auch 6 Monate später nach RDNA4 veröffentlichen können. Dann wäre das Ding sowas von ein Verkaufsschlager.
 
HOCLN2 schrieb:
Was juckt mich, was 2023 gelesen wurden ist.
Der Punkt ist, dass je nach Gerücht, dem man glaubt, Strix Halo ungefähr mit einem Jahr Verspätung auf den Markt kam. Und damit ursprünglich lange vor RDNA4 auf den Markt gekommen wäre.
 
  • Gefällt mir
Reaktionen: DF86
ETI1120 schrieb:
[...] und dass AMD geglaubt hat die Features und Performance von RDNA4 nicht für die APUs zu benötigen.
Ich wäre primär daran interessiert, dass sie geglaubt (oder gewusst) haben wollen, die Effizienz (nicht nur die Last-, sondern auch die Idle/Teillast-Effizienz) von RDNA4 wäre nicht ausreichend hoch für mobile Anwendungen.
Auf der anderen Seite, ohne Advanced Packaging macht es weniger Sinn, unterschiedliche Architekturen einzusetzen, aber möglicherweise könnten sie diesen Weg jetzt gehen wollen, zumindest für Medusa Halo.
 
ETI1120 schrieb:
Mäßige Deinen Tonfall.
Muss ich nicht, wenn es nachweisbar gelogen ist.
ETI1120 schrieb:
Bei den Release Terminen waren RDNA4 und Strix Halo sehr nahe zusammen.
Es war nicht nur zusammen, es war auf der selben Messer Namens "CES 2025".
ETI1120 schrieb:
MO dass RDNA4 erheblich mehr Transistoren je CU benötigt und dass AMD geglaubt hat die Features und Performance von RDNA4 nicht für die APUs zu benötigen.
Da hat dann AMD wohl wieder die "AMD never misses an opportunity to miss an opportunity"
ETI1120 schrieb:
GFX11.7 ist ein Hinweis darauf, dass AMD den Fehler eingesehen hat, zumindest was die AI Features anbelangt.
Ja, aber das wird nur wieder RDNA 3.7 sein. Also wird dort wieder irgendwas nicht funzen, was nur unter RDNA4 wieder funzt und das ist, was ich an AMD harsch kritisiere. Dann sollen die halt so was ähnliches wie bei den CPU's machen. Zen 5 und Zen 5c Kerne.
Ergänzung ()

stefan92x schrieb:
Der Punkt ist, dass je nach Gerücht, dem man glaubt, Strix Halo ungefähr mit einem Jahr Verspätung auf den Markt kam.
Dann hätte man im Laufe des Projekts merken müssen, dass es kein Sinn mehr macht, dieses Produkt mit veralterter GPU Architektur auf den Markt zu bringen.

Lösung wäre gewesen:
  1. Projekt abschreiben oder
  2. verspäten und RDNA4 implementieren oder
  3. Entry Modelle mit RDNA3.5 veröffentlichen, aber RDNA4 nachreichen als High-End Modell
 
HOCLN2 schrieb:
Dann hätte man im Laufe des Projekts merken müssen, dass es kein Sinn mehr macht, dieses Produkt mit veralterter GPU Architektur auf den Markt zu bringen.
Aber wieso, wenn es offensichtlich genug Interesse am Produkt gab? Und es darüber hinaus ein unverzichtbarer Pipecleaner für Zen 6 zu sein scheint. Da ergibt es viel mehr Sinn, dass AMD es einfach durchgezogen hat.
 
  • Gefällt mir
Reaktionen: DF86
HOCLN2 schrieb:
Muss ich nicht, wenn es nachweisbar gelogen ist.
Es gibt einen Unterschied zwischen Lüge und "sich irren"!

HOCLN2 schrieb:
Dann hätte man im Laufe des Projekts merken müssen, dass es kein Sinn mehr macht, dieses Produkt mit veralterter GPU Architektur auf den Markt zu bringen.
Nach all dieser Entwicklung und den R&D-Kosten? Strix Halo ist mehr als nur ein Produkt, es ist ein Experiment für das Advanced Packaging und die kommende Zukunft der Produktion von AMD Chips.
Darüber hinaus war es marketingtechnisch ein voller Erfolg. Was konnte AMD in letzter Zeit für positive Erfolge verbuchen? RDNA4 und FSR4 (mit dem Problem der fehlenden Unterstützung von FSR4 für ältere Generationen ...), dann Strix Halo.
Ich weiß nicht, mit welcher Grundhaltung AMD in die Entwicklung direkt gegangen ist, aber es war sicher immer als Grundlage für kommende Fertigungen gedacht.
 
Zurück
Oben