News AMD Zen 6 CCD: 50 Prozent mehr Kerne auf nahezu gleicher Fläche?

crustenscharbap schrieb:
Das nicht zu aktivieren aufgrund fehlender KI auf einem Prozessor der AI im Namen hat ist schon Wahnsinn.
Irgendwie verstehe ich deinen Kommentar nicht.
Gorgon Point wird als APU in den Desktop kommen und natürlich als zB 4 + 6c Kerner eine 50TOPS NPU haben, mit 768 RDNA 3.5 Shader insgesamt 73TOPs bieten.
 
Casillas schrieb:
Der Idle Verbrauch bei den Ryzen CPUs ist nicht wirklich gut. Da sind sich ja alle einig. Trotzdem sind massenweise Leute vom 7800X3D auf den 9800X3D umgestiegen oder haben sich beim Systembau gleich diesen gekauft, obwohl der 7800X3D alles andere als langsam ist, das bessere P/L hat und vor allem effizienter ist.

Trotzdem wird jetzt von einigen als wichtigster Punkt die Verbesserung des idle Verbrauchs genannt. Kann ich nicht nachvollziehen. Passt für mich nicht zusammen.
Sehe da keinen Wiederspruch. Erstmal ist es ja die Frage, ob's überhaupt die gleichen Leute sind. Sonst haben wir einfach unterschiedliche Personen mit unterschiedlichen Prioritäten - nothing to see here.

Aber selbst wenn es die gleichen Leute sein sollten:
Natürlich redet man mehr über die Dinge, die einen bisher stören und bei denen unklar ist ob es zu Verbesserungen kommen wird (idle Leistungsaufnahme) statt die Sachen, bei denen eine deutliche Verbesserung eh zu erwarten ist (Prozessorleistung, dank 50% mehr kernen), selbst wenn letzteres Overall die höhere Priorität hat.

Hast du eigentlich Zahlen dazu, wie viele Leute von 7800X3D auf den 9800X3D umgestiegen sind?
 
Miuwa schrieb:
Natürlich redet man mehr über die Dinge, die einen bisher stören
Meine Wahrnehmung ist in diesem Forum, dass nur die Persönlichkeiten sich über negative Punkte eines Hersteller echauffieren, die diesen Produkte nicht kaufen, um damit ihre Kaufentscheidung als die richtige zu bepreisen.
 
bogge101 schrieb:
man zockt mit einer Gaming CPU
ansonsten ist der PC doch aus 🤷‍♂️
aus meiner Sicht ist Idle bei X3D uninteressant

zum Arbeiten ein Mac mini, der schaltet nicht mal die Lüfter an und hat kaum Stromverbrauch.
Gibt auch MiniPCs mit Windows (...)
Es ist ein ganz generelles Prinzip, dass wenn etwas hochqualitativer umgesetzt wird dies mehrere andere Hilfsmittel in sich vereinen kann. Gilt auch in der Küche wie bei PCs: Ein tolles Tomatenmesser ist ein gutes, kleines Brot- und Brötchenmesser. Eine gute Heißluftfritteuse ist besser als die meisten Toaster. Und wieso sollte man dann einen Ryzen-X3D-Desktop nicht so weit optimieren, dass er besser beim Surfen ist als ein MacMini?
Ergänzung ()

Alesis schrieb:
Meine Wahrnehmung ist in diesem Forum, dass nur die Persönlichkeiten sich über negative Punkte eines Hersteller echauffieren, die diesen Produkte nicht kaufen, um damit ihre Kaufentscheidung als die richtige zu bepreisen.
Also mich zumindest stören am meisten Probleme bei Produkten, die ich mir gekauft habe, die gerne kaufen würde oder die ich gerne Leuten empfehlen würde...
 
  • Gefällt mir
Reaktionen: Taxxor und BAR86
CDLABSRadonP... schrieb:
Also mich zumindest stören am meisten Probleme bei Produkten, die ich mir gekauft habe, die gerne kaufen würde oder die ich gerne Leuten empfehlen würde...
Du fällst aber auch nicht als emotionaler einseitiger Schreihals auf...
 
  • Gefällt mir
Reaktionen: BAR86, Melmoth, Alesis und eine weitere Person
BAR86 schrieb:
Die ISA hat Nichts mit der Effizienz zu tun, das macht schon die Architektur selbst
Naja, ganz so einfach ist das dann doch nicht. Zum einen ist die Decoderstufe bei x86 halt viel, viel komplexer als bei ARM und zum anderen hat die ISA auch Auswirkungen auf die ABI (insbesondere auf parameter passing) und damit wiederum auf die Effizienz. Dann bedeutet kompakterer Binärcode tendenziell besser Instruction Cache Effizienz (keine Ahnung, ob's da nennenswerte Unterschiede zwischen Arm und x64 gibt und wenn ja, er da besser abschneiden) und zuletzt bedeutet die Rückwärtskompatibilität (bis zu 16Bit Zeiten) natürlich auch overhead bei der Implementierung (würde allerdings vermuten, dass das vor allem auf den eh schon erwähnteren komplexeren Decoder einzahlt). Soll jetzt nicht heißen das wären alles riesen Effekte, aber ich bin mir nicht sicher, ob man die vernachlässigen kann.
 
Miuwa schrieb:
Naja, ganz so einfach ist das dann doch nicht.
Zugegeben, hab mich simpel ausgedrückt.
Und ich hab es auch nie ausprobiert.
Ich folge hier nur den Ausführungen von Jim Keller als er Mal x86, ARM. Und RISC-V verglichen hat (und gesagt hat, dass das eigentlich keine Frage der ISA selbst ist)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miuwa
Den Leuten die gerne nach ARM rufen möchte ich Fragen stellen.
  • Wird es dann noch die gleiche Individualität geben, wie wir diese aktuell haben?
  • Wer wird das passende Betriebssystem bereitstellen?
  • Google/Microsoft? Mit dann nur noch Downloads über deren Shops, wie wir es heute haben bei den Smartphones?
  • Dann gibt es nur noch einen Anbieter der ARM Lizenz. Will man das wirklich?
  • Wie soll man diese Masse an Software für x86 Architektur für ARM umschreiben? In welcher Zeit soll das ablaufen?
  • Ist es doch etwas zu unüberlegt, einfach ARM ins Forum zu meinen?
 
CDLABSRadonP... schrieb:
Es ist ein ganz generelles Prinzip, dass wenn etwas hochqualitativer umgesetzt wird dies mehrere andere Hilfsmittel in sich vereinen kann. Gilt auch in der Küche wie bei PCs

ich kaufe trotzdem teilweise lieber spezialisierte Geräte und keinen Thermomix

Für einen GamingPC spielt der IDLE Verbrauch IMHO keine große Rolle, weil man in der Regel damit spielt. Da ist mit die optimale Leistung beim Gaming wichtig.
Für einen AllroundPC kann man auf eine sparsame CPU zurückgreifen, da muss es nicht zwingend ein X3D sein.
 
Die Kombination aus Sockel, CPU Architektur und Veröffentlichungszeitraum bleibt die gleiche oder ändert sich da durch die KI "Krise" etwas seitens AMD?
 
Rickmer schrieb:
Abgesehen davon würde ich mir bei Zen 6 primär wünschen, dass AMD an der Leistungsaufnahme des IO Chip arbeitet damit Idle Power reduziert wird.

So weit ich das bisher mitbekommen habe, wird das kommen. Der IO Chip wird nämlch auch in kleinerer Strukturbreite gefertigt werden - meine ich in der Gerüchteküche schon gesehen zu haben...
 
ETI1120 schrieb:
Und wenn wir schon beim munkeln sind, es macht mir einen Heidenspass wie adroc_thurston aus der Steigerung der Frequenz von Dense Kernen im Server Rückschlüsse auf die Frequenz im Desktop ziehen will. Bei dieser Sache wird es noch spaßig.
Das ist auch so ein Punkt. Die 1.7× Im Vergleich zu Turin mit c-Kernen hat man schnell erreicht. 33% mehr Kerne, wenn wir dazu noch annehmen, dass die Slide von MLID mit "10-15%" IPC echt ist, und da einfach mal 12% nehmen, braucht man schon nur noch 15% Takt, um auf 1.7× zu kommen.

Ja ist ne Milchmädchenrechnung, da ideales Scaling vorausgesetzt ist. Bedeutet aber, dass wir selbst unter Annahme des Maximaltakts hier nur eine Steigerung von 3.7GHz auf 4.25GHz bräuchten. Selbst da wären wir also noch lange nicht im Bereich irgendwelcher Desktop-Taktraten.

Ich finde leider nichts dazu, mit welcher Frequenz der 9965 bei Belastung aller Kerne läuft. AMD gibt die Basisfrequenz mit 2.25GHz an, wären also 2.8GHz realistisch? Dann würde ein 256-Kerner Venice ca. 3.3GHz brauchen, um die beworbenen Leistungswerte zu erreichen. Bei einer gleichzeitigen Erhöhung der TDP von 500 auf 600W.

Davon auf den Desktop zu schließen ist tatsächlich ziemlich lächerlich. Ein 9950X läuft mit ca. 5.1GHz im Multi. Eine Erhöhung der TDP ist hier nicht mehr zu erwarten, vom 7950X zum 9950X ging man mit dem PPT sogar wieder runter, weil der 7950X sowieso oft i Temperaturlimit war. 15% mehr Takt wären hier fast 5.9GHz, mehr als der aktuell höchste Single Core Boost. Unwahrscheinlich.

Ja, es sind 2 Node Shrinks und der gute Adroc Thurston/Devilfish zieht auch Qualcomm heran, die von X Elite zu X2 Elite 19% Takt zugelegt haben und das bei einem Node Shrink. Er vergisst dabei aber, dass auch diese sich dabei im Vergleich zu früher zu Tode saufen (ein Snapdragon 8 Elite Gen5 brauch im Handy im Singlecore soviel Strom wie der 8 Gen 3 im Multicore). Mag sein, dass ZEN 5 einen Boosttakt von 6.4-6.5GHz hat. Dann aber bei 60-70W Verbauch und entsprechender Quittung beim Gaming Verbrauch auch bei X3D SKUs.

Dass sich Intel und AMD jetzt seit einiger Zeit im Laptop bei ~5GHz aufhalten, kommt ja nicht von ungefähr. Gefühlt erlauben die neuen Nodes zwar höhere Boosttakte, aber ihre Effizienz Verbesserungen liegen hauptsächlich im Bereich bis ~4GHz, darüber fängt das saufen an. Egal ob bei Intel oder Apple. Würde mich nicht überraschen, wenn ein 24 Kern ZEN6 im Multicore trotz 2 Nodeshrinks sogar niedriger taktet als ZEN5, während einem im Anandtech-Forum ja weisgemacht werden soll, dass es ×2 im Multicore gibt.
 
Kann die CPU oder die neuen Chipsätze bitte 8-16 zusätzliche PCIe lanes bieten - selbst PCIe 4.0 wäre ok.
AM5 ist geil, aber der Mangel an PCIe lanes ist derb… bei jedem Mainboard muss man nachschauen wie wirke elektrische lanes wirklich vorhanden sind und wie diese geshared sind
 
  • Gefällt mir
Reaktionen: DutchTraveller
Philste schrieb:
Das ist auch so ein Punkt. Die 1.7× Im Vergleich zu Turin mit c-Kernen hat man schnell erreicht. 33% mehr Kerne, wenn wir dazu noch annehmen, dass die Slide von MLID mit "10-15%" IPC echt ist, und da einfach mal 12% nehmen, braucht man schon nur noch 15% Takt, um auf 1.7× zu kommen.

Ja ist ne Milchmädchenrechnung, da ideales Scaling vorausgesetzt ist. Bedeutet aber, dass wir selbst unter Annahme des Maximaltakts hier nur eine Steigerung von 3.7GHz auf 4.25GHz bräuchten. Selbst da wären wir also noch lange nicht im Bereich irgendwelcher Desktop-Taktraten.
Finde ich einen sehr plausiblen Takt, auch aus einer anderen Überlegung heraus: Es sieht ja danach aus, dass das Maximum für Classic-Kerne von 128 auf 96 sinkt. Das heißt, dass 128 Zen 6c Kerne schneller sein müssen als 128 Zen 5 Kerne, um den Generationswechsel zu rechtfertigen. Der Epyc 9755 taktet mit 2,7 -4,1 GHz. Wenn man denkt, bisschen mehr sollte gehen (plus IPC-Zuwachs), landet man im gleichen Bereich wie bei deiner Kalkulation.
Philste schrieb:
Ich finde leider nichts dazu, mit welcher Frequenz der 9965 bei Belastung aller Kerne läuft. AMD gibt die Basisfrequenz mit 2.25GHz an, wären also 2.8GHz realistisch?
Kommt halt auf die Art der Belastung an. Bei "leichten" Lasten bestimmt, bei AVX512 Numbercrunching bewegt man sich aber wirklich nahe am offiziellen Basistakt.
Philste schrieb:
Davon auf den Desktop zu schließen ist tatsächlich ziemlich lächerlich.
Volle Zustimmung. Ich gehe allerdings davon aus, dass der 12-Core CCD tatsächlich in seiner Balance mehr auf Desktop/Multicore statt "Manycore" ausgelegt sein wird, als bisher übliche CCDs. Denn bislang war das Classic-CCD immer sowohl für Mainstream-Desktop als auch für Mainstream-Server gedacht. Mainstream-Server scheint aber endgültig auf Dense-Cores zu wechseln.
Ergänzung ()

Dig.Minimalist schrieb:
Kann die CPU oder die neuen Chipsätze bitte 8-16 zusätzliche PCIe lanes bieten
Die CPU nicht, alle die der Sockel AM5 ermöglicht werden schon rausgeführt. Chipsätze muss man wirklich drauf hoffen, dass es nochmal bessere gibt als die aktuell verfügbaren.
Dig.Minimalist schrieb:
AM5 ist geil, aber der Mangel an PCIe lanes ist derb
Aus ehrlicher Neugier: Wofür fehlen dir Lanes? Mich stört bei AM5 gerade eher der Stromverbrauch und der Mangel an modernem IO direkt vom Chipset (also sowas wie USB4, was ja nur mit extra Chip möglich ist).
 
Schade, hätte man ja gleich 16 Kerne in ein CCD stopfen können.
 
BAR86 schrieb:
Ich folge hier nur den Ausführungen von Jim Keller als er Mal x86, ARM. Und RISC-V verglichen hat (und gesagt hat, dass das eigentlich keine Frage der ISA selbst ist)

load, store, add, substract, compare and branch
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hans_meiser und BAR86
stefan92x schrieb:
Kommt halt auf die Art der Belastung an. Bei "leichten" Lasten bestimmt, bei AVX512 Numbercrunching bewegt man sich aber wirklich nahe am offiziellen Basistakt.
AMD vergleicht immer SpecINT-Throughput, von daher wäre es interessant, speziell dabei den Takt des 9965 zu wissen.
 
Alesis schrieb:
Könntest du dazu noch die Konsequenz daraus erklären?
Ja, 16 Kerne sind besser, als 12. Eine größere Fläche kann mehr oder einfacher Wärme abgeben/ die Kühlung wird vereinfacht.

Es gibt da mannigfaltige Vorteile. Nachteil ist klar, dass der CCD teurer wird.
 
Zurück
Oben