News Milan-X mit 3D V-Cache: AMD Epyc 7773X mit 768 MB L3-Cache kostet 8.800 USD

wern001 schrieb:
Ich glaub nicht das der Takt das Problem ist eher die Stromaufnahme
Robert Hallock hat doch bereits offiziell ausgesagt, dass es eine Wand bei 1,35 V gibt, bei der nicht mehr Takt zu bekommen ist. Also ist es ein Taktproblem.
BxBender schrieb:
Also PCGH hat kürzlich in der Printausgabe ziemlich gut nachgewesen, dass der verbaute Cache nur sehr bedingt Vorteile bietet, in den getesteten Spielen eigentlich gar nichts, egal ob 16, 32 oder gar 64MB verbaut sind.
Kannst du das mal irgendwie zusammenfassen? Das wurde hier schon mehrfach angedeutet, ich meine auch immer von dir, und es widerspricht allem was man aus der Theorie weiß oder aus vorigen Benchmarks kennt.
 
wern001 schrieb:
Ich glaub nicht das der Takt das Problem ist eher die Stromaufnahme
Ich bezweifle, das hier bei 280W die Turbos durch Leistungsaufnahme begrenzt sind. Da wird Yield und Stabilität wichtiger sein.
Ergänzung ()

sikarr schrieb:
Windows 10 kann schon mit bis zu 256 Cores umgehen, Windows Server 2019 Datacenter hat schon gar keine Beschränkung mehr aber irgendeine Schallmauer wirds schon geben.
Verwaltet aber die Threads in 64er Gruppen, was Performance Probleme verursachen kann
 
Beziehn sich die 768MB Cache auf beide CPUs oder nur eine, weil dann wäre das ja mal ein ganzer Gigabyte Cache!
 
estros schrieb:
Das ist die TDP Klasse, relevant für die Kühlereinheit, das ist kein Verbrauch. Wär ich mit vorsichtig. Mehr Cache bedeutet in jedem Fall ein Mehr an Verwaltungsaufwand.
Afaik ist der Maximalverbrauch bei AMD doch indirekt an die TDP gekoppelt, oder hat sich da was geändert? Normalerweise gibts bei den Desktop Cpus doch 105W TDP und 142W (Faktor 1,35) davon als "Deckel". Ist das bei Epyc anders?

Kontrapaganda schrieb:
Beziehn sich die 768MB Cache auf beide CPUs oder nur eine
Eine bzw. die 768mb Cache gelten pro Sockel.
 
  • Gefällt mir
Reaktionen: BatCatDog, da_exe und Colindo
DevPandi schrieb:
Die meisten M2.SSD werden heute - sofern man den richtigen Slot wählt, direkt an die CPU angebunden. ;)

Und Arbeitsspeicher direkt in der CPU nennt man Cache. Die Caches werden - von der Verwaltung (stark vereinfacht) - im RAM abgebildet. Oder andersherum: Daten, die im RAM liegen, werden in die Caches abgebildet, damit sie näher an der CPU liegen.

Die Daten wandern - zusammen mit ihrer "Adresse" - durch die verschiedenen Cache-Ebenen und auch der Arbeitsspeicher ist im Endeffekt die 4. und letzte Ebene, in der man dann die Daten zum Arbeite sucht.
Vielleicht drückte ich mich da nicht eindeutig genug aus.

eine SSD, welche über PCIe angebunden ist, muss nach wie vor über PCIe gehen (und dem NVMe Protokoll).
Eine SSD welche direkt am Speicherkontroller, ohne den Umweg über PCIe zu gehen, angebunden wäre, wäre schön :)

Wie Arbeitsspeicher funktioniert weiß ich - dennoch solltest du nicht sagen, dass der Cache mit dem RAM gleichzusetzten ist - und damit mein ich nicht physisch, sondern logisch.
 
Klingt nach einem "Schnapperle" im B2B-Umfeld...
 
Colindo schrieb:
Robert Hallock hat doch bereits offiziell ausgesagt, dass es eine Wand bei 1,35 V gibt, bei der nicht mehr Takt zu bekommen ist. Also ist es ein Taktproblem.
Wie soll den PCGH das überhaupt testen, die können ja nicht selbst den Cache beschneiden.
Außerdem, ein 5900X mit 64MB Cache hat ja auch nur 2x32MB Cache, Kern 0 kann nicht auf die zweiten 32MB Cache des anderen CCDs zugreifen.
Cezanne hat zwar 16MB aber doch komplett anderen Aufbau, eignet sich also auch nicht (Monolith vs Chiplet)
 
  • Gefällt mir
Reaktionen: Ned Flanders und Colindo
rony12 schrieb:
Eine SSD welche direkt am Speicherkontroller, ohne den Umweg über PCIe zu gehen, angebunden wäre, wäre schön :)
3D Xpoint? Das ist quasi Ram, der bei Spannungsverlust die Daten hält und somit quasi eine an den IMC angebundene SSD ist.

Ansonsten gibts ja beides: PCIe SSD am Chipsatz und direkt an der Cpu. Aber ob nun die "SSD" wie 3D XPoint an einem Ramcontroller oder an einem PCIe Controller/Interface hängt, wo ist da der Unterschied? So oder so sitzt ein Controller/Interface in der Cpu, welches die SSD anbindet.
 
@Tzk Nee, der 7313 ergibt keinen Sinn. Der hat weder die gleiche TDP noch passt der Preis. Genau diese Dinge sind aber im Artikel genannt.
Die Preisdifferenzen sind übrigens in Dollar. Ich hatte nur aus Gewohnheit automatisch € geschrieben.
 
  • Gefällt mir
Reaktionen: Tzk
Onkel Föhn schrieb:
Außer jene kommt von INTEL ... :evillol:

MfG Föhn.
Das sind aber eben auch die Preise, die man beim Direktkauf als Privatkunde zahlen würde, inkl. MwSt. Im B2B Bereich gibt es aber entsprechende Mengenrabatte und auch keine MwSt., so dass man da auch gerne mal nur die Hälfte vom Listenpreis bezahlt.

Teilweise gehen die CPU Hersteller da mit den Preisen auch so weit runter, dass sie das Angebot vom Konkurrenten unterbieten.
 
  • Gefällt mir
Reaktionen: owned139 und Onkel Föhn
Tzk schrieb:
3D Xpoint? Das ist quasi Ram, der bei Spannungsverlust die Daten hält und somit quasi eine an den IMC angebundene SSD ist.

Ansonsten gibts ja beides: PCIe SSD am Chipsatz und direkt an der Cpu. Aber ob nun die "SSD" wie 3D XPoint an einem Ramcontroller oder an einem PCIe Controller/Interface hängt, wo ist da der Unterschied? So oder so sitzt ein Controller/Interface in der Cpu, welches die SSD anbindet.
Der unterschied zwischen PCIe und einem DDRx Interface ist aber schon erheblich ;)
Weniger Overhead, Laufzeit zum Takt etc ...
 
  • Gefällt mir
Reaktionen: Tzk
Also bei Broadwell waren die 128mb l4 damals in Games richtig gut. Ist halt die Frage, wie gut Games auch mit noch mehr Cache weiter skalieren können.
Ansonsten könnte man bei den Epyc ja SMT deaktivieren und hat immer noch genug Kerne und dann geht evtl. auch ein wenig noch beim Takt. Ram Bandbreite hat man ja auch satt dank quadchannel und kann hier schön die timings auf cl13 runterdrücken inkl. scharfen secundär, tertiär. Dazu bekommt man auch alle aktuellen games in eine ram Disk, was auch ganz nett ist.
Natürlich alles unter der Betrachtung, dass wir hier nicht über P/L reden.

Architektonisch dürfte aber dann eher zen4 epyc interessanter sein, da auch die ipc für games gesteigert wird. Aber zum Testen wäre sowas schon mal was feines, einfach um zu sehen was geht.
 
wern001 schrieb:
Ein TR ist um einiges langsamer als ein normaler Ryzen
Nicht unbedingt. Eigentlich ist es eine ganz gute Mischung.
Die Epycs haben einen extrem niedrigen Takt verglichen zu Ryzen aber ein Threadripper 5xxx kommt mit 4,5 GHz schon fast auf die gleiche single core performance.
 
rony12 schrieb:
Der unterschied zwischen PCIe und einem DDRx Interface ist aber schon erheblich ;)
Natürlich, das bestreite ich nicht. Ich meinte eher das in beiden Fällen die Daten in der Cpu über einen Controller laufen müssen. Natürlich gibts erhebliche Differenzen zwischen dem PCIe und Dram Interface. Wobei ich mir nicht so recht vorstellen kann wie man NAND ohne weitere Logik an die Cpu anbindet. Dann müsste der NAND Controller ja in der Cpu sitzen, wenn die NAND Chips direkt 1:1 angebunden werden.

Oder Alternativ bräuchte man einen Controller auf dem NAND Dimm, der u.A. TRIM und Wear Leveling übernimmt. Und da stellt sich wieder die Frage ob das Dram Interface die technisch sinnvollste Lösung ist.
 
Das Mal als APU😂
 
Tzk schrieb:
Wobei ich mir nicht so recht vorstellen kann wie man NAND ohne weitere Logik an die Cpu anbindet. Dann müsste der NAND Controller ja in der Cpu sitzen, wenn die NAND Chips direkt 1:1 angebunden werden.
Der Controller zum Ansteuern des NAND-Speichers ist direkt auf der SSD. DIe CPU kommuniziert im Endeffekt immer nur mit dem Controller und nicht direkt mit den Speicherchips.
 
rony12 schrieb:
Der unterschied zwischen PCIe und einem DDRx Interface ist aber schon erheblich ;)
Weniger Overhead, Laufzeit zum Takt etc ...
Ist aber völlig unerheblich, wenn der NAND-Flash selber eine um Größenordnungen höhere Latenz hat. PCIe ist weder für Latenz, noch für Bandbreite relevant.
 
Zurück
Oben