News Zen vs. Skylake: Die-Größenvergleich von Ryzen, Naples und Skylake-SP

strex schrieb:
@DonL_

Und die Anzahl der Kerne sagt jetzt zur CPU P/W was?

Scheinbar kapierst du nicht was P/W bedeutet. Was du meinst ist P/W per Core..wir vergleichen aber keine P/W per Core sondern P/W der gesamten CPU.



Das zeigst du ja perfekt. Statt zu verstehen, dass die P/W Angabe nicht per Core sondern auf die gesamte CPU berechnet wird. Jedenfalls ist das Ziel von semiaccurate. Das will keine Core Vergleiche sondern nur CPU vs CPU. Das Ding könnte auch 100 Cores haben und eine deutlich schlechter P/W haben.

Man sollte sich schon an einen Bezugspunkt halten und der liegt beim Artikel bei P/W CPU vs CPU und nicht bei einzelnen Cores..

Mich würde die P/W gegen den 6900/6950 Monate nach dem Release interessieren wird wohl nicht genauso auesshen, alleine wegen des AOTS Patches!
 
strex schrieb:
Ich will prüfen welche CPU bei x Workload bessere P/W liefert.
Ja, nur ist auch das am Ende nicht das Kriterium welches die besten CPU ausmacht, denn die abgelieferte Leistung muss ja auch stimmen, sonst müssen mehr Server aufgestellt werden um die Arbeit zu machen und dann fällt die TCO am Ende höher aus oder die Servicequalität passt nicht, weil die Antwortzeiten zu hoch ausfallen.

Oder damit auch Gamer es verstehen: Was nutzt die effizienteste CPU wenn sie nicht genug fps bringt und die Spiele damit unspielbar sind? Eben nichts, daher ist auch die Effizienz nur ein Faktor bei der Wahl der möglichst optimalen CPU und gerade für die meisten Heimanwender der wohl am wenigsten bedeutsame, denn sonst würden ja nicht so viele Leute übertakten wollen. Letztlich kann man auch für jede CPU die Effizienz über den gewählten Betriebspunkt (also Takt und Spannung) zu einem große Teil selbst bestimmen, nur liegt der eben leider nicht dort wo die CPU dann auch die maximale Leistung erbringt. Also muss man da immer einen Kompromiss eingehen.
 
Holt schrieb:
ist es kaum vorstellbar das AMD wirklich mehr Transistoren auf kleinere Fläche untergebracht hat, obwohl jeder Transistor mehr Platz auf dem Die benötigt.
Doch, mit Steamroller kamen die High Density Libraries, die im Vergleich zu Intel unglaublich wenig Platz verbrauchen:

edit: hier der Link

Holt schrieb:
Wenn man eine Anwendung hat die alle Kerne auslastet, dann ist so ein geringer Takt sehr effizient, aber bei der typischen Desktopnutzung wird auch oft eine hohe Singlethreadperformance verlangt damit das Arbeiten geschmeidig ist, da hilft es wenn dann ein Kern auch mal richtig hoch takten kann und genau dies hat Intel bei Skylake-X offenbar geschafft und den alten Konflikt beseitigt, dass man entweder eine große CPU mit viele Kernen wählen konnte, dann aber die Singlethreadperformane opfern musste (ohne OC) oder eine Mainstream CPU mit maximal 4 Kernen bekommen hat, die dann aber wegen der wenigen Kerne bei der Multithreadperformance im Nachteil war.

Die Wahl der am Besten passenden CPU hing eben immer schon von der geplanten Nutzung ab, mit RYZEN gilt dies umso mehr, da die RYZEN eben andere Eigenschaften haben als Intels CPUs und es eben nicht nur eine Performance gibt, sondern die Performance sehr von der Anwendung abhängt, sonst bräuchten die Reviewer ja auch nicht eine ganze Reihe von Benchmarks zu machen. Es gibt eben nicht die pauschal beste CPU, jede hat Vor- und Nachteile und sei es nur der Preis.

Das ist richtig. Aber man sieht schon, was AMD im Serversegment vorhat: 32 Kerne mit etwa 180W TDP bei ~2,5GHz.
 
Zuletzt bearbeitet:
DonL_ schrieb:
Dann Vergleiche doch einen Intel 8 Kerner mit einem Ryzen 8 Kerner!

Willst du aber nicht, sondern deine komischen Argumente unterbringen!

mal eingeworfen, der 7820X ist noch nicht veröffentlicht...
 
@Hold

Danke für die guten Posts.

Zu den Transistor Maßen. Ich denke Intel hat aktuell den Kleinsten ;) aber die Größe des Transistor ist ja nur das eine, der Abstand zwischen diesen, Layer usw... Es gibt viele Komponenten die da mit reinspielen. Zb haben Cache Areale ganz andere Densitys als die eigentlichen Kerne.
Intel hat sich sicher den hohen möglichen Takt auch durch etwas Fläche erkauft, aber nicht auf Transistor Ebene.

Wichtig ist dass AMD auf eine starke Fertigung zurückgreifen kann. Das war in der Vergangenheit oft anders.
 
Ja,

aber der 6900K ist veröffentlicht oder nicht?
 
Es geht doch hier eindeutig um:
AMD, GF, IBM, Samsung vs. Intel

Und einige stellen sich trotzdem auf Intels Seite und sagen "tja, Intel ist der bessere Player"
Und nun Verratet mir mal, wie Intel Schlauer sein kann als AMD, GF, IBM und Samsung?!
Diese Kooperation zwischen deren, verschafft AMD einen Vorteil.
Für die Jetztigen 5 Jahre scheint CCX besser zu sein
Danach Mesh.

AMD will wohl 32 Kerne in den Mainstream bringen über diesen Zeitraum.
 
strex schrieb:
Scheinbar kapierst du nicht was P/W bedeutet. Was du meinst ist P/W per Core..wir vergleichen aber keine P/W per Core sondern P/W der gesamten CPU.

Ihr Helden vergleicht P/TDP
 
Schwer zu testen wird es allemal. Benchmarks wie Cinebench und viele andere machen greifen auf 1 Problem zurück und lösen das einfach X mal parallel auf Anzahl der Threads. Zwischen diesen sind dann gegen 0 Abhängigkeiten. Viel Ram brauchen die auch selten. Sofern Handbrake 4K X265, Adobe Premiere gut skalieren ist das schon realistischer um Threadripper und Skylake SP zu testen. Blender stell ich mir auch sehr granulare Workloads vor. Wirklich viele Szenarien mit über 16 Threads Auslastung gibts wenig.
Nachher heulen alle Gamer rum wenn Ryzen X1800 im gaming schneller is als der schnellste Threadripper :) oder eben Coffee Lake Skylake SP da den Rang abläuft.
 
-Ps-Y-cO- schrieb:
Diese Kooperation zwischen deren, verschafft AMD einen Vorteil.
Klar, aber nicht jeder innerhalb der Allianz hat die gleichen Interessen, Samsung z.B. baut vor allem SoC für Smartphones und Tablets, also CPUs die für geringe Leistungsaufnahme und damit optimale Effizienz an einen ganz anderen Betriebspunkt optimiert werden. Aber natürlich hilft diese gemeinsame Zusammenarbeit AMD gewaltig, anders wäre wohl schon die jetzige 14nm Fertigung nicht so weit wie sie ist.
-Ps-Y-cO- schrieb:
Für die Jetztigen 5 Jahre scheint CCX besser zu sein
Danach Mesh.
Definiere besser! Besser für AMD im Sinne der Kosten, sicher. Besser für die Anwender aber wohl nur, wenn die Anwendung des Anwenders da auch mitspielt, denn die durchschnittlichen Latenzen zwischen beliebigen Kernen der CPU dürften mit Mesh weitaus geringer sein, sind sie es doch schon mit den alten Ringbussen.
 
@psyco

Also ich finde es zT lästig dass viele immer von "besser" reden, was aber keinesfalls so einfach ist wie viele hier meinen. Dich eingeschlossen.

Viel eher muss es heißen dass es für AMD die vermutlich bessere Option ist.
Ergänzung ()

Palmdale schrieb:
mal eingeworfen, der 7820X ist noch nicht veröffentlicht...

Eben. Und beide lassen sich schon wegen der TDP und Klasse schon schwer vergleichen... (bezüglich Effizienz sowieso)
Intel betreibt die CPU aufgrund der Plattform TDP weit über dem Optimum. Wie es bei einem 4Ghz Ryzen auch der Fall ist.

Hat AMD überhaupt vor einen 8 Kerner auf dem großen Sockel zu bringen?
 
Zuletzt bearbeitet:
Is morgen quasi NDA Fall? Wann wäre denn der Verkaufsstart ungefähr zu erwarten?
 
Wusste gar nicht, das wir so viele Seher und Computeringenieure hier haben, die genau wissen, was sowohl AMD als auch Intel als nächstes tun werden. Ebenfalls wusste ich nicht, das AMD 32 Kerne in den Mainstream bringen will in ein paar Jahren.

In meinen Augen spricht bei AMD nichts dagegen, das AMD den CCX auf 6 oder 8 Kernen hochskaliert. Der Grund ist einfach: Der 7nm Shrink. Durch die Verkleinerung kann AMD locker den CCX soweit bearbeiten, das 8 Kerne pro CCX möglich sind.

Ebenfalls dürfte das genug "TDP" freimachen, um den Infinity Fabric (deutlich) beschleunigen zu können.
 
Der_Unbekannte schrieb:
Ebenfalls wusste ich nicht, das AMD 32 Kerne in den Mainstream bringen will in ein paar Jahren.
Die Prognose wundert mich auch, aber da ist wohl eher die Frage was derjenige als Mainstream definiert :evillol:

Der_Unbekannte schrieb:
In meinen Augen spricht bei AMD nichts dagegen, das AMD den CCX auf 6 oder 8 Kernen hochskaliert. Der Grund ist einfach: Der 7nm Shrink.
Dagegen spricht aber, wie ich schon geschrieben habe, dass man dann das Problem der Kommunikation der Kerne innerhalb eines CCX bekommt. Die 4 Kernen reichen 6 Verbindungen dafür aus um jeden mit jedem zu verbinden, nimm noch je Kern eine zum Anschlusspunkt der Fabric, die bindet ja jede CCX an und nicht jede Kern dort, dann hat man 10 Verbindungen. Rechne Dir mal selbst aus wie viele es bei 8 Kernen in einer CCX sein werden.

Der_Unbekannte schrieb:
Ebenfalls dürfte das genug "TDP" freimachen, um den Infinity Fabric (deutlich) beschleunigen zu können.
Wobei da die Frage ist, ob und wieweit die Fabric alleine durch ihre Leistungsaufnahme beschränkt wird. Zu deren Arbeitsweise ist leider wenig bekannt, sonst wüsste man auch warum AMD deren Takt ausgerechnet an den RAM Takt knüpft, was im Prinzip unnötig erscheint. Da gibt es sicher auch ohne einen Shrink noch Optimierungspotential.
 
Zum Fabric habe ich irgendwo in der Fachpresse gelesen, dass bei einem Zen+ Refresh AMD wohl den Takt vom Ram entkoppeln wird und einen Taktgeber in die CPU packen möchte. Angaben ohne Gewähr, aber so ungefähr war der Wortlaut. Laut der Zeitschrift würde dies die Zugriffszeiten erheblich reduzieren und die Probleme des CCX größtenteils lösen bis zu einer gewissen Skalierung.
 
Das wäre auch ein überfälliger Schritt, wie sehr die zusätzliche Latenz bei der Kommunikation zwischen Kernen unterschiedlicher CCX von deren Takt abhängt, zeigt ja der Test von Tomshardware. Wie viel Besserung ein eigenständiger Takt bringt, hängt dann natürlich davon ab wie hoch der ist. Aber der Test zeigt eben auch, dass es da Grenzen gibt, zwischen 2666er und 3200er RAM, was immerhin so 20% mehr Takt ist, fällt die Latenz gerade noch um 4%. Alleine mit dem Takt werden sich die Probleme der Latenz zwischen den CCX sicher nicht größtenteils lösen lassen, da müssen noch mehr Optimierungen erfolgen.

Die Leute bei AMD sind ja auch nicht dumm, die werden schon wissen wo sie ansetzen müssen, die Frage ist da eigentlich nur, wie weit das Konzept der Fabric ausgedehnt werden kann. Die wird als Crossbar bezeichnet, die starken Schwankungen der Latenz bei den Messungen sprechen aber dafür, dass die Latenz bei viel Verkehr steigt. Es wird da sicher auch Flaschenhälse geben, dies alles lässt sich zwar simulieren, aber erst in der Praxis zeigt sich dann wirklich wo sich was wie auswirkt und erst damit sind dann die Optimierungen möglich.

Gleich an Anfang eine Optimale Lösung zu finden, gelingt trotz aller Simulationen eben nicht, wie man ja auch in der Formel 1 schön sehen kann. Auch da beginnt die Entwicklung eines Autos fast ein Jahr vorher, man kennt die Rennstrecken seit Jahren oder Jahrzehnten und simuliert bis zum Abwinken, aber erst wenn die Autos wirklich auf der Strecke sind, sieht man wo man noch Verbesserungen machen kann.
 
Sehe ich das richtig, das wirklich jeder Kern in einem CCX eine Verbindung zu jedem anderen Kern haben muss, innerhalb des CCX?

Falls ja, dann wäre ein 8 Kern CCX nur mit sehr großen Latenzen möglich. Wäre ein 6 Kern CCX noch "wirtschaftlich"?

Was hindert eigentlich AMD, den Infinity Fabric schon jetzt bei den Ryzen zu entkoppeln? Ein Bios Update müsste doch reichen, oder nicht? Warum arbeitet bei den Epyc und Threadripper der Inter-Die Infinity Fabric sehr viel schneller?
 
Die Frage bleibt auch immer wieder, wie entscheidend ist die Bandbreite des Bus. Gerade bei CPUs ab 2X Kernen werden doch vorallem Programme genutzt, bei denen die Kerne doch nicht so viel miteinander kommunizieren. Das ist doch eben der Grund, warum Ryzen in manchen Benchmarks richtig Leistung rausknallt.

Mich würde es mal interessieren, da ich keine Ahnung habe, wie hoch der Bedarf von vielen sehr gut untereinander Angebunden Kerne ist?
Also reale Leistungseinbrüche mit dem Fabric Bus bei CPUs ab 20Cores mit "Standard Serversoftware". Ich sehe das so, dass die großen Naples vorallem die MehrSockel Systeme ablösen/verbesserten sollen und die sind untereinander noch schlechter angebunden.
 
Der Einfluss hängt wie oft erwähnt vom Workload ab. Wenn man zb Virtualisierung drauf betreibt und viele dutzend VMs werden diese ihre Kerne bzw Threads wohl erstmal willkürlich über alle bereitgestellten physikalischen CPU Kerne bekommen. Schwer zu messen wie sich das auswirkt wenn eine VM mit zB Quadcore bei Naples je 1 Kern einer Die bekommt und nicht 4 innerhalb eines schnellen CCX.
Wird man zb unabh Rendern oder Raytracen fällt es wiederum vielleicht garnicht ins Gewicht.
Kann auch sein dass zb bei einer Anwendung die 9 Threads braucht erst 8 Kerne einer Zeppelin Die belegt werden und einer in einer anderen Die. Möglich dass dieser eine Thread alle anderen "bremst".

Auch sehr schwer zu testen. Da müsste man schaun wie man zb bei fixen 2 GHz über 4-32 Kerne skaliert. Und das bei diversen Workloads die theoretisch linear skalieren könnten.

Ich persönlich denke dass man die "Defizite" ziemlich genau an denen festmachen kann die man auch bei heutigen Multi Sockel Systemen hat. Da hab ich jetzt aber nicht so die Erfahrung mit zb 4/8P Systemen. Setzt man imho ein, kann also nicht ganz so wild sein.
 
Zuletzt bearbeitet:
Zurück
Oben