Wie seht ihr die derzeit unterschiedlichen Architekturen von AMD und INTEL?

Je mehr wir derzeit über Threadripper und Skylake X erfahren, desto deutlicher machen sich bereits die Unterschiede in den Architekturen von AMD und INTEL bemerkbar.

1. Offensichtlich kann AMD seine CPUs mit 8+ Cores deutlich günstiger produzieren und dadurch INTEL auch immer im Preis signifikant unterbieten. Die Gründe dafür sind in der extrem flexiblen Infinity Fabric und der einfachen Skalierung durch das Multi Chip Module Design zu finden. Hinzu kommt, dass die Yield-Rate der wesentlich kleineren AMD Zeppelin-Dies viel höher ist, als bei den viel größeren Multi-Core-Dies von INTEL.

2. Sieht man sich die Xeon CPUs von INTEL genauer an, kann man erkennen, dass jene Prozessoren, die sehr viele Kerne haben, im Basistakt (aber auch im Turbo) oftmals nur wesentlich geringer getaktet werden können. Vermutlich wurden auch deshalb noch keine Taktraten von den 12-18 Core Skykale X CPUs bekannt gegeben.

3. Es erscheint offensichtlich, dass bei den viel größeren Prozessoren von AMD (Threadripper und Epyc) die Wärme bei vergleichbarer TDP mit den INTEL Pendants viel einfacher abgeführt werden kann. Angeblich sind deshalb auch die beiden Dies von Threadripper diagonal zu einander angeordnet.

Hier gibt es auch ein sehr interessantes Video über die Deatails:

https://www.reddit.com/r/Amd/comments/6fvt0p/youre_beaten_intel/

Die kommenden Monate und Jahre werden jedenfalls noch sehr interessant, auch ohne hier Partei für einen der beiden Hersteller ergreifen zu wollen. :D
 
hoxi schrieb:
Laut den neuesten Gerüchten sollen die 10-16 Kern CPUs kaum langsamer getaktet zu sein, als die bisher erschienenen 4-8 Kern CPUs. Das könnte der möglicherweise größte Vorteil einer Architektur mit einer Infinity Fabric und mehreren CCX Modulen sein, da alle Mehrkern CPUs von INTEL die hohen Taktraten der kleineren Modelle nicht halten können.
Diese Auslegung klingt nach grobem Unfug. Die Rechenleistung eines Kerns erzeugt bei gegebener Spannung, Last und Takt eine gewisse Verlustleistung V. Wenn man x solcher identischen Kerne gleichartig betreibt, entstehen x*V Verlustleistung. Dagegen hat auch AMD keine geheime Alien-Technologie eingekauft. Bei ähnlicher Bauform des Gesamtpakets (d.h. thermisch ähnlicher Verpackung) muss man deshalb Vielkerner langsamer takten als Wenigkerner. Der Maximaltakt von CPUs ist aber nicht nur durch die abführbare Verlustleistung des Gesamtpakets begrenzt sondern auch durch die maximale Schaltgeschwindigkeit (und Übertragungsgeschwindigkeit) der Rechenwerke (und Verbindungen).

Wenn also ein Design mit 4 Kernen kaum schneller taktet als das gleiche Design mit 16 Kernen in (thermisch) ähnlicher Bauform, sollte man dies nicht positiv auslegen und an o.g. Alien-Technlogie glauben, sondern negativ auslegen, dass der 4-Kerner trotz üppigem Budget in Sachen Verlustleistung trotzdem nicht schneller laufen gelassen wird. Offenbar kann er nicht schneller. Das ist kein Pluspunkt.

Allerdings muss man zugestehen, dass die maximale Schaltgeschwindigkeit bei einem neuen Design ein Punkt ist, der mit zukünftigen, nur leicht überarbeiteten Chips ganz sicher noch verbessert werden wird. Es sind i.d.R. nur irgendwelche "kleinen Ecken", die nicht schneller können und damit den Takt der ganzen CPU limitieren. Diese Problembärstellen lassen sich oft modifizieren um keine Bremse mehr zu sein. Bei der maximalen Schaltgeschwindigkeit hat ein neues Design also i.d.R viel Potential - ganz anders als bei der Verlustleistung bei gegebener Last, Spannung und Fertigungstechnologie. Es ist deshalb der Normalfall, dass hochgetaktete Wenigkerner eines neues Designs erst später auf den Markt kommen.
 
Zuletzt bearbeitet:
Die Bauformen von AMD und INTEL sind sich eben überhaupt nicht ähnlich. Die Threadripper CPUs bestehen aus 2 Zeppelin Dies und die Epyc CPUs aus 4.

Sofern man dem etwas ungewöhnlichen englischen Dialekt folgen kann ;), sind die Zusammenhänge sehr gut in diesem Video erklärt: https://www.youtube.com/watch?v=L3l9vZD7h_8&t=19s
 
hoxi schrieb:
1. Offensichtlich kann AMD seine CPUs mit 8+ Cores deutlich günstiger produzieren und dadurch INTEL auch immer im Preis signifikant unterbieten. Die Gründe dafür sind in der extrem flexiblen Infinity Fabric und der einfachen Skalierung durch das Multi Chip Module Design zu finden.
Richtig, daher macht AMD dies auch und es gibt auch bei Intel Überlegungen auf so ein Design zu wechseln, da die Entwicklungskosten der Dies explodieren je kleiner die Strukturen werden und diese damit irgendwann nicht mehr durch den Absatz von genug CPUs mit so großen Dies eingespielt werden können. Der Nachteil ist aber, was man schon bei den RYZEN 7 mit 2 CCX auf nur einem Die sieht, dass die Kommunikation zwischen den Kernen unterschiedlicher CCX mehr Latenz hat, bei RYZEN sind kommen da noch mal so 100ns auf die 40ns drauf die entstehen, wenn die Kerne auf dem gleichen Die sind. Auch die Doppelringe der großen Intel CPUs haben so ein ein Verhalten, aber bei weiten nicht so ausgeprägt. Dieser Nachteil macht die neuen AMD CPUs vor allem für Anwendungen interessant wo jeder Kern viel für sich auf einem eigenen Teil der Daten arbeitet, wie es etwa beim Rendering typischerweise der Fall ist und daher scheiden die RYZEN dort auch sehr gut ab.

Ist aber viel Interaktion zwischen den Threads der SW und damit den Kernen der CPU gefragt, wie es bei Simulationen und dazu gehören gerade auch Spiele, der Fall ist, so fällt selbst ein 8 Kern RYZEN zuweilen hinter einen Intel 4 Kerner zurück. Die Leistung der CPUs hängt als sehr von der Anwendung ab und die Herausforderung gerade für Intel wird sein, ein MCM Design zu entwickeln bei den die Kommunikation zwischen den Kernen der unterschiedlichen Dies eben nicht signifikant mehr Latenz aufweist, was bei Threadroller der Fall sein dürfte, denn bestenfalls bleibt es dort auch über die Grenzen eines Dies hinweg bei den 100ns die schon bei RYZEN extra anfallen wenn die Kerne auf unterschiedlichen CCX sind, vermutlich dürfte es aber eher noch mehr sein. Aber selbst wenn nicht, so hat man schon statisch den Nachteil, dass ja bei RYZEN immerhin 50% der Kern auf dem gleichen CCX sind, bei Threadroller aber nur rund 25%.
hoxi schrieb:
2. Sieht man sich die Xeon CPUs von INTEL genauer an, kann man erkennen, dass jene Prozessoren, die sehr viele Kerne haben, im Basistakt (aber auch im Turbo) oftmals nur wesentlich geringer getaktet werden können. Vermutlich wurden auch deshalb noch keine Taktraten von den 12-18 Core Skykale X CPUs bekannt gegeben.
Das ist anzunehmen, man sollte aber auch nicht vergessen welchen Einfluss die Verbesserung der Fertigung hat und da ist bei Intel über die Zeit eine Menge passiert, mit dem 14++ sind gegenüber dem ursprünglichen 14nm Prozess inzwischen auf Transistorebene entweder 50% weniger Leistungsaufnahme bei gleichem Takt oder 26% mehr Takt bei gleicher Verlustleistung bzw. eine Mischung daraus möglich und die Optimierung geht ja noch weiter.
hoxi schrieb:
3. Es erscheint offensichtlich, dass bei den viel größeren Prozessoren von AMD (Threadripper und Epyc) die Wärme bei vergleichbarer TDP mit den INTEL Pendants viel einfacher abgeführt werden kann.
Angeblich sollten die Skylake-X, zumindest die mit dem LCC Die, ja nicht mehr verlötet sein wie es noch bei Broadwell-E der Fall war, wäre die Wärmeabfuhr ein Problem, so muss entweder die verwendete WLP plötzlich der Verlötung in diesem Punkt sogar überlegen sein oder Intel wird dies weiterhin verlöten. Außerdem sagt die TDP wenig über die reale Leistungsaufnahme aus, die Broadwell-E kommen in kaum einem Test mal zwischen Last und Idle ihrer TDP nahme, der RYZEN 7 1800X überschreit dort aber seine 95W teils deutlich. 115W Unterschied hat CB mit Cinebench Multithreaded ermittelt, während der i7 6900k dort nur auf 100W bei 140W TDP kommt. Nur Prime und AVX überschreitet der 6900K diesen Wert dann und nimmt sich 56W mehr als bei Cinebench, während der 1800X dort nur 9W mehr braucht, aber da es keine Ergebnisse zur Leistung mit Prime gibt und AVX bei RYZEN nicht immer problemlos voll genutzt wird, kann man hier nur raten wieso dem so ist und sollte die Leistungsaufnahme mit der Nutzung von AVX Befehlen besser getrennt betrachten.

Aber Vergleiche mit den alten Boardwell-E sind bzgl. ThreadRipper sowieso recht egal, da der sich mit Skylake-X rumschlagen muss und nicht mehr mit dessen Vorgänger. Angesichts der Preise die Intel für die Skylake-X schon angegeben hat, wird sich jetzt wohl kaum noch jemand einen Broadwell-E kaufen.
hoxi schrieb:
Die kommenden Monate und Jahre werden jedenfalls noch sehr interessant, auch ohne hier Partei für einen der beiden Hersteller ergreifen zu wollen. :D
Das auf jeden Fall, es ist jetzt wieder so viel Bewegung im Markt wie seit Jahren nicht mehr. Die CPUs und die Plattformen von AMD und Intel haben jeweils Vor- und Nachteile, welches für die jeweilige Nutzung die bessere ist, kann man pauschal nicht sagen und wird es auch nicht einfach aus den Ergebnissen eines Benchmarks ablesen können. Man wird da schon Benchmarks entsprechend gewichten nehmen müssen wie es der eigenen Nutzung an nächsten kommt.

Bei der Singlethreadperformance dürfte Skylake-X klar die Nase vorne habe, erlaubt Intel dort den meisten Modelle einzelne bzw. zwei Kerne bis auf 4,5GHz zu takten. ThreadRipper basiert auf RYZEN Dies, die gehen bisher bestenfalls so bis 4.1GHz und selbst wenn die Fertigung schon Fortschritte gemacht hat und die besten 100MHz mehr schaffen, muss man dann auch noch das Glück haben das zwei so gut laufenden Dies im eigenen Threadripper stecken. Dazu zeigt dann auch der Vergleich der Leistungsaufnahme zwischen dem 1700X und dem 1800X wie massiv diese steigt wenn man jenseits von 3,5GHz noch etwas Takt drauflegt.

Bei Multithread dürfte ThreadRipper dann im Vorteil sein, sofern die Threads nicht so viel interagieren. Da punktet er schon über den Preis der deutlich geringer sein wird. Dazu hat die Plattform den Vorteil mehr PCIe Lanes zu bieten, selbst bei den kleinen CPUs während die bei Intel auf 28 Lanes beschnitten wurden und ECC RAM zu unterstützen, hoffentlich endlich auch offiziell damit es kein Glücksspiel wird ob das Boardhersteller dies auch korrekt implementiert hat, was bei Intel vermutlich wieder nur den Xeon vorbehalten bleibt. Intels Plattform ist dafür ausgereifter und bietet Dinge wie Unterstützung für RAIDs von PCIe SSDs und bei Skylake-X offenbar nun nicht mehr nur wenn diese an den PCIe Lanes des Chipsatzes hängen. Auch da muss also jeder seine Prioritäten setzen.
 
EDIT: Zitat ergänzt zur besseren Verständlichkeit.

Der Nachteil ist aber, was man schon bei den RYZEN 7 mit 2 CCX auf nur einem Die sieht, dass die Kommunikation zwischen den Kernen unterschiedlicher CCX mehr Latenz hat, bei RYZEN sind kommen da noch mal so 100ns auf die 40ns drauf die entstehen, wenn die Kerne auf dem gleichen Die sind. Auch die Doppelringe der großen Intel CPUs haben so ein ein Verhalten, aber bei weiten nicht so ausgeprägt. Dieser Nachteil macht die neuen AMD CPUs vor allem für Anwendungen interessant wo jeder Kern viel für sich auf einem eigenen Teil der Daten arbeitet, wie es etwa beim Rendering typischerweise der Fall ist und daher scheiden die RYZEN dort auch sehr gut ab.
Ist aber viel Interaktion zwischen den Threads der SW und damit den Kernen der CPU gefragt, wie es bei Simulationen und dazu gehören gerade auch Spiele, der Fall ist, so fällt selbst ein 8 Kern RYZEN zuweilen hinter einen Intel 4 Kerner zurück.

Die Cross-CCX Cachekommunikation ist zwar langsam bei Ryzen - aber bei weitem keine Performancebremse wie du sie darstellst. An Welchen Benchmarks/Beispielen machst du diese CCX-Schwäche denn bitte fest ? (Beispiele bitte)

Die Performance-Erklärung warum Intels 4-Kerner in Games schneller sind ist viel banaler als was du dir da zusammenreimst.

Die meisten Games hängen nunmal an 1-Hauptrender-Thread. Sei es dem geschuldet weil sie noch in DX9 oder DX11 programmiert sind und deswegen multithreading nur suboptimal gelöst ist und in diesen Fällen nur durch starke Optimierung und Feintuning der Entwickler selbst gelöst werden könnte. Was entsprechend nicht passiert.

Ist der Haupt-Thread voll (CPU-Last auf diesem Thread 100%) - ist das Game im von vielen beschworenen "CPU"-Limit (welches aber in dem Fall gar keines ist. Die CPU hat ja genug brachliegende Power - die Software limitiert nur deren Nutzung. Ein besseres Wort wäre daher hier "Software" oder "Engine"-Limit.

Da die von dir zitierten Intel 4-Kerner nunmal mit 20% Mehr Takt arbeiten + 6% mehr IPC-Leistung "ziehen" diese dann natürlich bei so einem "Software"-Limit an ALLEN mehrkernern (auch denen von Intel) vorbei....

Ganz banal und hat nichts mit der langsamen Latenz des Cross-CCX caches zu tun...

Das einzige Problem an dem gesplitteten Cache ist dass die Softwares vermeiden müssen zu viele Dependencies von nacheinander bzw. parallel anfallenden Arbeiten zu haben.
Die einzige Software die ich momentan kenne die damit ein Problem hat ist der nVidia DX12 Treiber. Der flutet den CPU-Cache mit interoperierenden und voneinander Abhängigen Befehlsketten (was unter DX12 eigentlich unnötig wäre - aber wegen des fehlenden Hardwareschedulers bei nVidia eben in dieser Form über den Treiber gelöst wird).

Erkennbar am Signifikanten Einbrechen der nVidia-Karten mit Ryzen@DX12. Ein Problem das logischerweise bei AMD-Karten mit Hardwarescheduler nicht auftaucht. Das Resultat dieser "nicht"-Beobachtung durch die einschlägigen Reviewerseiten war dann die sogenannte Ryzen-Gaming Schwäche (da man ja leider keine AMD-Karten bei einem CPU Test mehr parallel testet weil die schnellste Karte eben von nVidia stammt).
 
Zuletzt bearbeitet:
Wird INTEL den derzeitigen Takt- u. IPC-Vorteil bei der dieser Entwicklung noch halten können?
​Ich glaube ja nicht, dass Intel während sie nur ihre nicht mal 10% Mehrleistung pro Generation geleistet haben, geschlafen hat.

1. Offensichtlich kann AMD seine CPUs mit 8+ Cores deutlich günstiger produzieren und dadurch INTEL auch immer im Preis signifikant unterbieten.
​Glaubst du, dass Intel nicht einfach bisher einfach viel Marge eingefahren hat? Gabs nicht kürzlich nen Prozessor in den News, der auf einmal nur noch einen Bruchteil kostet?
 
Iscaran schrieb:
Die Cross-CCX Cachekommunikation ist zwar langsam bei Ryzen - aber bei weitem keine Performancebremse wie du sie darstellst.
...
Die einzige Software die ich momentan kenne die damit ein Problem hat ist der nVidia DX12 Treiber. Der flutet den CPU-Cache mit interoperierenden und voneinander Abhängigen Befehlsketten
Da gibst Du doch schon selbst ein Beispiel wo die Cross-CCX Kommunikation eine massive Bremse ist. Das dies bei Anwendungen / Benchmarks wie dem Cinebench wo es kaum Cross-CCX Kommunikation gibt keine Rolle spielt, sollte klar sein, belegt nur eben nicht Deine Aussage im ersten von mir hier zitierten Satz.
 
An diesem Treiber ist aber Nvidia Schuld. Oder sagen wir: "Sie haben die Kunden belogen, dass DX12 komplett in Hardware unterstützt wird". Denn das ist nämlich mal wieder nicht der Fall.
 
hoxi schrieb:
AMD:

Eine nagelneue Architektur, die mit hoher Wahrscheinlichkeit betreffend der Optimierung hinsichtlich von IPC und Takt noch nicht ausgereizt ist.
Da sie von Null auf neu entwickelt wurde, konnten wichtige Themen, wie die Verlustleistung beim Chip-Design von Anfang an berücksichtigt werden.
Sorry, neu ist die Zen Architektur beim besten Willen nicht. Leg mal die Blockdiagramme von Zen und einem Haswell direkt nebeneinander und du wirst viele Gemeinsamkeiten feststellen. Intern sind beide Cores ziemlich identisch aufgebaut. Erst bei der Verbindung der Cores gibt es mit der Crossbar und dem CCX-Konzept nennenswerte Unterschiede.

Bulldozer war damals neu, aber halt ein totaler Fail. Daher blieben einem auch nix anderes übrig, als mehr oder weniger alles umzuwerfen.

hoxi schrieb:
Das Design erscheint ausserdem extrem kompakt geworden zu sein, was sehr günstige Herstellungskosten ermöglicht.
Laut den neuesten Gerüchten sollen die 10-16 Kern CPUs kaum langsamer getaktet zu sein, als die bisher erschienenen 4-8 Kern CPUs. Das könnte der möglicherweise größte Vorteil einer Architektur mit einer Infinity Fabric und mehreren CCX Modulen sein, da alle Mehrkern CPUs von INTEL die hohen Taktraten der kleineren Modelle nicht halten können.
Kompakt ist relativ. 4,8 Mrd. Transistoren sind schon heftig. Dafür ist die Packdichte aber recht hoch, was höhere Taktraten unmöglich macht. Und klar können die 16 Kerne den Takt mitgehen, bei fast der doppelten TDP. Ist gibt auch Custom Intel CPUs mit 20 Kernen @ vollen 3,2 GHz und ~200 Watt TDP. Die gibt es aber nur auf Bestellung von wirklich wirklich großen Kunden.
hoxi schrieb:
Das könnte auch für die Verlustleistung gut sein. Der Vorteil des modularen Aufbaus reduziert ausserdem ganz massiv die Entwicklungskosten, da die ZEN-Architektur ganz offensichtlich das Potential hat, von den Notebooks bis zu den Servern
den Bedarf vollständig abzudecken.
Bisher gibt es nur Desktop-Ableger. Was Server und v.a. Notebook-Ableger können, ist bislang praktisch reine Spekulation. Abwarten. Server dürfte noch ganz gut gehen, ob die Architektur auch gut in 15 Watt ULV-CPUs inkl. GPU für 2D-Office skaliert, wird sich noch zeigen müssen.
hoxi schrieb:
Hat die derzeit am höchsten getakteten 2-4 Kern CPUs mit der derzeit höchsten Single Core Leistung. Das wird offensichtlich durch eigene Chipmasken erreicht, die mehr Fläche benötigen und deshalb auf die hohen Taktraten ausgelegt sind. Das, in Verbindung der etwas höheren IPC, ist vermutlich auch für die etwas bessere Spiele-Performance verantwortlich - zumindest bei den bisherigen Spielen.
Intels 14 nm Fertigung ist fast zwei Jahre älter als die von GloFo und mittlerweile eine Optimierungsstufe (14 nm FFT+) hinter sich. Die nächte kommt mit Coffee Lake (14 FFT++).

hoxi schrieb:
Die Cache-Ringbus-Architektur von INTEL ist offensichtlich auf eine sehr hohe Bandbreite hin optimiert, was den Kernen einen höheren Datendurchsatz ermöglicht. Diese Archtektur erscheint allerdings das Design für eine höhere Kernanzahl zu erschweren, bzw. bei diesen für eine im Vergleich zu AMD höhere Verlusleistung verantwortlich zu sein, was in der Folge nur niedrigere Taktraten bei CPUs mit sehr vielen Kernen ermöglicht.
Und genau deswegen kommt sowohl bei Skylake-X, Skylake-SP und Knights Landing eine 2D-Mesh-Topologie zum Einsatz, weil man schon mit der Haswell-Generation erkannt hat, das der Ring-Bus irgendwann eine weitere Skalierung der Anzahl an Kernen verhindert. Ist lange bekannt.
hoxi schrieb:
Die Fertigung der Chips erscheint bei INTEL mit ihrer langjährigen Erfahrung mit 14nm Strukturgrößen derzeit noch ein Vorteil zu sein. Inwieweit die mittlerweile schon etwas ältere CORE-Architektur noch Verbesserungspotential besitzt, kann derzeit eigentlich nur spekuliert werden.
Würde man Chipfläche schlechter als proportional opfern, um noch mehr Performance rauszuholen, geht noch etwas. 4-way oder gar 8-way SMT, nochmals größere Caches und eine weitere Vertiefung des OoO-Fensters bringen nochmal ein bisschen was.

Ob AMD die Zen-Architektur wirklich kontunuierlich mit double-digit Sprüngen in Sachen IPC versorgen kann, wird die Zukunft zeigen. Aber auch dort wird man nur mit Wasser kochen.

Sprünge von 50% oder mehr wie früher sind Illusion. Die Zukunft steckt eher in grundlegenden Materialforschung. III-V Di-Elektrika, NTV-Technik und früher oder später auch ein Ersatz für das Silizium ansich.

[/QUOTE]
 
So gesehen ist es ein Beispiel da hast du Recht.

Aber es betrifft nur 1 Software...den nVidia DX12 Treiber und das auch nur in der speziellen Kombination mit DX12...vielleicht ist es einfach nur die DX12-Schwäche von nVidia die das zeigt ?
DX12 ist von Grund auf auf paralleles abarbeiten von Tasks in vielen parallelen Threads zu geschnitten. Das setzt eigentlich voraus das die Computing Einheit (GPU) daher ihre Taskverteilung selbst via Hardware scheduled.

Nutzt man DX12 so wie es konzipiert ist und "wirft" die Tasks einfach auf die Hardware und lässt diese die Tasks verteilen ist das Problem nicht existent.
Es ist also kein generelles problem das Spieleentwickler berücksichtigen müssen. Es ist nur ein Problem von nVidia@DX12...

Gegenfrage - welche Beispiele sind es denn wo du denkst das der CCX-Cache Latenz es verursacht das ein 4-Kerner an einem 8Kerner vorbeizieht ?

Und tut er das auch unabhängig davon ob es ein Intel oder AMD 8Kerner ist ?
(also Intel 4C vs Intel 8C und vs AMD 8C)

Du wirst nicht EIN Beispiel finden wo der Intel 4 Kerner an einem AMD 8 Kerner (Ryzen) vorbeizieht wo er nicht auch an Intel 8 Kernern vorbeizieht => CCX-Latenz ist für dieses Phänomen unerheblich.
 
hoxi schrieb:
Die Bauformen von AMD und INTEL sind sich eben überhaupt nicht ähnlich. Die Threadripper CPUs bestehen aus 2 Zeppelin Dies und die Epyc CPUs aus 4.

Sofern man dem etwas ungewöhnlichen englischen Dialekt folgen kann ;), sind die Zusammenhänge sehr gut in diesem Video erklärt: https://www.youtube.com/watch?v=L3l9vZD7h_8&t=19s

Ich hab es mir bis zur 18 Min angeschaut aber als er dann einfach anfing die GHz zusammenzuzählen für jeden Kern und das mit AMD verglich, hab ich abgeschaltet.
 
Fest steht eines , AMD kann die 2 x 8 Kern Die s des Threadripper günstiger produzieren als Intel den 18 Kern Die , allerdings sind es ja nur umgelabelte Xenon , vielleicht wird ja auch die 22 Kern Maske genommen und der Ausschuss ( teildeaktivierte ) Cpu s landen dann auf dem X299 Board .

ne 18 Kern Server cpu kostet 4500 Dollar da ist ne 2000 Dollar Desktop CPU ja noch nen Schnäppchen :evillol:
 
Iscaran schrieb:
Du wirst nicht EIN Beispiel finden wo der Intel 4 Kerner an einem AMD 8 Kerner (Ryzen) vorbeizieht wo er nicht auch an Intel 8 Kernern vorbeizieht => CCX-Latenz ist für dieses Phänomen unerheblich.

Ich denke nicht, dass es an CCX liegt, aber grade bei x265 Videocodierung ist ein Ryzen richtig schwach im Verhältnis zu seinen Threads. Wird im 3dc in einer Tabelle geführt.

3dCenter

https://docs.google.com/spreadsheets/d/1z9OMFSLGyCKeFG0Q6jzIbp-RRL5OpjJ_WLUzFUpuo7g/edit#gid=0

Woran das liegt? Das weiß keiner so genau. Ich vermute ja dass der AVX-Takt da geringer ist bei Ryzen. Einen 1700 mit 3.6 Ghz Allcore schlage ich mit 4.8 Ghz auf dem 7700K. Das ist schon außergewöhnlich.
 
IchoTolot schrieb:
Ich hab es mir bis zur 18 Min angeschaut aber als er dann einfach anfing die GHz zusammenzuzählen für jeden Kern und das mit AMD verglich, hab ich abgeschaltet.

wieso ? wenn bekannt ist wie hoch der IPC Vorteil von Intel ist ( 10 % ) kann man das schon machen wenn man die Multicorerechenleistung abschätzen will .

konkrete Resultate bekommt man natürlich nur beim direkten vergleich und mit dem Intel 16 Kerner wird das dieses Jahr nichts mehr
Ergänzung ()

IchoTolot schrieb:
Ich denke nicht, dass es an CCX liegt, aber grade bei x265 Videocodierung ist ein Ryzen richtig schwach im Verhältnis zu seinen Threads. Wird im 3dc in einer Tabelle geführt.

3dCenter

https://docs.google.com/spreadsheets/d/1z9OMFSLGyCKeFG0Q6jzIbp-RRL5OpjJ_WLUzFUpuo7g/edit#gid=0

Woran das liegt? Das weiß keiner so genau. Ich vermute ja dass der AVX-Takt da geringer ist bei Ryzen. Einen 1700 mit 3.6 Ghz Allcore schlage ich mit 4.8 Ghz auf dem 7700K. Das ist schon außergewöhnlich.

nimm Handbrake = 40 - 45 Frames HEVC , oder 35 - 40 Frames bei H264 und da läuft mein Ryzen nur auf 3,65 Ghz @1,168 in seiner Effizienzeinstellung

PS : du lässt die Igpu schon aussen vor oder ? kein Quicksync oder so ?

85886.png85887.png

https://www.golem.de/news/intel-core-i7-7700k-im-test-kaby-lake-skylake-hevc-overclocking-1701-125322.html

Wer einen Kaby-Lake-Chip erwirbt, erhält kaum zehn Prozent mehr Leistung als bei Skylake, eine H.265-Hardware-Beschleunigung und einen größeren Übertaktungsspielraum. Unter AVX-Volllast verglühen die effizienten CPUs allerdings fast.


Ich denke das Teile des Hardware Decoders bzw deren Befehle auch beim encoden Verwendung finden
 
Zuletzt bearbeitet:
Die wird nicht genutzt weil gar nicht aktiviert und da wird nur eine Batch verwendet also nix iGPU. Steriler gehts nicht. Dennoch bestehen da die Unterschiede. Handbrake hab ich aber auch schon mal mit dem User "Schlammsau" gebencht. Da war auch auch schneller in selbem Maße. Spielt keine Rolle.
 
schau dir die SingleThread Leistung in dem x265 Bench an.

I7 7700K ~3-4
Ryzen ~ 2

=> da stimmt was an der Single Thread performance nicht. Software bug ? Oder verwenden die Intels nochmal einen anderen Befehlssatz etc....

Bei x264 ist alles "normal".

Muss mich noch ein wenig mehr damit befassen. Aber auch hier ist der Hase was anderes als die CCX-Brücke
 
Nee ich denke dass hier der AVX2 Befehlssatz nicht optimal bei Ryzen umgesetzt wird. Irgendwas bremst da. Vielleicht taktet Ryzen da niedriger weil sonst die Temperaturen explodieren. Bei Intel kann man ja das AVX Offset aus gutem Grund einstellen. Vermutlich hat AMD den AVX Takt sehr gering angesetzt und gelockt damit die Temperaturen im Rahmen bleiben und noch OC drin ist, schließlich bewirbt man es ja.
Das wäre meine Vermutung.
 
Wenn der Takt niedriger angesetzt wäre, würde man das sehen.
 
Der 5930 hat aber keine iGPU und ist auch schneller.
Ergänzung ()

Zumal ich bei Verwendung von QuickSync was ich grade das erste Mal mache, nachdem ich die iGPU erst mal im Bios aktiviert hab, mich in ganz anderen Regionen bewege. Da bin ich bei 100 FPS mit x265 und um Welten schneller.

1.png2.png

CPU läuft immer Stock.
 
Zuletzt bearbeitet:
Und ich mit meine gtx 1060 mit 300fps
gpgpu ist zwar nett aber ohne crf nicht wirklich gut. dann braucht man nur unnötig viel speicher
h264 mit crf20 ref3 oder 6 ist gleich groß wie h265 mit ~2000kbit/s beides 720p
Das sieht in h265 mit crf 22 anders aus dann ist die datei bei 1-1,5mbit/s
leider dauert so eine encodierung auf cpu dann auch 1,5mal so lange wie die datei ist.
~18fps
 
Zurück
Oben