Bericht Intel Alder Lake: 19 % höhere IPC, Hardware-Scheduler, DDR5 und mehr

Nixdorf schrieb:
AVX-512 ist nur ein Puzzlestück unter vielen. .. Und ja, am Ende des Tages kostet auch AVX-512 deutlich Fläche, aber sicher nicht alleine den größten Teil.
Naja, also anhand des Beispiels Skylake-SP hat David Kanter (RealWorldTech, wahrscheinlich kennt in der Eine oder Andere) berechnet, daß AVX-512 bei SKL-SP schon etwa ~11% der Core-Fläche vom Die ausmacht.

Dazu sollte man aber im Hinterkopf behalten, daß SKL-SP's AVX-512 lediglich AVX512-F (AVX-512 Foundation), AVX512-CD (Conflict Detection Instructions), AVX512-BW (Byte and Word Instructions), AVX512-DQ (Doubleword and Quadword Instructions) und AVX512-VL (Vector Length Extensions) unterstützt.

Selbst Xeon Phi's Knights Landing, vorgestellt Juni 2013, unterstützte bereits 2016 final zusätzlich zu den obigen noch AVX512-ER (Exponential and Reciprocal Instructions) und AVX512-PF (Prefetch Instructions). Seitdem dazu gekommen..

Mit Cannonlake:
AVX-512-IFMA (Integer Fused Multiply Add)
AVX-512-VBMI (Vector Byte Manipulation Instructions)

Mit Xeon Phi#s Knights Mill:
AVX-512-4VNNIW (Vector Neural Network Instructions Word variable precision)
AVX-512-4FMAPS (Fused Multiply Accumulation Packed Single precision)

Mit Icelake (Server):
AVX-512-VPOPCNTDQ (Vector population count instruction)
AVX-512-VNNI (Vector Neural Network Instructions)
AVX-512-VBMI2 (Vector Byte Manipulation Instructions 2/Shifting)
AVX-512-BITALG (Bit Algorithms)
AVX-512-VPCLMULQDQ (Carry-less multiplication quadword)
AVX-512-GFNI (EVEX-encoded Galois field new instruction)
AVX-512-VAES (VEX- and EVEX-encoded AES instructions)

Mit Cooper-Lake:
AVX-512-BF16 (bfloat16, Binary Floating Point 16-bit)
AVX-512-FP16 (fpoint16, Floating Point 16-bit)

Rocket Lake besitzt alle bisherigen AVX-512-Erweiterungen ausser die von Knights Mill und die beiden neusten AVX-512-BF6 + -FP16 von Cooper-Lake (also: F, CD, VL, DQ, BW, IFMA, VBMI, VBMI2, VPOPCNTDQ, BITALG, VNNI, VPCLMULQDQ, GFNI und VAES).

RKL's AVX-512 dürfte also einiges an zusätzlichem Platz einnehmen, im Vergleich zu SKL-SP.

… weiß TechFA
 
TechFA schrieb:
Naja, also anhand des Beispiels Skylake-SP hat David Kanter (RealWorldTech, wahrscheinlich kennt in der Eine oder Andere) berechnet, daß AVX-512 bei SKL-SP schon etwa ~11% der Core-Fläche vom Die ausmacht.
Dein Link spricht von 5% der Core-Fläche (und indirekt von 3,6% der Die-Fläche)!?
So AVX512 is about 5% of the tile area, the tiles are 72% of the total area of SKL-SP.
Das würde ich anhand der Pixel im Die-Shot auch als passend einordnen:

Na64wWe.jpeg


Ergänzung:
Im Die-Shot ist auch L3 mit drin. Rechnet man den weg, steigt der Anteil etwas an, aber nicht auf 11%.
 
Zuletzt bearbeitet:
Hab hier noch was für Interessierte bzgl. Windows Task Scheduler und heterogenen CPU Architekturen
es geht um Intels Lakefield (4x Tremont E-Cores plus 1x Icelake P-Core)

Ich finde interessant, dass die E-Cores im Betriebssystem die Nummern #0 bis #3 haben und der big Core dahinter die #4 ist. Er wird nur für interaktive Tasks und App-Starts mit Aufgaben betraut.

Die E-Cores kümmern sich also vorausgewählt um Alles andere.
Die E-Cores sind sozusagen Default und der P-Core Sonderbeauftragter.

Dabei ist es eher selten der Fall, dass nur eine Sorte Kern aktiv ist, z.B. Cinebench 1T geht nicht automatisch zum big Core, wiel die Task-Art nicht dafür vorausgewählt ist.

Jetzt hat Lakefield PL1 5-7W und PL2 knapp 10W, ist also unter Last irgendwie immer im Powerlimit,
das wird für AlderLake nicht so schnell der Fall sein, vor allem die K Versionen mit PL1 125W
Hier kommt dann eine smartere Kommunikation zwischen AlderLake und Windows11 ins Spiel die erweiterte
Entscheidungsmöglichkeiten der Taskzuteilung und Ausführungs-Überwachung erlaubt.

Es wird sich zeigen wie Sinnvoll dieser Weg ist, was Performance und Durchschnittsverbrauch angeht.

https://www.golem.de/news/core-i5-l...-x86-hybrid-cpu-analysiert-2007-149385-4.html

9. Juli 2021
https://docs.microsoft.com/de-de/windows/win32/procthread/quality-of-service
[...]Auf Plattformen mit heterogenen Prozessoren kann die QoS eines Threads die Planung auf eine Teilmenge von Prozessoren beschränken oder eine Einstellung für eine bestimmte Prozessorklasse angeben.

Das Level QoS Eco, ist mit Win11 neu dazugekommen, es nutzt die API als Quelle, bisher wurde die API nur für die QoS Ebene Hoch genutzt.
Effekt der Ebene Eco: Wählt immer die effizienteste CPU-Frequenz und Zeitpläne für effiziente Kerne aus.

Es gibt diverse Quellen die für die Einstufungen zuständig sind.
Threads, die nicht von den oben genannten Quellen klassifiziert werden, wird basierend auf Heuristik automatisch vom System eine QoS-Ebene zugewiesen.

Intels Hardware Scheduler könnte über die API für Zuteilung in Hoch oder Eco sorgen oder die Beurteilung der Automatik der Heuristik beeinflussen, die Zuteilungen in alle 6 Ebenen vornehmen kann soweit Threads nicht klassifiziert wurden.
 
Zuletzt bearbeitet:
DFFVB schrieb:
Und genau das ist Dein Fehler - du sagst Intel verspricht viel. Sie versprechen gesteigerte IPC, es gibt gesteigerte IPC, aber insgesamt war halt nix, weil IPC nicht der alleinige Faktor ist, und deswegen sind sie Labertaschen oder wie? Klassischer Strohmann.. .
Weißt du es ist einfach..
Bei AMD wird gesagt, Hersteller Benches und nun Intel ist das nun gegeben? Ich kann mich noch dran erinnern, dass man Zen die 40% nicht geglaubt hat, oder eben diskreditiert.
Noch Mal. Intel hat nicht das geliefert, was der Nerd von den Folien erwartet hat. Es ist ein Zuwachs, aber es ist zum Vergleich eines 10900K ein Rückschritt. Da beißt die Maus den Faden nicht ab. Es ist einfach so, wie auch Launch Analysen zeigen:

Da siehste es schwarz auf weiß:

https://m.3dcenter.org/artikel/laun...lake/launch-analyse-intel-rocket-lake-seite-2

Was zählt ist eben auf dem Platz. Also bitte
Wenn die CPU da sind und getestet sind, dann können wir uns ein Bild machen vorher nicht. Das gilt auch für den AMD 3D Cache
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
Gibt es schon irgendwelche Infos darüber, wie die CPU an den Chipsatz angebunden wird? EIn Traum wäre natürlich, wenn Rocket Lakes PCIe 3.0 x8 einfach zu PCIe 5.0 x8 gemacht wird. Dann wären alle meine Sorgen, Nöte und Ängste erstmal erledigt!
 
  • Gefällt mir
Reaktionen: Slayher666
Rockstar85 schrieb:
Es ist ein Zuwachs, aber es ist zum Vergleich eines 10900K ein Rückschritt.
Der Fehler von Intel war, dass sie mit der Bezeichnung 11900k die Erwartung geweckt haben, dass der Prozessor der Nachfolger des 10900k ist, wobei er diesem Anspruch aber nicht gerecht werden kann, weil der 10900k 25% mehr Cores besitzt und, was für viele Games wichtiger ist, der L3 Cache des 10900k 25% größer ist. Alder Lake ist deshalb so interessant, weil die IPC nochmals gesteigert sind, aber diesmal auch der L3 Cache auf Augenhöhe mit den aktuellen AMD Prozessoren ist. Damit sollte dann auch deutlich mehr Leistung in Games ankommen als bei Rocket Lake, wenn sie beim Speicherinterface nicht patzen.
Rockstar85 schrieb:
Wenn die CPU da sind und getestet sind, dann können wir uns ein Bild machen vorher nicht. Das gilt auch für den AMD 3D Cache
Man kann jetzt schon sagen, dass der V-Cache bei Cinebench und ähnlichen Anwendungen nicht viel bringen wird, aber dass diese CPUs garantiert einen neuen Weltrekord in WinRAR aufstellen werden. Bei einigen Games, die aktuell am Speicherinterface verhungern, dürfte der Performancegewinn durch den V-Cache auch ziemlich eindrucksvoll sein. Der Vergleich der V-Cache CPUs mit ihren Vorgängern wird ähnlich interessant werden wie der Test des Ryzen 3100 vs 3300x, wo der Performanceverlust durch die IF sichtbar wurde.
 
  • Gefällt mir
Reaktionen: Slayher666, ZeroStrat, Rockstar85 und eine weitere Person
Nolag schrieb:
Der Fehler von Intel war, dass sie mit der Bezeichnung 11900k die Erwartung geweckt haben, dass der Prozessor der Nachfolger des 10900k ist
Dies. Dass 11700K und 11900K zwei SKUs sind, die sogar noch als i7 und i9 in völlig unterschiedliche Performanceklassen gehören sollen, ergibt keinen Sinn.
 
  • Gefällt mir
Reaktionen: TechFA, Slayher666 und Rockstar85
@Nolag

Volle Zustimmung

Aber unter musste ja Marketingtechnisch diesen Move machen
Und ja, ein i7 12700 reizt mich auch
 
  • Gefällt mir
Reaktionen: Slayher666
Nixdorf schrieb:
als auch Geniestreiche (Ryzen) abliefern kann.
Finde so eine Aussage vollkommen übertrieben, vor allem wenn man vergleicht, wie wenig Mehrleistung die neuen Ryzen CPUs gegenüber den Intel Comet Lake und Rocket Lake CPUs tatsächlich in der praktischen Anwendung bieten.
Eine 4-Kern Intel i3-10105F CPU spielt auf fast identischem Leistungsniveau einer 6-Kern Ryzen 3600 CPU, jedenfalls in Spielen.
AMD war vor ein paar Jahren eigentlich schon tot, hat aus Verzweiflung heraus den großen Chipvorsprung Intels wett gemacht, nicht mehr und nicht weniger.
Intel ist in jedem Bereich was CPUs angeht weiterhin mit ganz großem Abstand Marktführer und dass wird auch so bleiben, weil sie mehr Manpower und mehr Kapital haben, um Neuentwicklungen voranzutreiben.
Es stellt sich nur die Frage, wohin die Reise gehen soll, da alle heutigen CPUs leistungsmäßig für die allermeisten Anwender bei weitem bereits vollkommen überdimensioniert sind.
Wer braucht als privater Normal-PC-User und Nichtspieler schon einen stromfressenden, hochgetakteten 8/12/16 oder 24 Kern Prozessor inklusive 400W Grafikkarte?
Es sind vor allem die Spieler und es sind professionelle Anwender, für die schnelle Berechnungen zeitsparend und damit wertvoll sind, da Zeit bekanntlich gleich Geld bedeutet.
Selbst die Spieler brauchen diese immense Mehrleistung nicht, jedenfalls nicht zum heutigen Zeitpunkt und für aktuelle Spiele.
Wir müssen uns sowieso die Frage stellen, ob es mit dem immer weiter zunehmendem Energie- und Stromverbrauch bei der Hardware so weitergehen kann. Auch das Mining ist zu hinterfragen.
Wenn eine GTX 3090 unter Last fast 400 Watt aus der Steckdose zieht, ist es einfach viel zu viel.
Drei Stunden zocken bei über 1 Kilowatt Stromverbrauch kann auf Dauer nicht richtig sein.
Nicht für den eigenen Geldbeutel und auch nicht für unsere Umwelt.
Man muss es nämlich im großen Zusammenhang sehen, wenn zig Millionen Menschen privat diese stromfressende Hardware verwenden. Jetzt soll sich auch noch die VR Technik flächendeckend etablieren, die noch mehr Grafikpower benötigt, also noch leistungsstärkere und leistungshungrigere Hardware voraussetzt.
Ich persönlich spiele selbst gerne aber sehe diese zukünftige Entwicklung durchaus kritisch.
Ab einem gewissen Punkt beginnt die technische Entwicklung kontraproduktiv, gar schädlich zu werden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: thuering
Vitrex2030 schrieb:
Finde so eine Aussage vollkommen übertrieben, vor allem wenn man vergleicht, wie wenig Mehrleistung die neuen Ryzen CPUs gegenüber den Intel Comet Lake und Rocket Lake CPUs tatsächlich in der praktischen Anwendung bieten.
Von den neuen Ryzen-CPUs rede ich nicht, sondern von den ersten Generationen. Der Geniestreich bestand nicht in der absoluten Performance. Er bestand darin, mit minimalen Ressourcen das maximale Ergebnis zu erzielen.

Zusammen mit Jim Keller erstellte man gleich zu Beginn eine klar definierte Roadmap bis hin zu Zen 5. Dabei bestand die erste Generation darin, einen einzigen Chip zu bauen. Ein Die, für alles. Mehr Geld konnte man nicht in Design-Grundkosten investieren.*

Und selbst bei diesem Design hat man schon an den zweiten Chip gedacht, der danach kommen würde, und der die erste Ryzen-APU werden sollte. Dafür war klar, dass man einen Vierkerner braucht. Also hat man ein Vierkerndesign entworfen und es verdoppelt. So kam es zu dem Zwei-CCX-Design. Und dann hat man alles dazu gepackt, was man für den Desktop und den Server braucht.

Das Resultat war das Zeppelin-Die**. Zunächst kam das einmal in komplett, als Ryzen 7 1700/1700X/1800X, auf die später Ryzen 5 und Ryzen 3 aus teildefekten Dies folgten. So kam man zu 4-, 6- und 8-Kernern für den Desktop. Das gleiche Die hat man dann mehrfach kombiniert, quasi als Dual- und Quad-Socket auf einem einzelnen Substrat. So kam man zur ersten EPYC-Generation und den ersten Threadrippern.

Am Ende hat man aus diesem einen Die 24 verschiedene Prozessoren von 4C/4T bis 32C/64T produziert, insgesamt 12 SKUs für den Desktop- und weitere 12 für den Server-Markt. Und in der zweiten Generation hat man es dann erst einmal nur weiter optimiert, und mit Anpassungen erneut verwendet.

Dass man Intel nicht sofort in allen Aspekten schlagen würde, das war klar. Aber man hatte den Plan dafür, und hat ihn über die Jahre präzise ausgeführt.

Intel scheint sich mit dem geleakten Projektnamen "Royal Core" eine ähnliche, mehrjährige Roadmap gesetzt zu haben. Es gibt da ja schon jetzt die Zielsetzung, die IPC gegenüber Alder Lake in wenigen Jahren erneut zu verdoppeln. Ein ebenfalls großer Sprung soll auch bei AMD mit Zen 5 kommen. Daher bleibt es nun spannend. So spannend, wie schon sehr lange nicht mehr.


* Ein 14nm-Design liegt im dreistelligen Millionenbereich vom Entwurf bis zu den ersten Chips. Das zahlt Intel aus der Portokasse, aber AMD hätte sich mit groben Fehlern damals tatsächlich ruinieren können.

** Das Die enthält zum Beispiel nicht nur die auf dem Sockel AM4 nach außen geführten 24, sondern tatsächlich 32 PCIe-Lanes. Diese konnten dann erst bei Threadripper und EPYC genutzt werden. Außerdem enthält der Chip Ethernet-PHYs für bis zu 4x 10GbE.
Ergänzung ()

Vitrex2030 schrieb:
Auch das Mining ist zu hinterfragen.
Da bin ich voll und ganz bei dir. Mining ist ein Klimakiller, der meiner Meinung nach verboten gehört.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, Vitrex2030 und DFFVB
Nixdorf schrieb:
Dein Link spricht von 5% der Core-Fläche (und indirekt von 3,6% der Die-Fläche)!?
Er hat da schon recht mit dem, was er schreibt: Er spricht ca. 11 % der Core-Fläche, das kannst du auch selbst ausrechnen:

8,00 mm² und 0,9 mm²: Daraus ergibt sich 11,25 %. Die gesamte Fläche besteht am Ende aus allen Bestandteilen, die kommen dann auf ca. 18,3 mm², was dann in den 5 % mündet. Gleichzeitig sind diese 5 % und auch 11 % nicht zu unterschätzen.

Man darf - und das ist das, was ich ja bereits einmal vor einigen Wochen erklärt habe - nicht vergessen, dass solche mächtigen SIMD-Einheiten und nun auch AMX - den Kern komplexer machen: https://www.computerbase.de/forum/t...intel-7-und-intel-4-ein.2034217/post-25873093

Nehmen wir hier am Ende 8,9 mm² für den Kern inklusive AVX-512 und AMX wird vermutlich ähnlich groß werden, dann sind wir bei 9,8 mm² für den nackten Kern und AVX-512 + AMX belegen ca. 20 % der Fläche. Streicht man nun AMX und halbiert AVX512 auf AVX2 mit 256 Bit, dann wären das - Pandi-pi-mal-Daumen - 8,45 mm² und es wären nur noch 5,6 % der Fläche. Der Kern als ganzes wäre um 10 % geschrumpft.

Deswegen auch hier: Die Little-Cores kommen nicht, weil man damit weniger Energie verbraucht - das ist nur ein Nebeneffekt - sondern weil man damit effektiv Platz schaffen kann.

Die meiste von uns werden AVX-512 eher selten brauchen und AMX noch seltener. Das sind nun wirklich Extensions, die schön zu haben sind, die man aber im Alltag nicht nutzen wird.
 
  • Gefällt mir
Reaktionen: TechFA
lynx007 schrieb:
Nein, Win11 ist ja das neue Build (22xxx?!?!? ansta 19xxxx...) plus Namens änderung und damit ohnehin nur ein Featureupdate. So wie immer schon. Windows 2000 war im grunde auch nur ein nt5.0 und win xp dann nt6.0.... wen ich das richtig in erinnerung habe.

Also so wie ich das verstanden habe, ist win11 nichts anderes als ein neuer win10 build aber mit Namensänderung. Aber korrigiert mich gerne wen das eine Fehleinschätzung ist. Aber vermutlich ändert sihc für den Konsumenten nichts außer der Namen und halt bestimmte Features wie die hier genannten. ALso Win11 ist quasi ein "nur" ein Featureupdate. Alte Builds bekommen soweit ich weiß in der Regel nur noch Service und Sicherheitsupdates. Und mit den umstieg, hat man ja auch Zeit. Den 21h1 solle ja noch bis 12-22 unterstützt werden. Man hat also für den Umstieg auf win11 noch über ein Jahr Zeit.
Das stimmt so nicht ganz. Erstens soll es Win 10 noch einige Jahre parallel zu Win 11 geben (Sicherheitsupdates auf jeden Fall, Featureupdates soll wohl von Fall zu Fall unterschieden werden). Was aber ganz wichtig ist: Für Win 11 wird man ein Microsoft Konto brauchen (für Win 10 nicht) und zudem läuft Win 11 nicht auf jedem Rechner, der schon etwas älter ist (das TPM-Modul 2.0 wird zwingend vorausgesetzt). Von daher gibt es nicht wenige Rechner, auf denen Win 11 gar nicht erst installiert werden kann.

Okay, letzteres dürfte ohne Relevanz sein, weil die neuen Alder-Lake-Mainboards ja TPM 2.0 mitbringen, aber das mit dem erzwungenen Microsoft-Konto darf nicht unerwähnt bleiben.
 
  • Gefällt mir
Reaktionen: Slayher666 und lynx007
DevPandi schrieb:
8,00 mm² und 0,9 mm²: Daraus ergibt sich 11,25 %.
Er liefert wenigstens eine Quelle, die seiner Aussage widerspricht. Du kommst gleich ganz ohne aus und lässt die Zahlen vom Himmel regnen. Ist ja prima, wenn die stimmen. Aber dann liefere doch bitte eine Quelle.
 
Nixdorf schrieb:
Er liefert wenigstens eine Quelle, die seiner Aussage widerspricht. Du kommst gleich ganz ohne aus und lässt die Zahlen vom Himmel regnen. Ist ja prima, wenn die stimmen. Aber dann liefere doch bitte eine Quelle.
Wozu sollte ich eine Quelle noch mal verlinken?

Die Zahlen sind aus der entsprechenden Quelle und sollen nur zeigen das seine Aussage ebenso richtig ist wie die andere.
 
DevPandi schrieb:
Die Zahlen sind aus der entsprechenden Quelle
Ach die gleiche Quelle. Dann interpretierst du die Zahlen falsch. Da sind die 0,9mm² kein Anteil der 8,0mm²,
sondern ein Bestandteil einer zu summierenden Liste, die dann 18,3mm² für das gesamte Tile ergibt.
Ergänzung ()

Zurück zum eigentlichen Thema, ob AVX-512 für den größten Anteil des Die-Flächen-Zuwachses verantwortlich ist. Ich hab mir mal die Die-Shots hier angesehen und dann das Pixel-Lasso benutzt*. Die Fläche ist um 2,96mm² angewachsen, von denen etwa 0,7mm² auf den Zuwachs bei "FPU/SIMD" entfallen. Das sind knapp 24%. Drei Viertel des Zuwachses entfallen also nicht auf AVX-512. Die L1D- und L2-Caches tragen zusammen etwa 27% zum Wachstum bei. Was auch noch interessant ist: Der prozentuale Anteil von "FPU/SIMD" an der Gesamtfläche ist kaum angewachsen.


*Alle Berechnungen erfolgten nur innerhalb eines Die Shots, da man sich auf gleichen Maßstab beider Shots nicht verlassen kann.
 
Zuletzt bearbeitet:
Nixdorf schrieb:
Ach die gleiche Quelle. Dann interpretierst du die Zahlen falsch. Da sind die 0,9mm² kein Anteil der 8,0mm²,
sondern ein Bestandteil einer zu summierenden Liste, die dann 18,3mm² für das gesamte Tile ergibt.
Nein, ich interpretiere da nichts falsch, man muss nur sehr genau lesen, was in meinem Beitrag steht und dann auch etwas mit Mathematik umgehen können.

Wie gesagt, er hat nicht unrecht, wenn er sagt, dass AVX-512 ca. 11 % der Die-Fläche eines Kerns ausmacht - 8,0 mm² + 0,9 mm² = 8,9 mm². Davon sind 0,9 mm² - pi mal Pandapfote - 11 % - ja eigentlich eher 10 %. ;)

Deine 5 % sind es, wenn man den L2 und L3-Cache mit dazu nimmt. Ihr habt beide recht!
 
DevPandi schrieb:
Deine 5 % sind es, wenn man den L2 und L3-Cache mit dazu nimmt. Ihr habt beide recht!
Den L2 nimmt man bei derlei Berechnungen eigentlich immer dazu, den L3 hingegen eher nicht. Ich hatte da auch schon rumhantiert und war dann bei 6,5 bis 8 Prozent gelandet, je nachdem, wie man den Rest interpretiert.

Letztendlich fand ich Skylake-SP als Tangente aber auch wenig hilfreich, denn beim Server-Die sind zwei AVX-512-Einheiten verfügbar, wohingegen sich Rocket Lake auf die erste beschränkt, die sich durch Zusammenschalten zweier AVX-2-Einheiten ergibt. Daher bin ich dann in der Ergänzung auch mal ganz konkret bei den miteinander zu vergleichenden Designs an die Sache ran gegangen.
 
Linmoum schrieb:
Takt spielt keine Rolle für die IPC. Der Unterschied ist bei fixed 3.3 vs. 3.3 genauso groß wie bei 4.8 vs 4.8.
Leider tut er das doch, weil mit höherem CPU takt der Speicher nicht in gleichem Maße skaliert. Daher wird es relativ gesehen immer teurer wenn auf Daten im Hauptspeicher gewartet werden muss (sprich de CPU idled für mehr taktzyklen) wenn der takt höher wird. Ob der Effekt bei typischen benchmarks signifikant ist weiß ich aber nicht.
 
Miuwa schrieb:
Leider tut er das doch, weil mit höherem CPU takt der Speicher nicht in gleichem Maße skaliert.
Jepp, in geringem Maße. Bei der Ermittlung der IPC führt man die Messung aber eh mit normiertem Takt durch, weil man sonst unsauber Dreisatz mit den Messwerten hinsichtlich des Takt machen muss. Zu vergleichende CPUs werden alle auf den gleiche Takt fixiert. Beispiel: Guru3D misst die CB15-IPC immer mit 3,5 GHz.
 
Nolag schrieb:
Man kann jetzt schon sagen, dass der V-Cache bei Cinebench und ähnlichen Anwendungen nicht viel bringen wird, aber dass diese CPUs garantiert einen neuen Weltrekord in WinRAR aufstellen werden. Bei einigen Games, die aktuell am Speicherinterface verhungern, dürfte der Performancegewinn durch den V-Cache auch ziemlich eindrucksvoll sein. Der Vergleich der V-Cache CPUs mit ihren Vorgängern wird ähnlich interessant werden wie der Test des Ryzen 3100 vs 3300x, wo der Performanceverlust durch die IF sichtbar wurde.
Bei Games wird der 3D Cache ordentlich reinknallen, das denke ich auch. Der Unterschied zwischen dem 3300X und 3100 kommt aber eher durch die Cache-Struktur. Die Intercorelatenz hat einen erstaunlich geringen Einfluss auf die Spieleperformance.
 
  • Gefällt mir
Reaktionen: TechFA und Nixdorf
Zurück
Oben