News Intel Core i9-7920X: 12 Kerne von Core X takten mit mindestens 2,9 GHz

@MK one

Deswegen schrieb ich NonAVX. Handbrake lastet sicher nicht so aus wie Linx. Nicht mal ansatzweise. Wenn überhaupt wie Cinebench.

Zudem ist gerade in AVX der Takt zwar niedriger, aber die Performance bei seinem Takt zu AMD und Broadwell auch eklatant höher.

2017-07-20 16_58_05-Core i9-7900X im Test-Update - Intel, Skylake-X und die Brechstange gegen Ry.png

Finds gut dass PCGH beide Werte rein hat. Also "unlocked" wenn man wie im Falle des THG Test und MSI Boards der CPU jede TDP zumuten lässt ;)

Deshalb ist es auch wie ich finde wichtig immer den Gesamtkontext zu beachten. Dass da zb Ryzen und Theardripper ein ausgezeichnetes P/L bietet / bieten werden steht denke ich außer Frage, nicht zuletzt weil AMD Marktanteile will und braucht.

Gerade bei AVX wendet glaub keine Anwendung 100% davon an. Viel eher unterstützt AVX, genau wie bei Handbrake. Theoretische Tests wie Linpack, Prime AVX sind hier rein theoretischer Natur. Rendering wie Cinebench ist da schon was anderes.

Edit: Zur Temp findet sich bei PCGH auch sehr interessantes:
Trotz der Tatsache, dass Intel beim SkylakeX lediglich Wärmeleitpaste zwischen Die und Heatspreader verwendet, bleibt die Temperatur im Rahmen der 140 Watt TDP auch im Linpack noch im grünen Bereich - könnte aber natürlich besser ausfallen, wäre der Heatspreader verlötet was speziell angesichts der Preise der SKL-X-CPUs mindestens wünschenswert wäre. Im offenen Testaufbau erreichen wir bei Höchstlast (Linpack, AVX2, 10+ Threads) mit dem Noctua NH-D15 eine maximale Kerntemperatur von 67 °C ohne dass die Lüfter unangenehm laut werden. Anders sieht es bei "freier Entfaltung" der CPU, also mit ungedrosselter Leistungsaufnahme aus: Hier ist - wie weiter oben beschrieben - selbst die High-End-Luftkühlung an ihrer Grenze.
http://www.pcgameshardware.de/Core-...ts/Skylake-X-Basin-Falls-Performance-1230913/

Das ist schon "etwas" weniger als die THG Werte von 100°C beim Einsatz eines Chillers und 360W die auch im Forum hier gern herangezogen wurden.
 
Zuletzt bearbeitet:
MK one schrieb:
Sieh die das PCGH Video an , ab 8.40 wird Linpack mit AVX benutzt , da geht der Takt unter Basistakt runter auf 3,1 ,3,2 Ghz weil die 140 Watt TDP gehalten werden sollen.

Ist durchaus ganz interessant. Harte TDP Limits (wie hier mit 140W gesetzt) gibt es bei CPUs heute aber praktisch nicht mehr. Effektiv ähnelt das Verhalten aktueller x86 CPUs dem von Smartphone/Tablet SoCs. Die TDP kann solange das thermische Budget (Temperatur, Kapazität der Kühlung) vorhanden ist teilweise massiv überschritten werden.

Für die Hersteller von Mainboards ist der hierdurch verfügbare große Spielraum (CPUs@Stock) verlockend. Je näher man ans tatsächliche Limit geht (VRMs, Kerntemperatur) desto besser schneiden die eigenen Boards (Performance) in Reviews gegenüber den Mitbewerbern bei identischer CPU ab. Dadurch das Intel Skylake-X vorgezogen hat gab es weniger Zeit für die Evaluierung und entsprechend sind einige Boards völlig losgelöst. Eben das ist halt einfach zu viel des Guten.
 
Zuletzt bearbeitet:
ja klar ich mein MSI sagt sich natürlich "geben wir der CPU 200W Spielraum, damit landen wir in Tests bezüglich Performance vor Boards die sich an die 140W halten".
Dazu kommen 20 verschiedene CPU + TDPs auf einem Sockel, das Nachschieben von Intels 12-18C, long TDP, short TDP usw...

Ich finde Nvidia macht das teils ganz ausgefuchst. Die betreiben ihr FE Modell oft am Sweet Spot, dann sagt sich jeder "wow wie effizient" und die Customs können damit dann gern brechen, Spannung und Takt geben wie sie lustig sind. Dieser "wow wie effizient" ist aber bei vielen dann immer noch im Kopf.
 
Zuletzt bearbeitet:
Wo wird denn AVX in welcher Version aktuell genutzt? Handbrake habe ich schon mitbekommen, aber gibt es noch mehr außerhalb von Benchmarks?
 
Danke für den Link!
RDIMM support is reserved for enterprise products (e.g. EPYC). Client products support UDIMM. Threadripper will support ECC.
Da auch von der Validierung die Rede ist, dürfte es dann bei Threadripper hoffentlich eine offizielle ECC RAM Unterstützung geben:
Validation happens at a platform level, so the combination of motherboard, processor and memory.
For enterprise products, validation is handled by the manufacturer of the enterprise product - for example a server.
For client products, validation is also handled by the manufacturer, for example a desktop PC. Where this gets a little more complex is the individual component sale space.
Because there is no single point of combination until the end user, and the massive number of combinations of motherboards and processors and memory, the validation happens at a per motherboard level.
This means each mobo has to test a range of memory with a particular bios to offer compatibility validation. This is a not a small task so the effort is often used as differentiation between products for marketing purposes.
Nur wird sich kein Mainboardhersteller aus dem Fenster lehnen und ECC Funktionalität versprechen, wenn dies nicht auch offiziell vom CPU Hersteller unterstützt wird.
 
Hätte Intel hier strenge Vorgaben gemacht und der i9 7900X einfach strickt bei AVX Last gethrottelt und throtteln müssen (wie beim PCGH Test) wären die Ergebnisse zu Verbrauch und Temperatur deeeeutlich besser ausgefallen. Und bei 99% der Benches spielt das keine Rolle da eben eh "non AVX" Load bei der die CPU auch so meist den Takt hält.

Da hat sich Intel selbst Steine in den Weg geworfen.
Ergänzung ()

ottoman schrieb:
Wo wird denn AVX in welcher Version aktuell genutzt? Handbrake habe ich schon mitbekommen, aber gibt es noch mehr außerhalb von Benchmarks?

gute Frage.

Anwendung:

- Nützlich für gleitkommaintensive Berechnung, vor allem im Multimedia-, wissenschaftlichen oder Finanzbereich. Ganzzahloperationen sollen später folgen.
- Erhöht Parallelität und Durchsatz von Gleitkomma-SIMD-Berechnungen.
- Verringert die Registerlast durch nicht destruktive Drei-Operanden-Form.

In erster Linie wohl Wissenschafft und Bankwesen?

Denke viele AVX Tools nutzten AVX wie Handbrake in sehr kleinem Umfang, sonst würde die Leistung stärker von der AVX Performance abhängen.
 
Zuletzt bearbeitet:
Definitiv und das sieht man vor allen auch beim Vergleich der Xeons (Broadwell-EP zu Skylake-SP). Was Performance/Watt betrifft ist Skylake-SP je nach (Server) Applikation teils deutlich besser als Broadwell-EP. Peak Performance sowieso.

Die HEDT Plattform wird über die nächsten Monate schon ihren Weg gehen aber in den Köpfen bleibt natürlich die Einführung hängen und die hat man vor allen aufgrund der ungebremsten Leistungsaufnahme und inkonsistenten Performance (in Abhängigkeit vom Board) gnadenlos vermurkst.

Das Problem gibt es auch bei AMD immer wieder. Meiner Ansicht nach wäre es sowohl für AMD als auch Intel wesentlich besser an die Redaktionen Referenzsysteme für Reviews zu verteilen. Im Gegensatz zu den Produkten der Partner (wie Mainboards) hat man die unter Kontrolle. Ein weiterer Vorteil wäre das damit alles was aus dem Rahmen fällt (Partner) leicht zu erkennen ist.
 
Zuletzt bearbeitet:
Es sieht so aus, als wüssten wir bald mehr über einige X399 Boards der AMD Threadripper Konkurrenz, denn am 25.Juli soll der Schleier laut VCZ gelüftet werden.

Scheinbar wird BioStar also keine Threadripper Boards heraus bringen, da nur die großen 4 Mainboardhersteller in AMDs Webinar behandelt werden.
 
Zuletzt bearbeitet:
Chismon schrieb:
Scheinbar wird BioStar also keine Threadripper Boards heraus bringen,

Das ist zwar eine herbe Enttäuschung, aber damit muss man wohl leben. Dann geb ich mich halt mit den B-Firmen zufrieden :D

Ne, mal im Ernst. Ich denke Biostar ist deren Stand im Markt durchaus bewusst und die Wahrscheinlichkeit auch nur 10 Mainboards in diesem eh schon kleinen Markt abzusetzen ist wohl denkbar gering.
 
Zuletzt bearbeitet:
Chismon schrieb:
Es sieht so aus, als wüssten wir bald mehr über einige X399 Boards der AMD Threadripper Konkurrenz, denn am 25.Juli soll der Schleier laut VCZ gelüftet werden.

Scheinbar wird BioStar also keine Threadripper Boards heraus bringen, da nur die großen 4 Mainboardhersteller in AMDs Webinar behandelt werden.
Hast Du Dich da nicht im Thread vertan? Hier geht es um Intel. ;)
 
oldmanhunting schrieb:
Hast Du Dich da nicht im Thread vertan? Hier geht es um Intel. ;)

Ich seh das nich so wild. Is eh bunt gemischt.
 
In Bezug auf die neuen AVX-Befehle ist mir nach wie vor nicht klar, welchen praktischen Nutzen der normale Anwender hat:
"Bei Erörterung der neuen Befehlssätze AVX/AVX512 darf nicht unerwähnt bleiben, wozu diese überhaupt dienen. Intel meint:
"Intel® AVX-512 ist ein Befehlssatz, der die Verarbeitung bei Anwendungen wie wissenschaftlichen Simulationen, Finanzanalysen, künstlicher Intelligenz (KI) bzw. Deep Learning, 3D-Modellierung und -Analyse, Bild- und Audio/Video-Verarbeitung, Verschlüsselung und Datenkompression beschleunigen kann."
Das sind also Befehlssätze, die üblicherweise von Grafikkarten bearbeitet werden. Wer übertaktet eine Grafikkartze auf 4,5 GHz?
Für den normalen Anwender spielt AVX2/AVX512 derzeit nur bei y-cruncher (neueste Version), AIDA64 (ABxxx43xxx) und LinX 0.72 eine Rolle. Das sind jedoch alles synthetische Benchmark-Programme. Das Spiel "DIRT" nutzt noch AVX oder x264 (AVX512) zum encodieren von Videos. Ansonsten wäre AVX512 beispielsweise für die NASA interessant, soweit vielschichtige Vektoren im Weltraum berechnet werden sollen."
Sicher sind Benchmarks ganz nett. Encodieren erscheint zumindest praxisnah. Aber wo liegen konkret die Vorteile?
 
Zuletzt bearbeitet von einem Moderator:
AVX-512 ist im Prinzip noch ganz neu, die SW muss erst darauf optimiert werden. Knights Landing unterstützt ja auch nicht das gleche Featureset wie Skylake-X/-SP.
 
Klar ist der Befehlssatz neu und die Rechenwerke der CPU sind entsprechend erweitert worden. Gleichwohl scheinen sich Überschneidungen mit den Aufgaben einer GPU zu ergeben.
Oder anders gesagt, wenn eine GPU schon größtenteils Inhalte von AVX-512 berechnet, weshalb ist es sinnvoll der CPU gleiche Aufgaben zuzuweisen?
 
Daten auf eine GPU zu übertragen kostet viel Zeit und lohnt sich daher nur, wenn viel auf ihnen gerechnet wird. Die Idee hinter den APUs von AMD war ja gerade dies zu ändern indem man die GPU eng an die CPU anbindet und so auch bei kleinen Aufgaben die sich gut parallelisieren lassen dann gewinnbringend auf die GPU zurückgreift. Es scheiterte aber an der Umsetzung, für die ersten Generationen gab es keine SW Unterstützung und als die so langsam kam, waren die CPUs der APUs hoffnungslose im Hintertreffen und der Marktanteil zu gering, die APUs also schon ein Nischenprodukt für das sich eine eigene Entwicklung in den allermeisten Fällen gar nicht mehr lohnte, zumal verbreitere Compiler dies auch nicht von selbst konnten. GPU Programmierung ist eben nicht banal und daher mit viel Aufwand verbunden, die Xeon Phi gibt es auch nur deswegen, weil diese mit x86 Befehlen funktionieren, die SW Entwicklung dafür also einfacher als für GPUs ist.

Dagegen ist AVX eine Befehlserweiterung die von den meisten Compilern unterstützt wird und gerade der Intel Compiler ist der besten wenn es um die Optimierungen geht, daher wird die Unterstützung auch schnell kommen, auch wenn nicht jede SW davon profitiert, weil nicht jedes Problem mit Vektoren gelöst wird.
 
Das ist eine einleuchtende Erläuterung.
Aus diesem Grund werde ich die CPU köpfen und vor allem die VRMs des Boards mit Wasser kühlen.
 
Oder du kaufst es erst gar nicht um Intel zu zeigen dass du damit nicht einverstanden bist.

Ist ja nicht so als würde man mit dem Haswell-E nicht auskommen :rolleyes:

Wobei...6 Kerne...

Kannst dir ja nen Threadripper holen. Besser als den Müll den Intel da verzapft hat.
 
Da ich Intel-Fanboy bin, werde ich einen 7820X kaufen.
Ein Thread-Tripper kommt mir niemals ins System.
 
Zurück
Oben