Test Intel Core i9-7900X im Test: Stromverbrauch, Temperatur und erste Benchmarks

MADman_One schrieb:
Ja, da erwarte ich auch keine Verbesserungen mehr. Aber evtl. gibt es wenigstens bessere Kühler für die SpaWas, das Problem scheint ja zu sein, daß die aktuellen eher Deko als Kühler sind.

Naja, ich zweifel stark das alle Boardhersteller hier plötzlich das Problem sind und zu wenige/gute Spawas verbauen. Das ist eindeutig die CPU die einfach viel zu viel Strom benötigt. So eine CPU gehört vom Markt entsprechend abgestraft indem sie nicht gekauft wird von den Leuten.

Sowas auf den Markt zu bringen ist wirklich...naja. Solange es aber noch gnädige User gibt, die solche Sachen akzeptieren und trotzdem kaufen, kann man einfach nur noch den Kopf schütteln. Das sind ja jetzt keine kleinen Fehler die man per Bios-Update lösen könnte.
 
@smartcom5:
Gerade weil sie alle auf dem 10-Kerner basieren (also 2-4 deaktivierte Kerne haben müssten) hätte ich dort niedrigere Temperaturen erwartet, weil es bei gleicher Fläche weniger aktive Komponenten gibt und sich damit die Wärme besser verteilen sollte. Wobei das bei Paste unterm Deckel wohl eher im Bereich der Meßungenauigkeit läge aber selbst geköpft sind sie ziemlich ähnlich, das hat mich schon etwas überrascht.

Aldaric87 schrieb:
Naja, ich zweifel stark das alle Boardhersteller hier plötzlich das Problem sind und zu wenige/gute Spawas verbauen.

Ich bezog mich auf die Kühler der SpaWas, nicht die Anzahl/Qualität der Wandler selber. Wenn ich lese, daß die Temperaturen ohne Kühler bei schwachem Luftzug besser sind als mit werkseitig verbautem Kühler, dann wundert mich das schon sehr, klingt nach nem billigen Wärmeleitpad unterm Kühler, da ließe sich nachbessern seitens der Hersteller. Aber es mildert nur das eigentlich Problem und löst es nicht, das stimmt schon.
 
Zuletzt bearbeitet:
Naja, falls die SKL-X/KBL-X wirklich so dramatisch floppen, wie es derzeit aussieht, wird Intel die Dinger recht bald stoppen und mit einem neuen Konzept an einer anderen Stelle durchstarten. In der Vergangenheit lief es jedenfalls oft nach diesem Prinzip. (Obwohl, das war immer nur Stufe II - zuvor werden sie erst einmal ihre berüchtigte Marketing-Maschine anwerfen, um Sch***e als Bonbons zu verkaufen).
 
Zuletzt bearbeitet: (1 (von n) Tippfehler entdeckt)
Wenn man atm eine Highend Gaming-CPU sucht, ist das alles absolut unbefriedigend. Sowohl Ryzen, als auch Skylake-x haben einfach zu große Nachteile. Hatte mir das alles cooler vorgestellt.
 
Sehr schade was Intel hier abliefert. Da bleib ich doch noch eine Weile bei meinem 6800K. Bald kommt eh PCI-E 5.0 und DDR5. Bis dahin kann sich auf den CPU Markt noch einiges tun. Skylake X und Kaby Lake X sind jetzt echt voll in die Hose gegangen. Jeder der sich jetzt ein neues System kauft und sich ein wenig auskennt, greift zu AMD. Alles andere wäre Blödsinn.
 
Tomi_92 schrieb:
Bald kommt eh PCI-E 5.0 und DDR5.

Na bis PCIE 5.0 wirds noch ne ganze Weile dauern. Die Entwicklung ist doch noch ganz am Anfang. Erstmal wird sich 4.0 etablieren
 
PCIe 4.0 wird noch dieses Jahr kommen , PCIe 5.0 ist für 2020 / 21 geplant
pcie5-ca055f534ed0435e.png

Eigentlich hatte ja Intel Immer PCIe forciert , jetzt jedoch sind es andere Firmen dir vorwärtsdrängen , Intel konzentriert sich momentan eher auf Thunderbolt 3

Allerdings dauert es erst immer noch ein bisschen bis der neue Standard auch in Graka s und CPU s + MB Einzug hält . Vor 2019 denke ich nicht das PCIe 4.0 auf CPU oder Motherboard zu finden ist . Erste Controllerkarten jedoch könnte es schon Anfang 2018 geben
https://www.heise.de/newsticker/meldung/IBM-Power9-soll-bei-PCI-Express-4-0-in-Fuehrung-gehen-3715106.html

grade gefunden , IBM will mit Power9 Servern und PCIe4.0 als erster am Start sein
 
Zuletzt bearbeitet:
MK one schrieb:
PCIe 4.0 wird noch dieses Jahr kommen , PCIe 5.0 ist für 2020 / 21 geplant
Anhang anzeigen 630199

Eigentlich hatte ja Intel Immer PCIe forciert , jetzt jedoch sind es andere Firmen dir vorwärtsdrängen , Intel konzentriert sich momentan eher auf Thunderbolt 3

Allerdings dauert es erst immer noch ein bisschen bis der neue Standard auch in Graka s und CPU s + MB Einzug hält . Vor 2019 denke ich nicht das PCIe 4.0 auf CPU oder Motherboard zu finden ist . Erste Controllerkarten jedoch könnte es schon Anfang 2018 geben
https://www.heise.de/newsticker/meldung/IBM-Power9-soll-bei-PCI-Express-4-0-in-Fuehrung-gehen-3715106.html

grade gefunden , IBM will mit Power9 Servern und PCIe4.0 als erster am Start sein
Tut mir Leid wollte 4.0 schreiben. Egal, bis dahin reicht mein 6800K alle mal. Bin gespannt wie sich Skylake X etablieren wird oder ob es komplett ignoriert wird von den Consumern. Für den 7900X braucht man echt schon eine Custom WaKü um ihn schön kühl zu halten. Vom übertakten fang ich gar nicht an.
 
druckluft schrieb:
Es ist halt die Frage in welcher Anwendung bzw in welchem Benchmark und wie sich die geänderten Caches und Core-Core Verbindungen auswirken.

Im ganz einfachen Fall von Cinebench SC errechne ich eine IPC Steigerung von Broadwell-E (169 Punkte @4.0GHz) auf Skylake-X (197 Punkte @4.5GHZ) von knapp 4%. Also genau das, was man eigentlich erwarten würde. Dazu noch bei niedrigerem Verbrauch (95W BWE vs 93W SKLX)

Das große Rätsel ist, was läuft in anderen Fällen schief...
Das Ding ist, wie zum Ryzen Start:
Im Benchmarkprogrammen rennen beide viel schneller als im "realen" Modus. Bei Ryzen hing es an der Fabric Kommunikation zwischen den jemals 4 Kernen. Der war abhängig vom RAMTakt. Deshalb reagiert die Leistung in Spielen so extrem auf schnelleren RAM.
In Synthetischen Benchmarks brasselt jeder Kern quasi für sich selber. Deshalb war die Fabricbandbreite fast egal und Ryzen zeigte was in ihm steckt.

Intel wusste also, was durch Naples auf sie zu kommt. CPUs, die sehr schnelle Benchmarkmonster sind und in synthetischen Programmen (fast sämtliche Profisoftware) abgehen wie Sau. Intel hat/hatte keine Angst vor Ryzen sondern vor Epyc. Die sehen ihr Servergeschäft massiv in Gefahr. Da kann man nicht so einfach schmieren.

Deshalb der neue aufgebohrte L2 Cache bei den neuen Xeons. Dadurch werden die automatisch beschleunigt. Viel hilf "viel".

Was das fatale ist, die benutzen die gleiche Maske für die X-Modelle und die ziehen in HighendGaming die Scheibe Brot nicht vom Teller. Dort müssen die Kerne zu viel untereinander kommunizieren (erste Instanz dafür ist der L3 Cache). Den L3 Cache zu kürzen, bedeutete die Kommunikation zu verlangsamen.
Wenn der L3 Cache voll ist, läuft es in den Arbeitsspeicher und der ist deutlich langsamer.

Jetzt hat Ryzen einen Riesen Vorteil. Besserer RAM Takt = größere Bandbreite im Fabric= mehr Leistung oder bei ZEN 2 hoffentlich ein eigenen FabricController

Intel hat nur eine Hoffnung. Die Entwickler bauen ihre Spiele so, dass der kleinere L3 Cache reicht. Rein aus der Erfahrung her würde ich mal behaupten, viel Glück. Ich habe keine Hoffnung, dass da viel Softwaretechnisch gehen wird.


Und nur das wir uns nicht falsch verstehen. Die CPUs sind Leistungstechnisch nicht schlecht. Aber ihnen fehlt eben die 5% Leistung. Die müssen durch WerksOC ausgeglichen werden, um mit Ach und Krach auf die Vorgängerleistung zu kommen.
Als Xeon werden die Teile "Bombe" sein aber als X-Modell eher ein fail.

Edit:
Falsche Zitat😀
 
Zuletzt bearbeitet:
SLX scheint nicht so der Burner zu werden. Zudem ist er kaum verfügbar.
 
Zuckerwatte schrieb:
Er ist eben auch nur ein Mensch, der bezahlt wird, um sich zu ernähren...

Was auch okay ist und außerdem sind die dickeren Intel CPU für seine "Guillotine" auch ineressanter
 
Zuletzt bearbeitet:
Scriptkid schrieb:
SLX scheint nicht so der Burner zu werden. Zudem ist er kaum verfügbar.

Naja, mangelnde Verfügbarkeit kann auch hohe Nachfrage sein ;) Aber das alles ist nach so wenigen Tagen noch gar nicht abzuschätzen.
 
MADman_One schrieb:
Naja, mangelnde Verfügbarkeit kann auch hohe Nachfrage sein ;) Aber das alles ist nach so wenigen Tagen noch gar nicht abzuschätzen.
Wohl eher Paperlaunch. Kannst ja bei mf sehen wieivele schon verkloppt wurden.
 
Volkimann schrieb:
Dann nenne Ross und Reiter...

ich fang mal an....was so bekannt ist für Spawaprobleme....

ASRock
990FX Extreme3
985GM-GS3 FX
980DE3/U3S3 R2.0
970 Extreme3 R2.0
970 Extreme3
970 Pro3 R2.0
970 Pro3
970 Pro2
970 Pro
970M Pro3
970DE3/U3S3
970A-G/3.1
960GM/U3S3 FX
960GM-VGS3 FX
960GM-GS3 FX
960GM-S3 FX
960GC-GS FX
890GX Pro3
890GM Pro3 R2.0
880GMH/U3S3
880G Pro3
870 Extreme3 R2.0
870iCafe R2.0

MSI
970A-G43
760GMA-P34 (FX)
760GM-P34 (FX)
760GM-P23 (FX)

...und mehr
 
PCIe 4.0 wird noch dieses Jahr kommen
garantiert nicht ^^ vielleicht q3/4 2018 und dann erstmal der paperlunch bevor wie das auf boards sehen dauerts wieder. Dazu wird es eh kaum Vorteile bieten da der Daten Durchsatz selbst bei PCI 2.0 16x locker ausreicht
 
D708 schrieb:
Deshalb der neue aufgebohrte L2 Cache bei den neuen Xeons. Dadurch werden die automatisch beschleunigt. Viel hilf "viel".

Was das fatale ist, die benutzen die gleiche Maske für die X-Modelle und die ziehen in HighendGaming die Scheibe Brot nicht vom Teller.

Ganz genau.
Viele der Probleme, die wir bei diesen Skylake-X sehen, hängen einfach damit zusammen, dass es sich eigentlich um Xeon-CPUs (und entsprechende Chipsätze) handelt, die bestenfalls für bestimmte Taktraten selektiert wurden. Die CPUs selbst sind auf professionelle Workloads ausgelegt, wo z.B. I/O-Leistung eine viel größere Rolle spielt, als im Consumerbereich.
Und Übertaktbarkeit spielt natürlich bei Xeons überhaupt keine Rolle. Deshalb sollte es auch nicht überraschen, dass es keinen verlöteten Heatspreader gibt.

Und um das zum Thema Wärmeleitpaste zwischen Die und Heatspreader klar zu stellen: Es liegt nicht an in irgendwelcher Weise minderwertiger Paste, an der Intel ein paar Cent sparen will. Das Problem ist, dass keine Wärmeleitpaste der Welt einen echten Luftspalt gut überbrücken kann. WLP ist dafür gedacht, winzige Oberflächenunebenheiten auszugleichen, nicht einen Spalt zu füllen, der Zehntel-Millimeter misst.
Das Problem ist also der unvermeidbare Spalt zwischen Die und Heatspreader, nicht die Paste.
Die einzige Lösung für dieses Problem wäre Die und Heatspreader zu verlöten, aber das müsste halt beim Design der CPUs so vorgesehen sein. Da aber Xeons wie gesagt nicht fürs Übertakten gedacht sind, gibt es sowas auch für die i9 nicht.

Mal sehen. Wenn AMD mit Threadripper genug Druck aufbaut, macht sich Intel vielleicht bei der nächsten Generation die Mühe mit einem speziellen (verlöteten) Design für Consumer-Enthusiasten. Wobei man nicht vergessen darf, dass auch AMDs Threadripper umgelabelte Epyc-CPUs für professionelle Anwendungen sind. Auch da würde ich nicht unbedingt auf viel Übertaktungspotential oder auf Spiele/Consumeranwendungen optimierte Features hoffen.
 
Zuletzt bearbeitet:
Black&White schrieb:
Dazu wird es eh kaum Vorteile bieten da der Daten Durchsatz selbst bei PCI 2.0 16x locker ausreicht
Wir sind bei SSDs die 8x3.0 brauchen(theoretisch 16x2.0 Bandbreite) Da die Entwicklung nicht stoppt, könnte es auch für 16x3.0 irgendwann eng werden. Den Fakt außeracht lassen, dass heutige SSDs nur für 3.0 Lanes konzipiert werden. Also eine 8x3.0 SSD hängt im Limit von 8x2.0.
Ergänzung ()

Herdware schrieb:
Wobei man nicht vergessen darf, dass auch AMDs Threadripper umgelabelte Epyc-CPUs für professionelle Anwendungen sind. Auch da würde ich nicht unbedingt auf viel Übertaktungspotential oder auf Spiele/Consumeranwendungen optimierte Features hoffen.
Wobei wir schon wissen, dass die Leistung stimmen kann. Bei den neuen Skylake X habe ich schon gesagt ,als klar war, dass es nur umgelabelte Xeons sind, dass die den verkleinerten L3 Cache nicht vernünftig auffangen können.

Zeppelin DIE bleibt Zeppelin DIE. Ob im Ryzen oder Threadripper oder Epyc. Man muss anerkennen, AMD hat da ne eierlegende Vollmilchsau geschaffen. Eine CPU die beides zu genüge kann ohne aus dem Rahmen zu fallen(DIEGröße/Preis/Leistung/Abwärme)

Ich glaube, davor hat Intel am meisten Schiss. AMD hat eine Maske um gegen alle Intels zu bestehen.
AMD is Back!
 
Zuletzt bearbeitet:
Herdware schrieb:
Wobei man nicht vergessen darf, dass auch AMDs Threadripper umgelabelte Epyc-CPUs für professionelle Anwendungen sind. Auch da würde ich nicht unbedingt auf viel Übertaktungspotential oder auf Spiele/Consumeranwendungen optimierte Features hoffen.

Falscher Ansatz. Es gibt bisher nur einen einzigen Zeppelin-DIE mit 8 Kernen, der bei Ryzen eben so zum Einsatz kommt. Es gibt einfach keine anderen Zen-CPU's / Masken / DIE oder whatever. Das sind alles die gleichen DIE. Egal ob nun Epyc, Threadripper oder Ryzen. Bei Threadripper sind das 2x Zeppelin, also bis zu 16 Kerne, aber eben als MCM ausgeführt. Bei Epyc nun 4x Zeppelin, also bis zu 32 Kerne. Bei Epyc ist alles unter 32 Kernen ja auch nur teildeaktivierte, was bei dem 8Core absurd wird, da trotzdem 4 Die verbaut sind mit jeweils 6 deaktivierten!

Womit im Umkehrschluss nahezu alles zu TR bekannt ist. Taktbarkeit und Leistungsaufnahme, Leistung...
 
mmic29 schrieb:
Eine voraussichtlich schlechtere IPC als beim direkten Vorgänger, Mehrleistung ausschließlich über höheren Takt und dabei ein abartiger Verbrauch. Ich hätte nicht gedacht, dass Intel den Launch so versemmelt. Die 6- und 8-kerner scheinen auch nicht wirklich besser wegzukommen. Ich frage mich wirklich, woher der extrem hohe Verbrauch bei gar nicht mal so hohen Spannungswerten kommt.

MADman_One schrieb:
@smartcom5:
Gerade weil sie alle auf dem 10-Kerner basieren (also 2-4 deaktivierte Kerne haben müssten) hätte ich dort niedrigere Temperaturen erwartet, weil es bei gleicher Fläche weniger aktive Komponenten gibt und sich damit die Wärme besser verteilen sollte. Wobei das bei Paste unterm Deckel wohl eher im Bereich der Meßungenauigkeit läge aber selbst geköpft sind sie ziemlich ähnlich, das hat mich schon etwas überrascht.

Ich denke, das wird in irgend einer Weise mit dem Mesh zusammen hängen.
Meiner Meinung nach dürfte es damit nämlich bei Weitem nicht so trivial sein, einfach Kerne aus dem Verbund zu deaktivieren, da ansonsten die ohnehin deutlich höheren Latenzen ziemlich schnell erheblich steigen. Man hat ja beim Core-Interconnect so schon deutlich mehr hops als AMDs Pendant. Ebenso dürfte es sich als extremst komplex bis nahezu unmöglich erweisen, bei niedriger Yield und Defekten einzelne Kerne aus dem monolithischen Verbund tot zu legen – zumindest wenn man sie versucht per Lasercut komplett aus dem Verbrauchsvolumen zu nehmen.

SKL-SP-Die-Shot-Block-Diagram-00.png
Zugegeben, ich bin kein Ingenieur der Elektrotechnischen Wissenschaften und meine Kenntnisse im Bereich Integrierte Schaltungen reichen auch sonst nicht allzu weit, aber wenn ich mir die Verbrauchswerte vom 7800X im Vergleich zum 7900X anschaue, dann habe ich gewisse Verständnisprobleme, inwieweit dort Kerne angeblich physisch deaktiviert sein sollen – der Verbrauch des 6-Kerners ist nämlich de facto identisch zum 10-Kerner, bei vermeintlich vier deaktivierten Kernen.

87080.png
Man könnte daher fast dem Trugschluß anheim fallen, die deaktivierten Kerne gibt es prinzipbedingt gar nicht, alle zehn Kerne werden notgedrungen mit Spannung versorgt und die deaktivierten sind nur logisch raus genommen. … und da kommen mir spontan solch unschönen Begriffe wie Blindstrom in den Sinn.

Wie gesagt, ich habe keine Ahnung, ist nur ein absolut idiotischer Gedankengang, abstruse Ideé und ich denke mal, ich habe hier einfach nicht den nötigen Überblick.


In diesem Sinne

Smartcom
 
Zurück
Oben