News Intel Core i7-8650U: Kaby-Lake-Refresh-CPU taucht in Benchmarks auf

HammerFall4ever schrieb:
sehe derzeit noch keinen grund meinen 4690k zu tauschen.
Das kann ich akzeptieren :daumen:


Also wie ist das zu verstehen: "Der Kaby Lake Refresh dürfte der erste sein, der in „14++“ gefertigt wird. Dieser bietet gegenüber dem klassischen 14-nm-FinFET-Herstellungsprozess, wie er noch mit Broadwell und Skylake genutzt wurde, wahlweise 26 Prozent mehr Leistung oder nur noch eine halb so hohe Leistungsaufnahme auf Transistorebene." ?

Diese "26% mehr Leistung" bedeuten 26% höheren Takt? Andere, architetonische Änderungen, gibt es da nicht? PCIe-4.0 oder 24 Lanes?
 
Da könnt dann der 4,9ghz i7 für uns.

Auf Sandy Bridge laufen die nvme ssds im x4 pcie2.0 sehr ordentlich.
 
Kowa schrieb:
Diese "26% mehr Leistung" bedeuten 26% höheren Takt?
26% mehr Leistung im Bezug zum Skylake dürfte schwierig werden ohne weitere Verbesserungen der IPC.
Weil das Skylake-Topmodell ja bereits mit 4 GHz Basistakt angeboten wird bzw. wurde, und das wären dann über 5 GHz Basistakt, was ich für unrealistisch halte.

Intel hat sich wohl einen Arbeitspunkt (Taktfrequenz u. Leistungsaufnahme) der CPU ausgesucht u. diese miteinander verglichen, aber dieser Arbeitspunkt dürfte bei max. 3 GHz liegen.
Oberhalb 3 GHz steigt die Leistungsaufnahme der Chips (deutlich) schneller als die Rechenleistung (proportional zur Taktfrequenz) zunimmt.
Bsp.: 2,3 GHz Skylake CPU vs. 2,9 GHz Coffee Lake CPU, beide CPU die identische Leistungsaufnahme

Ich gehe zudem von einer minimalen Verbesserung der IPC aus bei den Kaby Lake Refresh Chips. Ausserdem soll die GPU wieder ein wenig mehr Performance erhalten im Vergleich zur Vorgänger-CPU.
 
Zuletzt bearbeitet:
AVX512 ist das was am meisten bringen wird. Damit wird das wieder ein Sprung wie von ivy zu haswell in unterstützden Programmen.
 
Diese 26% mehr Leistung werden wir wohl kaum bei einer CPU sehen.
Die Aussage von Intel ist ja, es sind 26% mehr Leistung oder 50% effizienter oder eine Kombination von beidem möglich.

Bei den meisten CPU's wird es somit wohl eine Kombination von beidem geben.
 
venom667 schrieb:
Denn es wird kaum ein anderes Szenario als schnelle Backups beim Otto-Normal User auftreten in denen er überhaupt merkt das er ne NVMe drin hat.

Ist dem denn überhaupt so?
SATA und USB 3.0 haben über den Daumen gepeilt (~15%) die selbe Bandbreite.

Alter Rechner:
SATA intern -> USB 3.0 -> SATA extern

Neuer Rechner:
PCIe intern -> USB 3.1 Gen 2 -> ???

An dieser Stelle steht aktuell noch immer SATA und damit verändert sich so gut wie nichts.
Okay, USB 3.0 ist nicht mehr das Bottleneck, sondern stattdessen SATA, 15% gewonnen, in der Welt der Computertechnik ein extrem geringer Faktor.

Es braucht eine Möglichkeit, schnellere Speichermedien auch als Ziel zu nutzen.

Aktuell ginge das so:
1. 2x 10 Gbit Ethernet NIC, entsprechende Hausverkabelung und ein 2. Rechner mit PCIe-SSD oder RAID
2. 2x Thunderbolt-Karte, entsprechende (schweineteure) Verkabelung und ein 2. Rechner mit PCIe-SSD oder RAID
3. eine zweite interne PCIe-SSD oder internes RAID (als Backup natürlich Schwachsinn)

Für Privatanwender alles nicht kosteneffizient bzw. für die meisten auch zu kompliziert.
 
Zuletzt bearbeitet:
KlaasKersting schrieb:
Ist dem denn überhaupt so?
SATA und USB 3.0 haben über den Daumen gepeilt (~15%) die selbe Bandbreite.
Mit NVMe war hier eher "per PCIe angebundene" NVMe-SSD gemeint. Die Samsung SM961 ist auchnicht viel teurer als SATA-SSDs aber bei allen Parametern deutlich schneller..

KlaasKersting schrieb:
Es braucht eine Möglichkeit, schnellere Speichermedien auch als Ziel zu nutzen.

Aktuell ginge das so:
1. 2x 10 Gbit Ethernet NIC, entsprechende Hausverkabelung und ein 2. Rechner mit PCIe-SSD oder RAID
2. 2x Thunderbolt-Karte, entsprechende (schweineteure) Verkabelung und ein 2. Rechner mit PCIe-SSD oder RAID
3. eine zweite interne PCIe-SSD oder internes RAID (als Backup natürlich Schwachsinn)

Für Privatanwender alles nicht kosteneffizient bzw. für die meisten auch zu kompliziert.[/QUOTE]
"Schnell" ist heute ein manigfalitges Attribut. Die gängige Software (tar, zip, Paragon) liest viele kleine Files ein und packt das in einen großen Datenstrom (von Kompression mal abgesehen).
Bei eriner Windows-Systempartition mit 4k-Clustern zeigt der Taskmanager 100% Auslastung an, obwohl nur 250MB/s gelesen wird. Hier (wie auch bei Datenbanken) ist die kurze Latenz enorm wichtig und eben daß der Weg zur CPU kurz ist. Die halbe Welt wartet auf CPUs mit ausreichend Lanes, ich denke, darauf zielt auch intel mit der Optane-Technik.

Der große Datenstrom, vor allem übers Netzwerk, hat jede Menge Puffer implementiertund schickt die Datenpakete asynchron auf die Reise. 2x10GBit (=~2000 MByte/s) wären für die produzierbaren 250MB/s garnicht nötig.
Wenn ich aber z.B. ein virtuelles Laufwerk initialisiere, werden mit bei der SM961 tatsächlich Werte zwischen 1,5-2 GByte/s angezeigt. Bei einem 100GB-Laufwerk dauert das dann zwar immer noch eine Minute, aber das ist viel besser als früher.

Als Backup-Medium eine SSD einzusetzen kann auch ins Auge gehen. Hier im Test gibt es ja dieses Diagram zur Leistungsbeständigkeit.. Und auch beim Transfertest im Vergleich mit den großen HDDs sind SSDs daran gescheitert nur für 30-100 Sekunden in voller Geschwindigkeit schreiben zu können und anschließend auf 1/10 zurückzufallen.

Für den Anwender ist ein Backup immer noch zu kompliziert. Die aufkommenden Cloud-Backups allerdings eine Katastrophe für den Datenschutz. Hier sehe ich am ehesten noch Potential, daß sich eine Firma mal ein Stück vom Kuchen der Locky-Trojaner abschneiden könnten.
 
Dennoch ist bei einem Core i7-8650U im finalen Modell eher von einer integrierten HD 720 / 730 auszugehen.


Ich gehe von einem unveränderten Namensschema aus. Schon der Codename bleibt unverändert, auch wäre eine Namensänderung der GPU wohl schon längst im Treiber eingeflossen.
Ergänzung ()

The_Virus schrieb:
Ich raffs nicht, was genau ist denn der Unterschied zwischen Coffee Lake und Kaby Lake Refresh?
Ist Coffee Lake nicht nur ein neuer Codename für einen Kaby Lake Refresh?

Kaby Lake war ja schon ein Refresh von Skylake... Jetzt kommt also der Refresh (Kaby Lake Refresh) vom Refresh (Coffee Lake) vom Refresh (Kaby Lake) von der eigentlichen Architektur (Skylake)... einfach nur lächerlich was Intel da abzieht. :freak:


Es wurde schon oft erklärt. KBL-R ein ein reines ULV SOC Produkt, es werden erstmals 4 Kerne für ULV CPUs angeboten. Bislang sind die Core ULV mit 2 Kernen bestückt. Leider kann man sich noch so oft widerholen, es kapiert keiner.
 
Hallo zusammen,

@ Mrcapad

Mracpad schrieb:
Sandy ist halt die älteste Architektur die auch heute noch in der Liga aktueller Modelle spielen darf. Nicht mehr und nicht weniger. Sie steht zwar auf nem Abstiegsplatz, aber für Ivy gilt genau das gleiche. Das "bisschen" Ram Takt (Sandy nimmt auch 2133) und PCIe 3.0 reißen das Ruder nicht herum. Nächstes Jahr um diese Zeit hält Haswell die rote Laterne hoch und Gespräche über Sandy und Ivy Bridge beginnen mit; "Weisst du noch..." :D

Ich kann dir mal Berichten, was ich gespürt habe als ich von meinem Übertakteten Core 2 Duo E6600 @ 3,21 GHz auf meinen im Profil aufgeführten Intel Xeon 1231 v3 umgestiegen bin. In normalen Anwendungen: NULL. Ich spürte gar keinen Unterschied. Mein Core 2 Duo hat bis zum Dezember 2014 für absolut alles ausgereicht, Spiele wie Crysis 3 liefen auf High komplett Flüssig. Und dies mit einer Radeon 5850.

Mit ein Grund weshalb man davon Ausgehen kann, daß jemand mit einer Sandy-CPU wie einem 2500k / 2600k auch nächstes Jahr sich noch beruhigt in seine Sessel Fläzen kann. Im übrigen spielt es keine Rolle, welche CPU nächstes Jahr irgendeine Rote Laterne hält, solange diese für die üblichen Sachen noch locker Ausreichen. Und das wird noch seeehr lange Zeit der Fall sein. Denn bedenke, nach wie vor sind die allermeisten Anwendungen eher nicht einmal für 4 Kern-CPU`s optimiert. Tatsächlich muß man schon froh sein, wenn Anwendungen 2 Kern-CPU`s vernünftig Nutzen können.

@ venom667

Jep, ich lebe noch mit einer Radeon 5850. Und das sogar noch ziemlich gut. Wobei ich aber stark nach einer vernünftigen GTX 1060 Ausschau halte. Aber da ist man ja auch schon beinahe am Abnippeln, wenn man die Postings hier so sieht :freak:. Ich meine, 8 Gbyte VRAm sind ja schon mittlerweile zuwenig :king:.

Und du wirst Lachen, ich hatte bis 2012 noch einen 21 Zoll Monitor mit einer Trinitron Röhre. Das war ein Saugeiles Teil. Hatte ich 2001 zum Schnäppchenpreis von 444 € gekauft von einem Web-Shop, der Bankrott ging. Der hätte damals normalerweise 2000 € gekostet. Da mußtest du dir keinerlei Gedanken drüber machen, ob der Bildschirm zu lahm ist für Spiele.

So long....
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
@ Mrcapad
Ich kann dir mal Berichten, was ich gespürt habe als ich von meinem Übertakteten Core 2 Duo E6600 @ 3,21 GHz auf meinen im Profil aufgeführten Intel Xeon 1231 v3 umgestiegen bin. In normalen Anwendungen: NULL. Ich spürte gar keinen Unterschied. Mein Core 2 Duo hat bis zum Dezember 2014 für absolut alles ausgereicht, Spiele wie Crysis 3 liefen auf High komplett Flüssig. Und dies mit einer Radeon 5850.

Mit ein Grund weshalb man davon Ausgehen kann, daß jemand mit einer Sandy-CPU wie einem 2500k / 2600k auch nächstes Jahr sich noch beruhigt in seine Sessel Fläzen kann. Im übrigen spielt es keine Rolle, welche CPU nächstes Jahr irgendeine Rote Laterne hält, solange diese für die üblichen Sachen noch locker Ausreichen. Und das wird noch seeehr lange Zeit der Fall sein. Denn bedenke, nach wie vor sind die allermeisten Anwendungen eher nicht einmal für 4 Kern-CPU`s optimiert. Tatsächlich muß man schon froh sein, wenn Anwendungen 2 Kern-CPU`s vernünftig Nutzen können.

Siehst du, so unterschiedlich sind die Empfindungen bei Themen wie "flüssig" ; "ausreichend" und co.

Mein Core 2 hat im Gegensatz zu deinem trotz doppelt so vielen Kernen und mindestens 500 MHz mehr Takt nicht ganz so lange durchgehalten. 2013 ist imho trotzdem beachtlich. Aber wenn ich einen CPU Wechsel nicht bemerken würde hätte ich für mich einen Fehlkauf getätigt. Denn ich wechsel die CPU nicht schon wenn sie aus dem letzten Loch pfeift sondern erst wenn sie bei einer Anwendung tatsächlich versagt. Witzigerweise war diese Anwendung das von dir erwähnte Crysis 3. Während mein C2Q vorher Jahrelang auf 3.5 GHz gearbeitet hat fühlte ich mich durch die Ruckelorgie bei Crysis 3 dazu genötigt sie auf 3.8 GHz zu bringen. Nachdem das zwar Linderung brachte, mich aber noch nicht zufrieden stellte ging ich testweise auf 4 GHz. Letztendlich habe ich dann aber einfach anerkannt das mir die Leistung eines Core2Quad im Jahre 2013 einfach nicht mehr reicht. Den Wechsel zu einem i7 @ 4.5 GHz habe ich dann sehr sehr deutlich gemerkt.

Und was eben diesen i7 angeht, habe ich mich dieses Jahr gezwungen gesehen den Takt auf 4.7 GHz anzuheben. Wird also langsam Zeit für mich, nach einer neuen CPU zu schauen. Denn die erste Anwendung, welche dafür sorgt das ich unzufrieden mit der erbrachten Leistung meiner Hardware bin, wartet offensichtlich bereits hinter der nächsten Ecke.
 
Hallo zusammen,

@ Mracpad

Ich habe in Anwendungen nichts gespürt, wie z. b. dem BS-System etc.. Bei Spielen habe ich es natürlich gemerkt, keine Frage. Und bei Crysis 3 als auch der Crysis-Reihe im speziellen, mußt du Wissen, daß man über das Editieren der "Ini-Dateien" das Spiel sowohl Flüssiger als auch Schöner bekommt mit speziellen Einstellungen. Einer der Gründe weshalb es bei mir so Flüssig auf High lief. Erinnere dich doch mal an Crysis 1, welches ja nur unter Vista mit DX 10 Effekten laufen sollte. Wenn man sich mit den Ini-Dateien beschäftigte, konnte man das Umgehen und diese Effekte unter XP zum Laufen bekommen ohne jede Abstriche. Nur mal als Erinnerungsauffrischung.

Bei mir kam dazu, daß ich keinerlei Virenscanner etc. im Hintergrund hatte. Der Rechner war komplett für Spiele. Nichts anderes war da drauf. Keinerlei Sachen im Hintergrund. Null. Du kannst dir gar nicht Vorstellen, was das ausmacht. Mußt du echt mal Probieren. Du wirst Bauklötze Staunen. Übrigens hätte der E6600 noch gereicht, aber ich bekam auch Probleme mit dem Ram, da ich alle Bänke mit je 1 Gbyte DDR 2 Riegeln belegt hatte. Und zu der Zeit kamen immer mehr Spiele, wo auch mehr Ram als 4 Gbyte zwingend nötig waren. Es kam eines zum anderen sozusagen. Der E6600 läuft übrigens mit dem Board und Ram bei einer Freundin noch immer.

So long....
 
Zuletzt bearbeitet:
Ich versteh das schon, meine alte Hardware gurkt auch oft noch Jahre bei Kumpels oder Ex-Freundinnen im Rechner rum. Und die sind dann auch damit zufrieden zu stellen. Ich aber nicht, da helfen dann auch keine .ini Tweaks mehr. Und ich werde auch sicher keine Bauklötze staunen wenn ich die lahmenden Anwendungen auf nem frisch installierten Windows starte. ;)

Dein E6600 hätte bei mir übrigens nur bis Dezember 2008 gehalten. :D

Das die Leidensfähigkeit sehr unterschiedlich ausfällt ist ja kein Geheimnis. Ich hatte auch n Kumpel der felsenfest davon überzeugt war Crysis 3 liefe sauber auf seinem Core Duo. War ja auch so, aber eben nur für seine Ansprüche. Ich konnte ihm nicht beim zocken über die Schulter gucken, ich wäre bereits nach Sekunden ausgeflippt. x]
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Mracpad

Mracpad schrieb:
Ich versteh das schon, meine alte Hardware gurkt auch oft noch Jahre bei Kumpels oder Ex-Freundinnen im Rechner rum. Und die sind dann auch damit zufrieden zu stellen. Ich aber nicht, da helfen dann auch keine .ini Tweaks mehr. Und ich werde auch sicher keine Bauklötze staunen wenn ich die lahmenden Anwendungen auf nem frisch installierten Windows starte. ;)

Dein E6600 hätte bei mir übrigens nur bis Dezember 2008 gehalten. :D

Das die Leidensfähigkeit sehr unterschiedlich ausfällt ist ja kein Geheimnis. Ich hatte auch n Kumpel der felsenfest davon überzeugt war Crysis 3 liefe sauber auf seinem Core Duo. War ja auch so, aber eben nur für seine Ansprüche. Ich konnte ihm nicht beim zocken über die Schulter gucken, ich wäre bereits nach Sekunden ausgeflippt. x]

Was man bei der Crysis-Reihe generell Wissen sollte, die CPU ist da in der Regel nicht der limitierende Faktor. Bei Crysis 3 z. b. war mein E6600 gerade einmal zu 65 % auf beiden Kernen ausgelastet.

So long....
 
Luxmanl525 schrieb:
Was man bei der Crysis-Reihe generell Wissen sollte, die CPU ist da in der Regel nicht der limitierende Faktor. Bei Crysis 3 z. b. war mein E6600 gerade einmal zu 65 % auf beiden Kernen ausgelastet.

Deine Erinnerung betrügt dich.

edit: c3.png
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Mracpad

Ich weiß nicht, was du mit dem Diagramm willst. Meine Erinnerung trügt mich keinesfalls. Du läßt völlig außer Acht, daß Crysis durch die Ini-Dateien angepaßt war. Wohingegen du einen festen Parcour als Gradmesser nimmst. Hier bei CB gibt es sogar noch einen Thread mit genau dem Bezug zur Auslastung von Crysis. Wie gesagt, 65 % Auslastung mit meiner Übertakteten CPU.

So long...
 
Das ist bereits auf low. Ich lasse auch nichts ausser Acht, dass man Schatten und Gras noch weiter reduzieren kann ändert nichts an der grundsätzlichen CPU Abhängigkeit des Spiels.

Meinst du den Thread mit dem i5 6600K, 5960X sowie dem 3570K im CPU Limit? Den kenn ich schon. ;)

Redest du eventuell von Crysis 1 oder 2?
 
Crysis 3, selbst mit den Ini-Bearbeitungen, war selbst auf nem OC'ten Q9550 schwer genießbar. Mit den ganzen Ini-Hacks die durchs Netz kursierten, konnte man "grade so" die 60 FPS halten. Mit dem Dual-Core von meinem Freund (hatte glaub nen E6750) war von 20-30 FPS nur zu träumen (trotz den Ini-Bearbeitungen und deaktivieren von verschiedenen Grafikeffekten)
 
Ralf555 schrieb:
Es wurde schon oft erklärt. KBL-R ein ein reines ULV SOC Produkt, es werden erstmals 4 Kerne für ULV CPUs angeboten. Bislang sind die Core ULV mit 2 Kernen bestückt. Leider kann man sich noch so oft widerholen, es kapiert keiner.
KBL-R ist eine Übergangslösung bis zur allgemeinen Verfügbarkeit von Cannon Lake und den Coffee Lake Mobil-CPU, so wie ich Intel verstanden habe.
Kaby Lake Refresh und Coffee Lake werden beide im 14++ nm Verfahren gefertigt.
Weshalb Intel aber beide Chipgenerationen benötigt ist mir nicht ganz klar.

Jedenfalls wird die CPU-Angebotspalette dadurch unübersichtlicher; spielt für die Normalbürger allerdings keine große Rolle da Mobil-CPU ohnehin nicht für die Endkunden gedacht sind.
Da müssen sich im Prinzip nur die Hersteller von Notebooks mit beschäftigen.

Bei den Desktop-CPU ist die Sache relativ übersichtlich:
Sky Lake -> Kaby Lake -> Coffee Lake (-> Ice Lake)

Unübersichtlich deshalb weil die 8000er CPU-Serie wohl sowohl aus Kaby Lake Refresh als auch Coffee Lake u. Cannon Lake bestehen wird.
Ergänzung ()

oldmanhunting schrieb:
Diese 26% mehr Leistung werden wir wohl kaum bei einer CPU sehen.
Die Aussage von Intel ist ja, es sind 26% mehr Leistung oder 50% effizienter oder eine Kombination von beidem möglich.

Bei den meisten CPU's wird es somit wohl eine Kombination von beidem geben.

Intel hat dazu eine Grafik veröffentlicht aus der das ersichtlich ist.
intel_14nm%2B%2B.png
Quelle: Wikichip.org
 
Hallo zusammen,

@ Aldaric87

Aldaric87 schrieb:
Crysis 3, selbst mit den Ini-Bearbeitungen, war selbst auf nem OC'ten Q9550 schwer genießbar. Mit den ganzen Ini-Hacks die durchs Netz kursierten, konnte man "grade so" die 60 FPS halten. Mit dem Dual-Core von meinem Freund (hatte glaub nen E6750) war von 20-30 FPS nur zu träumen (trotz den Ini-Bearbeitungen und deaktivieren von verschiedenen Grafikeffekten)

Mein E6600 war auf 3,21 GHz Übertaktet. Und nochmals, beide Kerne waren ca. 65 % ausgelastet. Und von 60 FPs habe ich nie geredet. Sondern von Flüssig. Es gab Stellen, wo sicherlich die FPS auf 25 runtergingen. Das spürte ich auch. Aber das waren Maximal 2-3. Ich habe sogar noch Bildschirmfotos von der Auslastung. Leider auf meinen Alten Platten aus dem besagten E6600 Rechner. Und die sind Eingelagert.

@ Mracpad

Kann dir nicht mehr Sagen, wie der Titel des Threads lautet. Habe aber, wie o. a. bemerkt, noch Bildschirmfotos von der Auslastung der Kerne auf den Platten des E6600 Rechners. Welche leider Eingelagert sind. Also ich erfinde hier nichts um irgendwie Eindruck zu Schinden oder mir selbst was vorzumachen. Habe Crysis 2 u. 3 auch mehrmals durchgespielt. So wie ich das sehe, verstehst du unter Flüssig auch was anderes als ich. Mir Reichen 30 - 35 Frames bei Crysis, also wenn es nicht spürbar Ruckelt. Und wie schon bemerkt, es ist ein Riesen-Unterschied, wenn man bei so einer CPU dann nichts im Hintergrund hat, sondern das Betriebssystem Pur läuft. Wie gesagt, Probier das einfach mal Spaßeshalber aus.

So long....
 
@Luxman: Genau da liegt das Problem, flüssig definiert jeder anders. Kann ich aber nicht ganz verstehen.. Ego Shooter, selbst nicht so schnelle wie Crysis 3 sind mit unter 50 FPS nicht mehr spielbar. Gut, spielbar schon, aber die Ruckler nerven mich dann extrem. Selbst 50 FPS sind so lala, gerade okay, 60+ FPS wären besser. Habe ich dann noch weniger FPS (dazu braucht es im übrigen keine FPS Anzeige, dass merkt man) spiel ich das Spiel gar nicht bis selten weil ich mich sonst zu sehr aufrege :).

Ich habe früher auch mit 25-35 FPS gespielt. Ich fande das flüssig... naja, irgendwann kam ein neuer PC (mein erster richtiger Gaming PC) und zack, die doppelten FPS Werte. Der Unterschied war sowas von enorm, auf einmal wusste ich was flüssig ist.
 
Zuletzt bearbeitet:
Zurück
Oben