News Kaby Lake und Zen: Großer Start der Desktop-Plattformen zur CES 2017

SoapHero schrieb:
Ich hasse die Nvidia Treiber mit meine 780. Absoluter Horror!
Dem kann ich mit meiner GTX 670 im Zweitrechner nur zustimmen.:mad:
War eine gute Karte, bis Maxwell mit seinen Treibern kam.:(
 
Nightspider schrieb:
Noch immer keine Infos darüber ob Kaby Lake im Desktop mit eDRAM erscheinen wird?
Ergänzung ()

Kaby Lake macht einen größeren Sprung als Devils Canyon. Das ist doch schon lange bekannt.

Zudem hat Kaby Lake eben nicht den gleichen Chip bzw. die gleiche Architektur wie Skylake. Diese wurde für Kaby Lake verbessert.

Kaby Lake beinhaltet also schon Architekturverbesserungen, welche es sonst eigentlich nur bei komplett neuen Architekturen vorhanden waren.

Wie gut die Verbesserungen sein werden und wie groß der Geschwindigkeitszuwachs von Kaby Lake wird steht aber in den Sternen.

Ich rechne bei Kaby Lake mit einer ~2-5% besseren IPC.

Falls Kaby Lake mit eDRAM kommt wird Kaby Lake in Spielen 5-25% schneller sein als Skylake.

Ich hoffe als Broadwell Besitzer ja auch, auf Skylake bzw. Kaby Lake mit eDRAM, allerdings sieht man in den Folien das Broadwell für den Desktop immer noch bis in das Jahr 2017 weitergeführt wird. Das ist sehr ärgerlich und wie ich diese Woche, nach dem Defekt an meinem Z97 Mainboard feststellen musste, sind gute Mainboard für den Sockel 1550 mittlerweile sehr rar. Schade das Intel die Prozessoren mit eDRAM so stiefmütterlich behandelt, wo doch gerade diese eDRAM in einigen Fällen eine deutlich größere Leistungssteigerung bringt, als die ganzen Core Iterationen die Jahre zuvor.
 
issenia schrieb:
Dem kann ich mit meiner GTX 670 im Zweitrechner nur zustimmen.:mad:
War eine gute Karte, bis Maxwell mit seinen Treibern kam.:(


Da kann ich mit meiner GTX 780ti Matrix auch ein Lied von singen. In allen spielen die bis Maxwell rausgekommen sind eine sehr starke Karte und danach nur noch bessere mittelklasse mit 300+ Watt Stromverbrauch. Es gibt nur wenige aktuelle spiele, die damit gut skalieren. (Overwatch zum Beispiel, wobei das eh auf einer kartoffel läuft). Und deshalb werde ich mich hüten demnächst noch mal so eine teure Nvidia Grafikkarte zu kaufen, zumal sie bis auf die Titans die karten immer mit zu wenig Vram für die leistung ausstatten. Aber das gleiche wird sich auch bei Maxwell und Pscal wiederholen.

Wenn das pascal lineup komplett steht, wird Nvidia auch Maxwell liegen lassen und nichts mehr optimieren. Auch der Trend mit dem Vram setzt sich fort. In Full HD sind 3GB heute unterstes Minimum, wenn man auch kantenglättung nutzen will. Die 4GB auf den maxwell karten werden auch bald limitieren. Besonders 970 Besitzer werden ihr blaues wunder erleben, wenn plötzlich der Treiber nicht mehr das speichermanagement übernimmt und öfters die 3,5GB Volllaufen. Bei Pascal die 8GB der 1080 werden auch in 1-2 Jahren limitieren (AMD verbaut die Größe ja jetzt sogar schon auf den Performancechips...) Und da Nvidia ja keinen doppelten speicherausbau mehr erlaubt...
 
Marcel55 schrieb:
Es bleibt Spannend. Vielleicht kommen dann endlich die Prozessoren, die meinen 2500k in Rente schicken können.

Ich erwarte nicht mehr als doppelte Leistung im Leistungsrating für ca. 300€. Das sollte nach 5 Jahren Fortschritt doch drin sein oder?

Mit neuem Board und RAM also ca. 450-500€.

Ich glaube ehrlich gesagt nicht an eine Verdopplung des 2500k für 300 Euro in absehbarer Zeit.
Man kann jetzt schon absehen, dass die aktuelle Architektur (Skylake, Kabylake und Cannonlake) dies wohl nicht leisten wird bis zu ihrem Maximalausbau.
ZEN wird m.E. auch eher enttäuschen, als überraschen.
AMD ächzt finanziell aus dem letzten Loch, die Firma ist hochverschuldet, es ist ein Wunder und nur ATI und Intels "Gnade" zu verdanken, dass sie noch nicht pleite sind.
Von den letzten 10 Jahren waren 8 Verlustjahre.
ATI lief super, doch die Prozessorsparte reißt Jahr für Jahr das Ruder teilweise sehr tief in die roten Zahlen.
Ich denke nicht, dass sie ansatzweise die Fähigkeiten haben, einen Highendprozessor auf den Markt bringen zu können.

Wenn du auf Verdopplung aus bist, dann stell dich geistig schon mal auf einen Termin um 2020 herum ein.
Icelake ist die kommende neue Architektur und diese ist aktuell für 2018 projektiert, das kann sich aber locker auch um 1-2 Jahre verzögern.

Cannonlake hätte theor. eine Chance als 6-Kerner deine Wünsche zu erfüllen, aber wenn du dann bereits so lange gewartet hast, dann würde ich auch noch etwas länger warten und gleich in die neue Icelake-Architektur investieren, die danach kommt.

Ist doch eigentlich eine super Nachricht, oder?
Du wirst einiges an Geld sparen.

Ich würde an deiner Stelle mich auch davor hüten jetzt noch in eine 4-Kern-Architektur zu investieren, wenn du bereits einen guten 4-Kerner hast.

Einen i7 zähle ich auch als 4-Kerner, weil HT (4C/8T) reißt das Ruder auch nicht soooo markant herum.
Die Zeichen stehen klar auf >4C!
Siehe Konsolen und siehe Videobearbeitung in 4K!

Intel bremst hier künstlich seit mehreren Generation zunehmend den gesamten Konsumer-PC-Markt aus, um die Gewinnspanne zu maximieren und ich würde auf keinen Fall dieses Spiel mit spielen durch Investition in 4 Kerne noch 2016, denn dann wirst du 2020 wieder aufrüsten müssen für einen deutlichen Performanceschub und hattest von 2016 bis 2020 ca.500 Euro investiert für kleinere Geschwindigkeitsvorteile.

Die Consumer-CPUs haben inzwischen Zwergengröße auf dem Die erreicht und Intel verdient sich dumm und dämlich, indem sie weiterhin die hohen Preise verlangen.
Der von Intel erzielte Preis pro Diefläche dürfte aktuell Rekordstand erreicht haben.
So viel Asche, wie Intel derzeit aus einem Wafer rausquetscht, das ist schon fast wie Geld drucken!
;)
Nicht nur, dass sämtliche Skylakeprozessoren vom Prinzip her komplett überteuert sind, Intel setzt noch einen drauf, indem der Aufpreis für einen Skylake-i7 für der HT ist einfach unverschämt ist, wenn man es in Relation zum Dieflächenmehrverbrauch eines i5 setzt, der quasi gleich Null ist.

Während der Vorgänger des 2500k (Lynnfield) noch 300m2 Diefläche für 4Cores belegt hat, sind es nach Schätzungen im Internet im Schnitt nur noch ca. 120-130mm2 für 4Cores in der Skylakearchitektur!!
Mehr als eine Halbierung!
Und das bei gleich gebliebenen oder sogar leicht gestiegenen Preisen!

Würde man die Diefläche gleich groß lassen, könnten heute die Prozessoren mindestens doppelt so viele Cores haben, wie es aktuell der Fall ist und zugleich würde man genau so viele CPUs pro Wafer gewinnen, wie 2009.

Wie man sieht:
die "wahre Entwicklung" der letzten Jahre findet eindeutig in der Reduktion der Diesize statt!!
Sprich, Intel "entwickelt seit Jahren in die eigene Tasche" und weniger in Performance-Vorteile für den Konsumenten.

Ich zitiere:

"...a Skylake Core i7 6700 is the smallest Intel quad core outside an Atom. IIRC, the die size of SB Core i3 was bigger."

https://forums.overclockers.co.uk/showthread.php?p=29147092#post29147092

Da könnt ihr euch ungefähr vorstellen, wie profitabel es gerade für Intel läuft.
Sie verkaufen eine CPU von der Größe eine SB i3 für über 300 Euro!!
Schlaraffenland!!!
 
Zuletzt bearbeitet:
Eine verdoppelte Leistung ist eventuell sogar möglich. Aber nur, wenn die Instruktionen der jeweiligen CPU (von der Software) genutzt werden. Nur über IPC wird ein Verdopplung der Leistung von zb der Sandy Bridge Gen noch Jahre dauern.

Es sei denn, man nutzt die Wunderwaffe ;) Mehr Kerne. Dann gibt es auch heute schon mehr Leistung. Wer zb Sandy Bridge i3 mit 2 Kernen hat, kann auf 4 ("echte") Kerne aufrüsten. Oder sogar ein X99 Board mit Broadwell-E / Skylake-X kaufen.
 
Mr.Seymour Buds schrieb:
Es sei denn, man nutzt die Wunderwaffe ;) Mehr Kerne.

Genau so sehe ich es auch.

Allerdings versucht Intel eben diese "Wunderwaffe" so lange wie möglich (zumindest im Massensegment) zu vermeiden, weil damit die Diefläche pro CPU deutlich ansteigen würde und sie damit ihre Gewinnespanne deutlich schmälern würden.
 
SoapHero schrieb:
Ich hab mit jedem Treiber ein neues Problem. gerade hab ich einen alten wo noch alles halbwegs ok läuft, wird auch erstma nicht wieder geupdatet.

Hat man bei AMD aber auch teilweise mit Crimson, nur das sie mittlerweile schneller fixen und der Updater einen direkt drauf aufmerksam macht. Sonst wars aber klar von Nvidia. Wenn was bei denen EOL ist hat man die Arschkarte gezogen was Spiele GPUs betrifft der Support ist oft nur halbherzig dann. Am besten ist dann meistens auf dem letzten stabilen Treiber bleiben.
Deswegen sage ich ja: GTX 970 pfui, sobald da EOL angesagt ist wirds ne bittere Pille zu schlucken geben wobei das auch schwer abzuschätzen ist. Der Office GPU Support ist bei beiden eigentlich aber immer sehr gut nur braucht die kaum jemand noch weil die Onboard GPUs meistens reichen.
Die R9 390 8GB ist halt genauso stark bzw von der Architektur leicht im plus und hat dazu auch noch doppelt soviel Vram. Das beste ist aber der knallharte DX12/Vulkan Turbo der noch zünden sollte. Sonst vom Preis her besser.
Deswegen verstehe ich auch viele nicht die keine AMD GPU kaufen, da können sie ja sehr gut mithalten auch wenn der Stromverbrauch nicht der beste ist.

@Topic
Finde ich gut das sich kaum was tut.
Der Phenom II war ein echter langläufer und der Xeon wird es wohl ebenfalls und das beste: Nichtmal OC ist nötig. Phenom II und 2500k waren einfach die besten CPUs damals. Sandy war aber überlegen muss man sagen hohe IPC plus genauso oder sogar noch Taktfreudiger als die Phenoms.
Die ganzen kleinen AMD 4 Kerner (X4 640er) im Bekanntenkreis werden wohl auch noch recht lange alles was Multimedia + Office anbelangt mitmachen.
 
Glaubt denn hier wirklich jemand das eine CPU in 10nm mit 6+ Kernen und dann 10mb cache und 8mrd Transistoren billiger als heutige Fertigung wird?
Nochmal zur Erinnerung, die Problematik beim Einhalten von Moore's Law ist nicht unbedingt Technik für die immer kleineren Fertigungsprozesse bis wir bei echten 5nm angekommen sind, sondern die daran gekoppelten Kosten. Für den 14nm Prozess sind diese Ausgaben getätigt worden:
Die Fab8 in New York kostete Globalfoundries rund 6 Milliarden US-Dollar, das zugehörige R&D-Zentrum noch einmal 2 Milliarden. Der nächste Schritt ist ULV und das kostet nochmal mindestena 50%mehr, da alles neu gebaut werden muss im Vergleich zur multi pattern Emulsionslithografie die wir heute einsetzen.

Die immensen Investitionen sind auch der Grund, warum Intel die Fab D1X für mehrere Milliarden US-Dollar auf 450-mm-Wafer umrüstet, denn mit größeren Siliziumscheiben sinken die Produktionskosten pro Chip deutlich. Nur mal zum Nachdenken, die yild raten werden auch immer schlechter je feiner die Strukturen, zwar können mehr Chips pro Wafer erzeugt werden aber es ist mehr Ausschuss odern Chip mit teildefekten. (Ein i5 hat nur 6mb Cache... woran das wohl liegt statt 8.)
 
Unlimited1980 schrieb:
Genau so sehe ich es auch.

Allerdings versucht Intel eben diese "Wunderwaffe" so lange wie möglich (zumindest im Massensegment) zu vermeiden, weil damit die Diefläche pro CPU deutlich ansteigen würde und sie damit ihre Gewinnespanne deutlich schmälern würden.

Ganz ehrlich, eine 6 Kern Intel CPU kostet um die 50€ mehr, als ein Qudcore i7... Beim kleinen i7 kommt da neben der CPU ja auch noch die GPU dazu. Intel würde es sicher günstiger kommen, wenn sie 6 Kerner ohne GPU bauen würden. In der Mainstreamplattform kommt man da aber schnell in TDP Probleme, zudem hat man den markt ja so ganz gut im Griff.

Aber hier scheint ja auch ein Vorteil von Zen zu sein. Nach ersten Gerüchten soll die Diefläche pro Kern deutlich kleiner sein als bei den aktuellen Intels.
 
Der 6 Kerner ist ja auch der Abfall von der Produktion. Wo soviel kaputt ist das es nicht mehr zum Deka Core, okta Core reicht, noch für viel Cache oder Optionen die ein Xeon e5 statt einem i7 für 2011-3 ausmachen. Statt den oktacore ist es dann noch weniger... Macht er wenig Takt mit oder braucht viel Spannung , wird es ein 6850k ist ein Fehler im Speichercontroller, Cache defekte defekte cpu Bereiche usw. Bis zum absoluten Abfall mit 28pci lanes auskommen muss. Bevor man das wegwirft verramscht man die Dies als 6 Kern Einsteiger CPU ;)
Kleineres Die bei Zen = weniger avx Einheiten oder andere Asics, weniger Cache, höhere Packdichte damit erhöhte Hitzeentwicklung und daher auch eine restriktive TDP -> Folgen siehe oben.
 
Zuletzt bearbeitet:
Willst du damit sagen, dass einem Intel bei einer 450€ CPU quasi Abfall verkauft?
 
Aus Sicht von Teil defekten Dies ist es so. Die besten Chips sind selektierte xeon Deka /oktacore mit viel Takt, wo alles perfekt sein muss, dann geht es in der Qualität immer weiter runter. Wobei Qualität jetzt nicht heißen muss das der Rest Chip nicht auch solide ist, nur reicht es nicht zum 8 oder 10kern Prozessor. Da entscheidende Bereiche Fehler aufweisen. Ein 980ti ist auch Resteverwertung der Titan x des Big Maxwell, von Small Maxwell aus gesehen ist eine 970 so viel Schrott das nichtmal der volle Cache noch das ganze SI noch funktionierte.... da wurde eine Menge deaktiviert. It's a feature das man trotzdem 4gb nutzen könnte...

Gleiches Spiel ddr3/4 Ram. Micron produziert 100chips. 4 davon erreichen 4000mhz bei guten timjngs und Spannung der Rest wird dann immer weiter herabgesetzt bis es ddr4 2133 mit Std Timings ist. Was selbst das nicht schafft kommt in die Tonne.
U get what u pay 4..
 
Zuletzt bearbeitet:
Unlimited1980 schrieb:
Allerdings versucht Intel eben diese "Wunderwaffe" so lange wie möglich (zumindest im Massensegment) zu vermeiden, weil damit die Diefläche pro CPU deutlich ansteigen würde und sie damit ihre Gewinnespanne deutlich schmälern würden.
Gut die Hälfte oder nocht mehr der S. 1151 Dies wird von der iGPU eingenommen, die Anzahl der Kerne könnte man also leicht steigern, wenn man die iGPU weglassen würde, ohne dass die Kosten deswegen steigen würden. Der Punkt ist aber wohl eher, dass die Konsumten an die sich diese CPUs richten, kaum davon profitieren würden und im Gegenteil eher verlieren würden, da man bei mehr Kernen dann wohl mit dem Takt runter müsste um die TDP des S. 1151 zu halten und dann läuft SW die nur 4 Kerne auslasten kann, eben auch langsamer. Für alle die viele Kerne wollen, gibt es ja den großen S. 2011-3, der hat auch mehr PCIe Lanes und eine breitere RAM Anbindung, damit kann man die Leistung der Kerne auch besser nutzen.
 
Unlimited1980 schrieb:
Die Consumer-CPUs haben inzwischen Zwergengröße auf dem Die erreicht und Intel verdient sich dumm und dämlich, indem sie weiterhin die hohen Preise verlangen.
Der von Intel erzielte Preis pro Diefläche dürfte aktuell Rekordstand erreicht haben.
So viel Asche, wie Intel derzeit aus einem Wafer rausquetscht, das ist schon fast wie Geld drucken!
;)
Nicht nur, dass sämtliche Skylakeprozessoren vom Prinzip her komplett überteuert sind, Intel setzt noch einen drauf, indem der Aufpreis für einen Skylake-i7 für der HT ist einfach unverschämt ist, wenn man es in Relation zum Dieflächenmehrverbrauch eines i5 setzt, der quasi gleich Null ist.

Während der Vorgänger des 2500k (Lynnfield) noch 300m2 Diefläche für 4Cores belegt hat, sind es nach Schätzungen im Internet im Schnitt nur noch ca. 120-130mm2 für 4Cores in der Skylakearchitektur!!
Mehr als eine Halbierung!
Und das bei gleich gebliebenen oder sogar leicht gestiegenen Preisen!

Würde man die Diefläche gleich groß lassen, könnten heute die Prozessoren mindestens doppelt so viele Cores haben, wie es aktuell der Fall ist und zugleich würde man genau so viele CPUs pro Wafer gewinnen, wie 2009.

Wie man sieht:
die "wahre Entwicklung" der letzten Jahre findet eindeutig in der Reduktion der Diesize statt!!
Sprich, Intel "entwickelt seit Jahren in die eigene Tasche" und weniger in Performance-Vorteile für den Konsumenten.

Im Ansatz nicht schlecht gedacht, aber: Die Fläche pro Chip ist zwar gesunken, aber die Kosten pro Chip sind aufgrund der immensen Entwicklungsaufwände und Produktionskosten für 22/14 nm FinFET auch mind. im gleichen Maße gestiegen.

Das darf man eben nicht unberücksichtigt lassen. Gegen Ende war es vermutlich sogar billiger, 300 mm² auf planaren 32 nm zu produzieren, als aktuell 150 mm² auf 14 nm FinFET.
 
Zurück
Oben