News Intel Core i7-6950X: Support-Seiten bestätigen neue CPU-Spitze

Sithys schrieb:
Warum tut sich bei den MHz eigentlich so wenig? Wird schlichtweg nicht mehr benötigt oder was gibt es hier für Gründe?

Das Problem bei kleiner werdenden Strukturen ist eben auch, dass die Metallisierungsebenen ebenfalls kleiner werden müssen. Das bedeutet aber, dass die Abstände der Leiterbahnen sich verringern und somit die RC-Konstanten zunehmen. Low-k-Dielektrika sind deswegen ein momentaner Forschungsschwerpunkt. Hinzu kommt, dass über immer kleineren Dieflächen auch immer mehr Verlustleistung pro Fläche abgeführt werden muss. Deswegen lassen sich auf großen Dieflächen mit vielen Einheiten und deren Synchronisation untereinander nicht die Frequenzen mit hoher Ausbeute erzielen wie bei Vierkern-CPUs. Man könnte zwar die Betriebsspannung anheben, was aber wiederum zu hohen Feldstärken im Kanalbereich führt und das Gateoxid (3nm) anfängt durch heiße Elektronen zu altern und zudem Tunnelströme auftreten. Dadurch nimmt aber wiederum die Verlustleistung zu und der Prozessor degeneriert schneller.

@Topic
Ich hoffe, dass CPUs wie der i7-6900K und AMDs kommende Zen-Generation es endlich möglich machen, auch zu Hause komfortabel und leistungsstark mit Software wie CST Studio arbeiten zu können, ohne dass gleich eine einzige Raumheizung läuft (toll gerade im Sommer, nicht ;-) ?). Wäre nicht schlecht, wenn Intel die TDP-Kategorien mal etwas feiner auflöst.
 
Warum stagniert die Taktfrequenz bei deutlich unter 4GHz?

Nachdem die 1GHz Marke geknackt war ging es in Riesenschritten in Richtung 3GHz und mehr aber die 4GHz Marke scheint ja selt vielen Jahren unerreichbar? Die Zeiten der riesigen Sprünge sind zwar vorbei aber es gibt ja in vielen Bereichen stetig kleinere Fortschritte. Bei der Taktfrequenz scheint sich aber gar nichts zu tun?
 
Fragger911 schrieb:
Warum nicht alles elektrisch, da kann man wenigstens versuchen auf grünen Strom zu

Weil Stromgewinnung relativ ineffizient und teuer ist. Mit Strom heizen ist einfach Verschwendung. Auch mit grünem Strom.

setzen. Oder meinst du Gas und Öl zu verheizen sind besser für die Umwelt (auch die Steuerung und die Pumpen brauchen Strom)?

Immer noch besser mit knapp 100% Wirkungsgrad mit Gas zu heizen als mit 35% Wirkungsgrad aus Gas Strom zu erzeugen und dann mit diesem zu heizen.

... wie weit soll ich noch machen?

Um ehrlich zu sein, du hast dich schon so weit vom Thema entfernt, keine Ahnung was du zu sagen versuchst. Aber mach ruhig weiter. Zur Erinnerung, du versuchst mir gerade zu darzulegen, dass es völlig ok ist, einen Stromfresser als PC anzuschaffen wenn man Strom sparen will. Warum du mir dabei zu erklären versuchst, dass eine Mikrowelle nicht mit Gas läuft, erschließt sich mir leider nicht.
 
Wattwanderer schrieb:
Warum stagniert die Taktfrequenz bei deutlich unter 4GHz?

Nachdem die 1GHz Marke geknackt war ging es in Riesenschritten in Richtung 3GHz und mehr aber die 4GHz Marke scheint ja selt vielen Jahren unerreichbar? Die Zeiten der riesigen Sprünge sind zwar vorbei aber es gibt ja in vielen Bereichen stetig kleinere Fortschritte. Bei der Taktfrequenz scheint sich aber gar nichts zu tun?

Das Problem ist das Silizium DIE. Das Material kann nicht mehr als 5GHz vernünftig ab. Ab 5GHz etwa werden die Leckströme zum Problem. Kann man sich vorstellen, wie Energie, die nicht in Rechenleistung gesteckt wird sondern verpufft. Das heißt, ohne genaue Zahlen, dass man für ein Paar MHz mehr, nicht mehr einen TDP von 250W hat sondern einen von 500W. Durch die Leckströme muss man viel mehr Volt, Energie in das System blasen und irgendwann zerreißt es das DIE. So die Gerenze des machbaren sind so aktuell bei nem i7 bei etwas über 6GHz. Allerdings sind wir da schon im Stickstoffkühlungsbereich. Ich meine, der Aktuelle Taktekord liegt noch bei nem Amd Bulldozer mit über 8Ghz.
Intel, wie auch AMD, musst schmerzlich hinnehmen, das der Takt endlich war. P4 und Bulldozer.... . Kurz kamen die ersten Test mit Graphen mit mehr als 1000Ghz Takt. War aber leider nicht möglich, die in die Aktuelle Architektur zu zwingen und die DIE Größe war auch nen Riesen Problem.
Also ist die momentane Taktik, mehr Kerne.
 
@Wattwanderer: die Produktion von CPU dies ist nicht wie die Produktion von simplen 20kg Holzbetten. Da liegen x mal mehr Fehlerquellen vor. Und wenn alle gleich stark wären, dann wär glaub ich die Chance, das ein Fehler alles vermasselt, verdammt stark. Deswegen können nur ein paar der Chips über die 4 GHz Marke kommen. Von den verkauften Modellen wiederum gibt es vielleicht eins-drei von hundert, die stabil auf 5 GHz laufen. Theoretisch könnte Intel diese auch für 1000€/Stück verkaufen. Nur wäre dann mit der Garantie keine Wirtschaftlichkeit mehr zu erreichen, weil für Ersatz dann wiederum ca. 1000 i7-6700 zu produzieren wären, von denen einer wieder über 5GHz kommt.

Meine bisherige Erklärung war mehr mathematischer Natur. Elektrotechnisch gesehen spielen z.b. die Größe der Leiterbahnen/ Bauelemente und die Präzision der eingesetzten Werkzeuge eine große Rolle. Da kann einfach unheimlich viel schief laufen!
@Poster über mir: vielen Dank. Daspielt glaube ich das Coulombsche Gesetz eine große Rolle, da V mal A gleich W nur bei "normalen" Temperaturen gilt. @Wattwanderer: Google mal nach "MOSFeT" und "FinFeT"
 
Zuletzt bearbeitet:
Mortal1978 schrieb:
Meine bisherige Erklärung war mehr mathematischer Natur. Elektrotechnisch gesehen spielen z.b. die Größe der Leiterbahnen/ Bauelemente und die Präzision der eingesetzten Werkzeuge eine große Rolle. Da kann einfach unheimlich viel schief laufen!
@Poster über mir: vielen Dank. Daspielt glaube ich das Coulombsche Gesetz eine große Rolle, da V mal A gleich W nur bei "normalen" Temperaturen gilt. @Wattwanderer: Google mal nach "MOSFeT" und "FinFeT"

Deswegen habe ich es so einfach wie möglich erklären wollen. Das Coulombgesetz ist nur eins der Probleme. Jeder Elektrischer Strom hat ein Magnetfeld, deswegen kann man auch nicht unendlich viel Energie reinstecken, weil dann die Interferenzen steigen. Dazu kommt die chemischen Eigenschaft von Silizium, das nicht unbedingt mit seiner Belastbarkeit angibt. Dazu kommt auch, dass sich die Teile ab bestimmten Größen behindern. Generell ist aber das Größte Problem, dass die Transitoren einfach nicht häufiger Schalten lassen. Lässt sich gut mit dem menschlichem Herzen vergleichen, irgendwann geht es nicht mehr schneller und es ist dann auch nicht mehr gesund. Das eingesetzte Material ist eben Murks....
 
DoS007 schrieb:
Zukunftsleistung
Die Rechenleistungsgewinne in der Zukunft wird m.M.n. durch Parallelisierung und stärkerer Einbindung der Grafikkarte erreichert.

Single-Core Betrachtung
Insofern scheint eine Kernanzahlerhöhung sinnvoll zu sein. Fakt ist, dass die schnellsten Single-Core Rechner der I7 4790k und I7 6700k sind (1 Prozentpunkt unterschied; also fast nichts). Beide verfügen über 4 Kerne.

Leistung pro Kern im Vergleich mit mehr Kern-Modellen
Man nehme als Referenzbenchmark diesen von Computerbase:
  • I7 4790k: 100% auf 4 Kerne. Je Kern 25 Prozentpunkte.
  • I7 5930k: 108% auf 6 Kernen. Je Kern 18 Prozentpunkte.
  • I7 5960X: 117% auf 8 Kernen. Je Kern 14,625 Prozentpunkte.

Lokales Fazit:
Bautechnisch ist es offenbar nicht möglich die Leistung mit den Kernen linear zu skalieren. Ganz im Gegenteil, dass sieht eher sehr traurig bei mehr als 4 Kernen aus.

Multicore-Unterstützung von Programmen
Dass viele normale Programme, wie etwa Firefox, Thunderbird, Word, Excel mit mehr als 4 Kernen sowieso nichts anfangen können, dürfte bekannt sein.
Aber auch bei scheinbar sinnvollen Anwendungen, sind mehr als 4 Kerne nicht sinnvoll. Zwei Beispiele:
Lokales Fazit: Selbst bei scheinbar tollen Multi-Core Leitbeispielen ist die die Multi-Core Unterstützung bei mehr als 4 Kernen lachhaft. Wenn jemand hiermit meinungstechnisch nicht übereinstimmt, hätte ich gerne ernsthafte Tests die das Gegenteil beweisen. Und ob sich das in Zukunft mit Direct X 12 oder sonst was ändert, glaube ich erst dann, wenn ich bei einigen nenennswerten Spielen aussagekräftige Versuche mit entsprechenden (rund laufenden) Ergebnissen sehe - alles andere ist hohles Marketing und für den Anwender nichtsnützig.

Fazit
Der Single-Core Leistungsabfall von 4 bis 6 oder 8 Kernen ist traurig, die effektive Multi-Core Unterstützung in verwendeten Anwendungen ist miserabel, mehr als 4 Kerne kann ich also nicht ernst nehmen. Über hochtrapende Kommentare über die Mehrkernmodelle kann ich nur sehr müde lächeln.
Die bisherigen potentiellen Anwendungsfälle sind exotisch.

Mann muss schon Benchmarks lesen können um eine Einschätzung abgeben zu können. Was bringt mir ein QuadCore vs OctaCore-Vergleich in Spielen die ohnehin alle im GPU-Limit sind? Zudem skalieren alte Spiele-Engines kaum über mehere Kerne. Das änderte sich in den letzten Jahre und gerade mit DX12 nun massiv. Warum? Weil es schlicht nicht weiter geht mit dem Takt und mit der IPC. Man kann nun also in der Ecke jammern gehen oder als Entwickler versuchen in die Breite zu entwickeln um entsprechend mehr Leistung aus der CPU zu quetschen. Wer das nicht tut hat eben Pecht gehabt. Zumindest hat man dann mit einem 8 oder 10 Kerner keinen Nachteil. Mein 5960x läuft auch mit 4,5GHz.

Und gerade der Blick auf andere Systeme zeigt eben wie langlebig ein 5960x sein wird und weshalb gerade der Schrei der Entwickler nach DX12 so groß ist. Notebooks, Konsolen und Server alle wollen eine hohe Effizienz. Da kann man auch keine 250Watt an CPU Abwärme bewältigen. Der Takt bewegt sich daher immer um die 3Ghz und dennoch muss die Software auf allen Systemen flüssig laufen. Bis also ein 5960x@4,5Ghz veraltet oder unbrauchbar wird muss noch einiges in der Entwicklung passieren. Besonders müssen diese Games eben auch auf Notebooks laufen und die Massen erreichen. Wann wird wohl die Leistung eines 5960x@OC in einem Notebook zum Standard?

Wie gesagt skalieren viele moderne Engines bereits mit meheren Kernen.
https://www.computerbase.de/2014-08...#diagramm-call-of-duty-black-ops-ii-640-x-480
Hier 30% mehr Leistung ob wohl der 4970k 1GHz höher taktet. Alles Dx11 und auch aus deinem verlinkten Test.

http://www.pcgameshardware.de/Dirt-Rally-Spiel-55539/Specials/Benchmark-Test-1182995/
http://www.pcgameshardware.de/F1-20...s/F1-2015-Techniktest-und-Benchmarks-1164779/
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Man kann praktisch jeden aktuellen Test nehmen. Natürlich sind die Games in Minimalauflösung und die CPUs teilweise untertaktet um das GPU-Limit auszuschließen. Aber es ging um die Frage: Bringen mehr Kerne mehr Leistung? Ja, tuen sie. Und das auch in aktuellen Spielen. Braucht man persönlich diese Leistung wenn auch ein QuadCore bereits schnell genug ist? => Muss jeder selbst wissen. Der Leistungsunterschied der CPUs zueinander ist ja immernoch gegeben. Wird AMD oder Intel nun CPUs verschenken, wenn man auf 7-10 Jahre hinaus keinen Umsatz mehr sehen wird? Nö.
 
Zuletzt bearbeitet:
Fragger911 schrieb:
AMD hat schon oft versprochen, nur leider nicht immer gehalten... deshalb die Skepsis (aber trotz allem die Hoffnung).

Ganz ehrlich, ich würde es ihnen gönnen, denn sonst ist es bald vorbei mit denen. Aber ich hab auch beim Warten auf Bulldozer aufs falsche Pferd gesetzt. Da ist meine CPU gleich mal um mehr als 50€ teurer geworden als die Benchmarks kamen und ich musste zähneknirschend trotzdem den i5 kaufen. Wenn man aber bedenkt, dass seit Sandy auch bei Intel nicht mehr viel lief, weil geringer Bedarf an noch stärkeren CPUs und Konkurrenzlosigkeit sie dazu gebracht haben in ihrem gewohnten Schema zu verweilen, muss AMD dank diesem relativ innovationslosen Intelschema keine riesigen Sprünge machen. Sandy war ein riesen Fortschritt, aber dann stagnierte es. Den größten Vorteil haben die neuen Intel Plattformen ja durch bessere Speicheranbindung und schnelleren Speicher und da kann AMD hoffentlich mithalten. Mit Excavator hat AMD ja auch schon gezeigt, dass die IPC von der neuen Architektur gut profitieren. Daumen drücken und abwarten, ob AMD es noch mal schafft wenigstens die Leistung eines i5 und i7 zu erreichen.
 
Krautmaster schrieb:
Du meinst Zen :) dürfte halt noch n Jahr dauern.

Nein ich werde mir nie mehr eine Amd Apu kaufen, Debian:
A4 5400, einwandfrei

A8 7600, A10 7800, andauernd schmiert der Igp Treiber ab,
alles hängt und stockt
:kotz:

----------------------------------------------------------------------------------------------------
(mit dem A10 gibt(gab) es unter Windows auch nur Probleme,
hatte den Entschluss gefasst: Cpu ausbauen, Fenster auf, schauen das keiner unten vorbei geht und ab damit zu den Müllcontainern)

A4 5400 wieder rein, alles läuft;)
 
Zuletzt bearbeitet:
D708 schrieb:
Deswegen habe ich es so einfach wie möglich erklären wollen. Das Coulombgesetz ist nur eins der Probleme. Jeder Elektrischer Strom hat ein Magnetfeld, deswegen kann man auch nicht unendlich viel Energie reinstecken, weil dann die Interferenzen steigen. Dazu kommt die chemischen Eigenschaft von Silizium, das nicht unbedingt mit seiner Belastbarkeit angibt. Dazu kommt auch, dass sich die Teile ab bestimmten Größen behindern. Generell ist aber das Größte Problem, dass die Transitoren einfach nicht häufiger Schalten lassen. Lässt sich gut mit dem menschlichem Herzen vergleichen, irgendwann geht es nicht mehr schneller und es ist dann auch nicht mehr gesund. Das eingesetzte Material ist eben Murks....

Diese einfach Erklärung führt leider dazu, dass die Erklärung sachlich betrachtet völlig falsch ist. Silizium an sich ist überhaupt nicht das Problem, was man leicht daran einsehen kann, dass sich in Bipolar-Technik mit selbstjustierendem Emitter und SiGe-Basis problemlos Frequenzen von 100GHz erreichen lassen. Auch die aktuellen Transistorparameter/-bauformen sind nicht verantwortlich für diese Frequenzlimitierung. Die erreichbare Frequenz ist unter anderem umgekehrt proportional zum Quadrat der effektiven Kanallänge. Die ist aber in der Vergangenheit stetig gesunken. Aktuell limitieren ausschließlich die kleiner werdenden Metallisierungsebenen die erreichbaren Frequenzen.
 
DoS007 schrieb:
Multicore-Unterstützung von Programmen
Dass viele normale Programme, wie etwa Firefox, Thunderbird, Word, Excel mit mehr als 4 Kernen sowieso nichts anfangen können, dürfte bekannt sein.
Aber auch bei scheinbar sinnvollen Anwendungen, sind mehr als 4 Kerne nicht sinnvoll.

So ein Blödsinn, woher nehmen sich eigentlich Leute die keine Ahnung von der Materie haben den Mut und verzapfen so einen Unsinn?

Entweder profitieren Anwendungen von mehr als einem Kern oder nicht. Ernsteres ist seit Jahren Standard.

Software (und damit auch Spiele) werden NICHT nach Kernen programmiert, sonder nach Threads - und das sind andere Threads als Intels HT. Es interessiert einen Programmierer nicht, wie viele physische Kerne in einem Prozessor sind, das kann sich ohnehin von Maschine zu Maschine ändern. Man erstellt Threads - i.d.R. Dutzende - und diese Threads arbeiten ihre Aufgaben ab, erstellen weitere Threads, warten auf Ergebnisse anderer Threads und synchronisieren sich untereinander. Das war's - es ist die Aufgabe der Laufzeitumgebung sowie des Betriebssystems sich um die Verteilung auf ALLE zur Verfügung stehenden logischen Kerne zu kümmern, und diese unterstützen deutlich mehr Kerne als du dir vorstellen kannst.

Windows hat beim “Nichtstun“ schon über 100 Hauptthreads am laufen, die wiederum weitere Threads triggern. Ein moderner Browser hat ebenfalls Dutzende Threads am laufen, die profitieren alle von mehr Kernen. Spiele lassen deutlich mehr Threads sowohl asynchron als auch parallel laufen.

Die Tatsache, dass du keine deutliche Leistungssteigerung siehst liegt eher daran, dass andere Faktoren limitieren (Grafikkarte, SSD) oder ein Vierkerner noch schnell genug ist, um alle Anfragen abzuarbeiten. Das waren die C2D Exxx 2007 allerdings auch... damals jedenfalls. Wenn du dir Spielebenchmarks anschaust solltest du dir allerdings vernünftige Benchmarks anschauen, wo nicht die Grafikkarte der Flaschenhals ist und vor allem nicht die durchschnittlichen FPS sondern die minimalen FPS gemessen werden. Gerade hier merkt man heute schon den Vorteil der 6 und 8 Kerner.

In Anwendungsfällen, bei denen sich Aufgaben stark parallelisieren lassen erreicht man mit einem 6 Kerner problemlos 40+% Performancesteigerung im Vergleich zu einem 4 Kerner. Habe ich mit meiner Software selbst schon gemessen.
 
Warum versucht Intel nicht auf GaAs auszuweichen? Laut Wikipedia soll damit ja über 250GHz machbar sein.

In der CPU "Steinzeit" hatte zumindest Cray solche Rechner schon gebaut?
 
EisSalat schrieb:
Nein ich werde mir nie mehr eine Amd Apu kaufen...

Zen als Architektur wird auch eine Materialisierung als reine CPU bekommen, aber selbstverständlich ebenso als APU (und das eher als ein FX-Zen zu kaufen ist).
Zen überall, von Tablet-SoC über APU hin zu Desktop-FX und Server... GoGoGo :)
 
Der Name Core i7-6850K erinnert mich an meinen ersten Core2Duo der hieß E6850:p
 
Wattwanderer schrieb:
Warum versucht Intel nicht auf GaAs auszuweichen? Laut Wikipedia ...

Wiki sollte wohl auch die Hemmnisse bei der Verwendung von GaAs erwähnen, wie:
- Herstellungsverfahren (die Grundkomponenten und deren Verabeitung sind aufwendiger als bei Silizium)
- Wirtschaftlichkeit (150mm Wafer sind real, Möglichkeit von 200mm nachgewiesen) vs Silizium (300mm Standard, Planung steht bereit für 450mm)
- geringere Wärmeleitfähigkeit
- Preis (ich las von Faktor 3)
- Toxizität, höherer Aufwand bei Entsorgung

Dazu auch mal ein interessanter Artikel.
 
EisSalat schrieb:
Nein ich werde mir nie mehr eine Amd Apu kaufen, Debian:
A4 5400, einwandfrei

A8 7600, A10 7800, andauernd schmiert der Igp Treiber ab,
alles hängt und stockt
:kotz:

----------------------------------------------------------------------------------------------------
(mit dem A10 gibt(gab) es unter Windows auch nur Probleme,
hatte den Entschluss gefasst: Cpu ausbauen, Fenster auf, schauen das keiner unten vorbei geht und ab damit zu den Müllcontainern)

A4 5400 wieder rein, alles läuft;)

Liegt an Debian, nicht an AMD. Außerdem: Wenn es unter Windows auch an AMD läge, meinst du nicht, daß ALLE Kunden die einen A10 haben, dann nicht dieselben Probleme hätten wie du und daß das dann bekannt werden würde? Was meinst du was dann los wäre!
 
Wattwanderer schrieb:
...
In der CPU "Steinzeit" hatte zumindest Cray solche Rechner schon gebaut?

Jap, genau 1, wegen der Kosten - aber auch das steht im Wiki.
 
Bitte AMD, oh bitte bitte setz die Zen-Architektur nicht in den Sand!
Intel ruht sich schon lange auf den eigenen Lorbeeren aus, weil keine direkte Konkurrenz mehr da ist. Ich behaupte mal, dass wir schon längst 6-Kerner im Mainstream-Bereich hätten und diese nicht nur den Enthusiasten vorenthalten wären, wenn die Konkurrenz nicht schlafen würde. Intel kann nun horrende Preise für solche CPUs verlangen, es fehlt einfach der gesunde Wettstreit.

Ich halte sehr viel von mehr Kernen. Es mag Bereiche geben, bei denen sie aufgrund des niedrigeren Takts langsamer arbeiten als CPUs mit weniger Kernen. Aber das sind in der Regel auch die Bereiche, bei denen man keine hohe Leistung braucht, denn wäre dies der Fall, so würde der Entwickler sich Mühe geben, die zur Verfügung stehende Leistung auch zu nutzen.
Im medialen Bereich (Video- und Bild-Bearbeitung) profitiert man von jedem weiteren Kern, weil solche Software meistens proportional damit skaliert und die Arbeit auf alle Kerne gleichmäßig verteilt. Daher ist es in jedem Fall sinnvoll, dass die Entwicklung in diese Richtung weitergeht.
 
Eins ist ja wohl klar. Sollte sich ein Preis von 999$ für den 6950X als wahr ergeben,sicher nicht,weil Intel was zu verschenken hat,sondern weil AMD was brauchbares entwickelt hat.
Hat aber auch zu Folge,das AMD auch kräftig zulangen wird,wie damals beim Athlon 64.
 
Ned Stark schrieb:
Entweder profitieren Anwendungen von mehr als einem Kern oder nicht. Ernsteres ist seit Jahren Standard.

Standard ist es wohl eher nicht, die allermeiste Software profitiert auch im Jahr 2016 eben nicht von mehreren Kernen.

Windows hat beim “Nichtstun“ schon über 100 Hauptthreads am laufen, die wiederum weitere Threads triggern. Ein moderner Browser hat

Soweit, so gut. Aber sehr oft schlafen die Threads aber einfach alle, da sie auf irgendein Ereignis warten und profitieren in vielen Fällen eben nicht von mehr Kernen. Und einfach eine Masse an Threads zu erzeugen ist auch kein Allheilmittel, die sind dann in der Hauptsache mit ihrer Kommunikation und Synchronisation untereinander beschäftigt. Macht nur das Entwickeln und Debuggen komplizierter.

In Anwendungsfällen, bei denen sich Aufgaben stark parallelisieren lassen erreicht man mit einem 6 Kerner problemlos 40+% Performancesteigerung im Vergleich zu einem 4 Kerner. Habe ich mit meiner Software selbst schon gemessen.

Die meisten Anwendungsfälle und eben auch Spiele lassen sich aber eben oft nicht gut parallelisieren.
 
Zurück
Oben