Wie ist die Zukunft von CPUs im Bezug auf die Single-Core-Leistung?

Dabei seit
Juli 2012
Beiträge
8.787
#21
Du hast deine Links irgendwie nicht richtig eingebunden, da ist auch die URL verkürzt, nicht nur der sichtbare Text.
 

homerpower

Rear Admiral
Dabei seit
Juni 2010
Beiträge
5.577
#22
Dabei seit
Okt. 2013
Beiträge
3.190
#23
Klar ist es für Intel
Wer sich z.B. "damals" einen 4-core 2500K gekauft hat, der ist heute noch gut dabei, aber wer auf das Intelmarketing reingefallen ist und stattdessen lieber einen "schnellen" Dualcore gekauft hat... lool, sorry....
Naja, über "gut dabei" lässt sich streiten. Es geht ja bei einem System nich immer nur um die CPU, andere Dinge werden auch erneuert und verändern sich - ein 2500k System ist meiner Meinung nach eben auch nur ein altes System, das man eben noch ganz okay für manche Dinge nutzen kann. Aber "gut dabei" definiere ich anders.
 

DF86

Cadet 1st Year
Dabei seit
Juli 2017
Beiträge
8
#24
Habs selbst bemerkt, hatte das schon einmal gepostet das ging beim kopieren wohl schief - aber jetzt sollte es passen.
 
Dabei seit
Apr. 2011
Beiträge
3.814
#25
Ein Grafikkarte hat heute 4000 G/C/PU Kerne und heutige CPUs werden auch dahin gehen in naher Zukunft.

SingleCore Leistung wird eigendlich nicht mehr benötigt. Alles lässt sich paralellisieren!
Dann sag dass mal Autodesk (AUTOCAD) und Microsoft (Office), deren Produkte nutzen auch 2018 nahezu nur einen Kern. Deshalb macht es auch noch Sinn in Business/Office-PCs noch 2-Kerner zu verbauen (mit möglichst hohen Takt..)
 
Dabei seit
Juli 2012
Beiträge
8.787
#27
Naja "überhaupt nicht" ist jetzt der falsche Ausdruck. Im einen Link geht's um den 8350, im anderen um den 8370. Des Weiteren solltest du Vishera mit dem i5-3570K vergleichen, da es dieselbe Generation ist.

Aber ja, man kann erahnen, dass der FX-83X0 in 5 Jahren zulegen konnte im Vergleich zum i5-3570K. Aber interessiert das einen Käufer nach 5 Jahren noch? Die ersten Jahre war der i5 vorne, dann haben sie gleichgezogen und nach 4-5 Jahren war dann der FX vorne. War es denn dann wirklich so schlau, den FX zu nehmen? Nach 5 Jahren sind wohl beide CPUs am Limit.

@Steffenkrue:
Solche Aussagen kannst du getrost ignorieren, die gab es zu allen möglichen Themen der IT, und alle wurden maßlos überboten.
Mehr als 5GHz haben wir doch jetzt schon erreicht, eine Fertigungsstufe kleiner und die 5GHz werden der Standard bei den nächsten CPUs.

Vielleicht war das bezogen auf die damals verwendeten Materialien oder ähnliches...
 
Zuletzt bearbeitet:
Dabei seit
Dez. 2007
Beiträge
2.606
#28
Ein Phenom I war mit seinen vielen Kernen auch nach mehreren Jahren noch langsamer als die Intel-Prozessoren mit weniger Kernen.
Was zu einem großen Teil aber einfach der unglaublich guten Fertigung von Intel geschuldet war.

ein Agena X4 9100 kam damals auf 1.8 GHz (release November 2007)
Der Agena 9400 - der schnellste AMD der noch 2007 released wurde hatte gerade mal 2.3 GHz
https://en.wikipedia.org/wiki/AMD_Phenom

Intels Core2 gingen z.T. bis über 3GHz.

Der E6850 mit 2 Kernen hatte damals genau 3GHz. (ich glaube Juli 2007)
https://en.wikipedia.org/wiki/List_of_Intel_Core_2_microprocessors


D.h. nur mal Taktmäßig hatte Intel damit 30% Vorsprung. Und gerade bei der IPC machte aber die Intel Core2 Arch ja einen RIESEN-Quantensprung nach vorne. Man war erstmals gleichauf bzw. VOR AMD auf IPC-Basis betrachtet ! Was dann noch erschwerend dazu kam.

Klar dass dann ein Dual-Core mit mehr als 30% mehr Single-Core Leistung (IPC*TAKT) vor allem in den DAMALS noch massiv single-core optimierten Softwares eben mit einem 4 Kernen mit halten konnte.

Dazu kam dann noch der Compiler-Krieg - der AMD CPUs z.T. um 50% ausgebremst hat, die unsauberen Geschäftspraktiken mit dem Großhandel und und und...

Klar waren die Phenom Is und auch deren "Derivate" die Phenom II keine Höhenflüge. Aber die Core2 Arch war ja auch für Intel damals ca. ein Sprung wie heute AMD von FX zu Ryzen !

Von Netburst auf Core2 stiegt die IPC ja auch um 50% grob geschätzt.

Das vergessen halt auch viele.

Single-Core Leistung wird immer wichtig bleiben - solange die Anwendungen nur single core optimiert sind. Zum Glück hat sich das in den letzten 10 Jahren mittlerweile MASSIV bewegt und dennoch selbst 2018 sieht man noch genug software die ins Limit rennt, weil z.B. wegen der umständlichen multi-thread handhabung der DX-API die Drawcalls halt nur über 1 Thread verwaltet werden können (ohne größeren Aufwand sonst betreiben zu müssen).

Das wird sich in naher Zukunft mit DX12 und Vulkan MASSIV verändern ! Und dann wird single-core leistung auch in games nicht mehr (so) relevant sein.

Klar wird auch die SC-Leistung weiter steigen - aber ohne revolution in den CPU-Archs nicht mehr als 5-10% pro Iteration der aktuellen Architekturen...und das auch oft eher wegen der Taktoptimierung als der IPC-Optimierung.

Zen ist hier in doppelter hinsicht ein Quantensprung ähnlich wie Core2 bei Intel.
Man hat nicht nur die IPC mal eben um +50% angehoben. Man hat auch den hohen Takt der FX (Bulldozer) nahezu halten können und dabei nebenbei auch noch die Kernzahl verdoppelt ! (und eine leicht nach oben skalierbare Basisarchitektur geschaffen)

Beides zusammen hat dazu geführt dass AMD die lange Misere seit Phenom I überwunden hat.

Wenn Intel nicht einen Konter bringen kann der mindestens genauso revolutionär ist, und danach siehts im moment nicht aus, dann werden wir zumindest mittelfristig wieder einen Kampf der beiden auf Augenhöhe miteinander sehen.
Was für uns alle gut ist !
 
Zuletzt bearbeitet:

DF86

Cadet 1st Year
Dabei seit
Juli 2017
Beiträge
8
#29
Naja "überhaupt nicht" ist jetzt der falsche Ausdruck. Im einen Link geht's um den 8350, im anderen um den 8370. Des Weiteren solltest du Vishera mit dem i5-3570K vergleichen, da es dieselbe Generation ist.

Aber ja, man kann erahnen, dass der FX-83X0 in 5 Jahren zulegen konnte im Vergleich zum i5-3570K. Aber interessiert das einen Käufer nach 5 Jahren noch? Die ersten Jahre war der i5 vorne, dann haben sie gleichgezogen und nach 4-5 Jahren war dann der FX vorne. War es denn dann wirklich so schlau, den FX zu nehmen?
Also FX 8350 und FX 8370 unterscheiden sich in sagenhaften 100Mhz - Turbotakt.
In genauen Zahlen 4,2 zu 4,3Ghz. Das ist ein unter Umständen nichtmal messbarer Unterschied ;-).

Mir ging es in erster Linie darum zu zeigen dass man in der Zukunft sehr wohl von mehr Threads profitieren kann.

Hängt ja dann auch davon ab lange Systeme bei einem laufen - wenn man das System 5-6 Jahre oder länger benutzt war es vielleicht schlau.
Tauscht man sowieso alle 2 Jahre sein System natürlich nicht.

Und genauso geht es eben heute weiter - wechselt man eh in spätestens 2 Jahren auf ne neue Plattform kann man heute mit 6 Kernen glücklich sein. Behält man das System jedoch länger wird man zumindest froh sein wenn man sich heute schon zumindest für einen Prozessor mit 6 Kernen / 12 Threads entschieden hat.
 
Dabei seit
Dez. 2010
Beiträge
4.243
#30
Hallo @ all,

also was Singlecore-Leistung und dessen Bedarf bei Spielen anbelangt, da wird sich in den nächsten 3-5 rein gar nichts ändern. Zumindest nicht in der Masse. Sicherlich wird es immer öfter auch Spiele geben die mit 4 Kerne oder sogar mehr skalieren. Aber das wird immer eine kleine Minderheit und eine Ausnahme bleiben.

Der Trend geht doch heute schon Spiele in Alpha-Stadium zu verkaufen. Die Entwickler machen sich doch schon nicht mal die Mühe Games fertig zu programmieren. Die Annahme sie würden dann noch den wirklich komplexen und steinigen Weg der Multi-Thread Optimierung gehen, ist nicht nur über-optimistisch, sondern wirklich jegliche Realität verachtend.

Der Ryzen war bei seiner Einführung durchaus konkurrenzfähig für Leute die sich primär mit Multi-Thread optimierter Software befassen. Mit CFL wurde er aber, leider wenn man unbedingt will, wieder obsolet. Da einzige Manko von CFL ist da eher die MB-Problematik. Wenn die neue Chipsätze auf de Markt kommen, hat AMD auch den Vorteil der moderneren Plattform verloren.
 

homerpower

Rear Admiral
Dabei seit
Juni 2010
Beiträge
5.577
#31
Was mir in der Diskussion noch fehlt:
man kann bestimmte Anwendung nicht auf beliebig viele Kerne aufteilen. Auch wenn man noch so gut programmieren kann gibt es physikalische Grenzen.

Edit: Mit Stabilität und Rechenfehler will ich gar nicht erst Anfangen...
 
Zuletzt bearbeitet:

T_55

Lt. Junior Grade
Ersteller dieses Themas
Dabei seit
Feb. 2013
Beiträge
279
#32
@ homerpower:
Kann da nur zustimmen, nicht jeder Algo lässt sich parallelisieren. Parallelisierung benötigt immer die Synchronisation von Variablen unter Nutzung von Mutexen oder anderen Techniken. Ein Geschwindigkeitszuwachs im Multithreading wird vor allem durch den sequentiellen Anteil des Problems beschränkt. Die Frage wie "wichtig" die SingleCore Leistung ist, lässt sich daher sowieso nur individuell anhand des angewendeten Programms und dessen Algorithmen beantworten.
 
Dabei seit
Juli 2005
Beiträge
3.970
#33
Möchte hier nochmal auf bestimmte Teile der Rechenleistung aufmerksam machen, die durchaus Potenzial haben.
Die Liste ist nicht erschöpfend...

Beispiele:

der Ramtakt ist in den letzten Jahren deutlich gestiegen.
Die absolute Latenz hat sich zwar kaum verändert, aber trotzdem hilft das auch vielen Single Core Anwendungen.

Größere Caches haben auch massiven Einfluss darauf. Leider finde ich gerade nicht mehr was es war, aber es gab mal mit einer neuen CPU Generation einen Benchmark der komplett in den CPU Cache gepasst hat und deswegen enorm viel schneller wurde.
Dies hilft dann vor allem alter SW die auf neueren Prozessoren laufen soll.

Ein weiterer Punkt sind neue Instruktionen. Z.b. SIMD, also gleiche Berechnung auf mehreren Daten, ohne den Overhead eines zweite Cores. Hier sind z.t. enorme Steigerungen drin.
Bsp:
https://www.computerbase.de/2017-10/intel-coffee-lake-8700k-8400-8350k-8100-test/4/#diagramm-dolphin-cpu-benchmark

Dolphin ist ein GC/Wii Emulator und nutzt nur 2 Kerne intensiv: einen für die CPU, einen für die GPU.
Durch diese neuen Instruktionen, die in aktuellen Intel CPUs verfügbar sind, in alten (z.b.2500k) aber nicht, lässt sich aber sehr viel erreichen, weil die emulierte Hardware(GC/Wii CPU) diese auch kann. So ergeben sich Steigerungen der IPC von rund 100%.

Mit mehr Kernen wäre das nicht umsetzbar, womit wir auch bei einem Beispiel für die Notwendigkeit schneller Prozessoren wären.
Ich arbeite sowohl im Hobby als auch beruflich mit Emulation.
Vereinfacht: das Ausführen von Code auf der falschen Prozessorarchitektur.

Da dieser Code bereits geschrieben und kompiliert ist, ist es bisher nur in wenigen Ausnahmefällen gelungen die Anzahl von CPU Cores die vom Code verwendet werden bei der Emulation zu erhöhen. Demzufolge hängt die Rechengeschwindigkeit einzig von dem Performancevorteil des "HostCore" ab, abzüglich des Emulationsoverhead.

Genauso verhält es sich mit Legacysoftware, die heute noch gerade im industriellen Bereich eingesetzt wird.
Hier könnte man meinen das alte Software ja ohnehin heute schnell laufen muss, weil diese ja auch auf alten Rechnern früher schon laufen musst.

Das stimmt aber nur, solange man außer Acht lässt, dass die Datenbasis auf der gerechnet wird nicht mit der Zeit gewachsen wäre.

Ein Beispiel dafür sind Entwicklungstools im Halbleiterbereich. Die Software mag identisch sein, muss aber heute mit einer alle ~2 Jahre sich verdoppeltenden Datenmenge(Transistoren bzw Gatter) arbeiten. Selbst wenn der Rechenaufwand dadurch nur linear ansteigen würde, erkennt man leicht, dass die Singlecoreleistung sich auch alle 2 Jahre verdoppeln müsste, wenn man genauso schnell damit arbeiten möchte.
 
Top