News Intel-CPU-Gerüchte: Alder Lake-S mit 16 Kernen nach big.LITTLE-Prinzip

Naja, wenn es so easy wäre hätte das bestimmt schon jemand gemacht, nicht zuletzt AMD mit dem Chiplet-Design - die sind ja auch nicht alle gerade erst vom Baum gefallen

wenn Platz keine Rolle spielt, würde man heute vermutlich eher mehr Fläche mit AVX-512 Einheiten oder ähnlich spezialisierten Geschichten auffüllen wie es bei Shadern in der Grafikkarte gehandhabt wird, wenn deine Software davon aber keinen Nutzen zieht, ist dir auch nicht geholfen ;)
 
  • Gefällt mir
Reaktionen: Hayda Ministral
SingularityCB schrieb:
Auch wenn ich kein Spezialist auf dem Gebiet bin, wage ich mal zu behaupten, das ein cpu Architekt doch einiges an Rechenleistung aus einem Kern rausbekommt wenn er statt 30mm2 100mm2 platz zur verfügung hat und statt 20watt leistungsbudget 100watt zur Verfügung hat...das wir dann weit weg vom ökonomischen Sweetspot wären ist mir natürlich bewusst, aber darum geht es hier auch nicht...

Heutige CPUs sind schnell genug für ältere single Thread Spiele. In der Softwareentwicklung wird immer mehr auf Multithreading gesetzt.
 
Zuletzt bearbeitet:
WinnieW2 schrieb:
Intel geht jedenfalls den Weg Richtung höherer IPC bei der CPU Architektur.

Das ist richtig. Nach der (sehr guten) Core-Architektur hielten sich die IPC-Verbesserungen aber immer in sehr engen Grenzen. Es ist eben nicht so dass man nur irrwitzig viel Geld reinbuttern muss um irrwitzig viel IPC-Verbesserung zu erhalten. Transistoren stehen (bedingt durch die Strukturgrößen) inzwischen reichlichst zur Verfügung. Wir sind - dem Anschein nach - aber inzwischen an der Leistungsspitze an einem Punkt angekommen wo es nicht mehr möglich ist mit mehr Transistoren eine Stellschraube (beispielsweise Cache) positiv zu verändern ohne dadurch eine andere Stellschraube (bspw. Latenz) negativ zu beeinflussen.

tl;dr: Unbegrenztes Wachstum ist ein Mythos
Ergänzung ()

tom1111 schrieb:
Heutige CPUs sind schnell genug

Der war gut!
 
Hayda Ministral schrieb:
Das ist richtig. Nach der (sehr guten) Core-Architektur hielten sich die IPC-Verbesserungen aber immer in sehr engen Grenzen.
Ich gehe davon aus dass Intel bei Golden Cove und Ocean Cove die Befehlsdecoder und den Cache deutlich ausbauen wird. Ähnlich wie Intel das bei Tremont getan hat. Dann die µOps über mehr Ports an die Ausführungseinheiten verteilen.

Bleibt wohl keine Alternative dazu. Die Taktfrequenz über 5 GHz zu steigern erhöht die Leistungsaufnahme massiv,
und Software in mehr Threads auf mehr Kerne zu verteilen bringt nur bei einer Handvoll an Anwendungen etwas, siehe Gustafsons Gesetz.

Hayda Ministral schrieb:
Es ist eben nicht so dass man nur irrwitzig viel Geld reinbuttern muss um irrwitzig viel IPC-Verbesserung zu erhalten.
Also ich habe lediglich die Erhöhung der IPC gemeint, keine irrwitzige IPC-Verbesserung.
Intel forscht zumindest daran die IPC mittels deutlich komplexerer CPU-Architektur zu erhöhen... und da werden viele Millionen an $, wenn nicht sogar Milliarden $ investiert.
Vieles ist Insiderwissen, aber 3+ Jahre Entwicklungszeit für eine neue CPU-Architektur sprechen doch für größere Veränderungen. Und auch dass Intel einen solchen CPU-Architektur-Experten wie Jim Keller mit in das Entwicklerteam geholt hat. Die Aussage "Bigger Cores" im Rahmen seiner Arbeit bei Intel stammt von ihm selber.

Hayda Ministral schrieb:
Wir sind - dem Anschein nach - aber inzwischen an der Leistungsspitze an einem Punkt angekommen wo es nicht mehr möglich ist mit mehr Transistoren eine Stellschraube (beispielsweise Cache) positiv zu verändern ohne dadurch eine andere Stellschraube (bspw. Latenz) negativ zu beeinflussen.
Latenz ist derzeit nur bei Zugriffen ausserhalb des CPU-Chips ein wirkliches Problem, wenn also auf die RAM-Chips zugegriffen werden muss. Zugriffe auf die Caches sind kein solch bedeutendes Problem.
Die CPUs legen beim Extrem-Übertakten sogar recht deutlich an Performance zu, das belegt dass Cache-Latenz kein solches Problem darstellt wie die überproportionale Leistungsaufnahme mit dem Takt.

Hayda Ministral schrieb:
tl;dr: Unbegrenztes Wachstum ist ein Mythos
Es gibt kein unbegrenztes Wachstum in der materiellen Welt. Aber es gibt technische Weiterentwicklung.

Und es sind mit steigender Anzahl der Kerne sicherlich auch auf Aufgabengebiete spezialisierte u. optimierte Prozessor-Kerne denkbar, nicht nur eine große Anzahl identischer Kerne.
big.LITTLE ist ein solcher Ansatz, mit dem Fokus auf Energieeffizienz.
 
Zuletzt bearbeitet:
tom1111 schrieb:
Heutige CPUs sind schnell genug für ältere single Thread Spiele. In der Softwareentwicklung wird immer mehr auf Multithreading gesetzt.
Dem kann ich nur zustimmen....in Zukunft wird man aber dennoch abwägen müssen ob mehr als 16 "hochleistungskerne" wirklich sinvoll sind, und ob man nicht für einen Bruchteil der Kerne etwas mehr Ressourcen (Fläche, el.Leistung, Cache, Transistoranzahl Ausführungseinheiten was auch immer) bereitstellen möchte, denn ein einzelner Kern ist doch schon recht genügsam mittlerweile :)
Weil eben die Lastverteilung auf viele Kerne auch ihre Grenzen hat, daran ändert auch die momentane Entwicklung der (8jahre zu spät kommenden) Mehrkernoptimierung in Spielen nichts.
Das hat Intel erkannt und ich bin überrascht das sie diesen wichtigen Schritt vor AMD machen, weil AMD mit der IF den weg in diese Technik bereis geebnet hätte.
 
Zurück
Oben