News Alder Lake-S: Erste 16-Kern-CPU-Muster laut Benchmarks im Umlauf

Salutos schrieb:
Naja, so ganz stimmt das nicht, der Bedarf an mehr Cores steigt stetig. Das gibt ja Intel mit dieser Architektur quasi zu, auch wenn Intel noch immer davon redet 4 Kerne würden ausreichen.
Dann mach ich aber für Desktop vollwertige Kerne. Die Halben taugen ja nicht so viel .
 
Heschel schrieb:
Und bei Office (sagen wir Notepad) wird ehe nur ein richtiger Kern angesprochen und der rest ruht sich meißt aus.


Darum geht es nun einmal.

Kerne die rumlungern, sind verschwendete, umsonst gebaute Kerne. Die blähen den Chip nur auf und kosten sinnlos Produktionsressourcen.

Die dicken Dinger sind gut für echte Anwender, für Gamer reichen Gamer CPUs.

Ich brauch als Gamer keine 16 vollwertigen Kerne (32 Freds).

Für Gamer oder 0815 Anwender, ist das "neue" Konzept super. Für alle anderen, wird es weiterhin richtig fiese Prozzis mit richtig vielen Kernen geben. :heilig:

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
Was haltet ihr eigentlich von der Theorie, dass diese Little Cores höher takten als die Big Cores? Dann kämen die zum Einsatz, wenn eher Takt statt IPC gefragt ist...
 
  • Gefällt mir
Reaktionen: KlaraElfer
Der Ansatz erinnert mich an eine etwas abgewandelte Version des heutigen iGPU. Auch dieser kann neben einfachen Video Ausgabe, Aufgaben übernehmen, wo er effektiver ist, als die CPU.

Das Hybrid Prinzip kann aber nur aufgehen, wenn die 8 kleinen Kerne auf die Fläche und Energieverbrauch, Effektiver sind, wie x-Hauptkerne, der selben Fläche und Energie. Die werden nicht das selbe tun können, wie die Hauptkerne, müssen aber in dem was sie tun effektiver sein.

Der Ansatz finde ich interessant, aber wie Praxisgerecht das wirklich ist, muss der Dude-Lake noch zeigen.
 
ZeroStrat schrieb:
Was haltet ihr eigentlich von der Theorie, dass diese Little Cores höher takten als die Big Cores?

Bei gleichem Verbrauch ganz sicher.

Den maximalen Takt gibt die Fertigung vor.

Welche Anwendung dann von was mehr profitiert (Takt oder Register) kann so wirklich aktuell noch keiner sagen. Daher bin ich auch nicht verwundert, dass die ersten Modelle jetzt schon "rumschwirren".

mfg
 
[wege]mini schrieb:
Kerne die rumlungern, sind verschwendete, umsonst gebaute Kerne. Die blähen den Chip nur auf und Kosten sinnlos Produktionsressourcen.

Ja genau, für jede Anwendung muss ein entsprechender Chip her - nicht wahr? Wie verschwenderisch das wohl sein wird, wenn man ein System für eine bestimmte Anwendung verwenden muss.....

Hör mir auf von Siliziumverschwendung hier zu sprechen.

Intel will halt wieder irgendwie 4c/4t bzw. 8c/8t an den Mann bringen. Irgendwie muss man ja auch noch den Shareholdern die 10nm vorweisen können. Gleichzeitig kann man es als 16 Kerner (im Kleingedrucktem halt detailierter erklärt) verkaufen.
Ergänzung ()

ZeroStrat schrieb:
Was haltet ihr eigentlich von der Theorie, dass diese Little Cores höher takten als die Big Cores? Dann kämen die zum Einsatz, wenn eher Takt statt IPC gefragt ist...

Dann kannste gleich dein P4 rausholen :rolleyes:

Wenn die kleinen höher takten, wozu dann noch große Kerne? Und wenn die IPC keine Rolle spielt, sind die Kerne auch bei höherem Takt ineffizienter.
 
Heschel schrieb:
Gleichzeitig kann man es als 16 Kerner

wir sind nicht mehr im Jahr 1990.

Wenn das Ding wirklich richtig Kacke ist, kann das kein Marketing dieser Welt schön reden.

Es ist immer noch ein Produkt, was möglicher Weise 2021 auf den Markt kommt. Sehr wahrscheinlich sogar später.

Der Ansatz ist richtig und nötig. Ob Intel es schafft, es gut umzusetzen ist aktuell unklar. Dennoch vertraue ich hier dem großen Blauen, da er von AMD aktuell wirklich in eine Ecke gedrängt wurde, wo er nie sein wollte und endlich wieder einmal kreativ sein muss.

Ich freue mich wirklich auf diese CPUs und flamen darf absolut jeder, wenn die Dinger am Markt sind.

Den Krieg der Kerne, kann Intel offensichtlich nicht mehr gewinnen. Jetzt muss man halt mit Leistung glänzen.

mfg
 
  • Gefällt mir
Reaktionen: andi_sco
Heschel schrieb:
Vollzitat entfernt

Im Auto oder Handy ergibt sowas halt tatsächlich Sinn, coprozessoren sind ja jetzt nichts neues.

Im Desktop... Naja. Neue Hardware sollte immer effizienter sein, darum wird ja auch immer an den Strukturbreiten gearbeitet. AMD sollte eher an Alleskönnern für "6/5/3nm" werkeln.
 
Zuletzt bearbeitet von einem Moderator: (Vollzitat entfernt)
  • Gefällt mir
Reaktionen: [wege]mini
silentdragon95 schrieb:
Aber ist es nicht auch heute schon so, dass die CPUs die Taktraten ihrer Kerne einzeln anpassen? Somit würde ein Spiel, welches beispielsweise nur 4 Threads stark belastet, den Prozessor veranlassen eben genau diese 4 Kerne hochzutakten, der Rest läuft weiter effizient bei reduzierter Kernspannung und Taktrate.

Heschel schrieb:
Das macht überhaupt keinen Sinn. Wenn das Game die Kerne nicht nutzt, braucht es auch keine. Im Gegensatz dazu, wenn Du Aufgaben hast, die sich sehr gut parallelisieren lassen, verlierst Du mit deinen kleinen niedrig taktenden Kernen - also gegen reale 16-Kerner.

Viele kleine Kerne können besser sein als wenige Große, da sie alleine an ihrer Aufgabe arbeiten können. Bei vielen Threads auf einem Kern müssen ständig andere Daten in den Cache geladen werden, was sehr viel Zeit kostet. Auch die Anzahl fehlerhafter Sprungvorhersagen wird abnehmen.

16 große Kerne werden im Desktop garantiert schneller sein als 8B+8L. Die Reise wird aber vermutlich in Richtung 8B+16L, 8B + 32L usw gehen.
Die Ausbeute bei BigLittle wird vermutlich sehr viel besser ausfallen, da nur wenige Kerne den hohen Takt schaffen müssen. Ein paar deaktivierte kleine Kerne kosten auch nicht so viel wie die großen.
 
  • Gefällt mir
Reaktionen: xexex
LamaMitHut schrieb:
AMD sollte eher an Alleskönnern für "6/5/3nm" werkeln.

Die Frage bleibt halt immer: Was willst du bauen?

Die Verkleinerung der Strukturgröße ist ja nun schon ewig bekannt und nur der Zeitpunkt, an dem irgend ein Hersteller diese Technologie zu brauchbarem Preis bringt, ist unbekannt.

McM war ein Game-Changer, ist ja aber auch nur eine Brückentechnologie, bis du in kleinerer Struktur die selbe Anzahl von Transistoren von 4 MCMs auf die Fläche bekommst, die heute ein McM Modul hat.

Irgend wann muss man an "IPC" oder Takt arbeiten.

Intel hat hier gepennt und konnte/wollte einfach nicht mit der Zeit gehen, da sie echt gutes Geld verdienen. (immer noch)

Die "to do list" bei Intel ist unfassbar lang. Bei diesem Konzept sind sie aber mal auf einem guten Weg.

mfg
 
Ich merke, viele begreifen das Prinzip der Architektur nicht :p
Überlegt mal wozu dies gut sein könnte. Mit Sicht in die Zukunft. Nicht heute und nicht ihr als jetzige Gamer.
 
[wege]mini schrieb:
Vollzitat entfernt

AMD liefert damit Systeme von 2-64 Cores - bis jetzt. Wie man die Anzahl der Kerne erhöht, und wie die dann besser zusammenarbeiten, ist IMO der wichtigere Weg. Supercomputer sind ja nichts anderes als zig Prozessoren, die gemeinsam an einer Aufgabe arbeiten.
 
Zuletzt bearbeitet von einem Moderator: (Vollzitat entfernt)
LamaMitHut schrieb:
AMD liefert damit Systeme von 2-64 Cores - bis jetzt.

Und? Dann schaue dir mal an mit welchen Takt eine solche 64C CPU arbeitet.
1601984646843.png


Und nun stelle dir mal vor, wenigstens 8 Kerne davon könnten auch mit 5Ghz boosten, was bei so einer big.LITTLE Lösung letztens angestrebt wird. Bei gemischten Lasten würden sich daraus enorme Leistungssteigerungen ergeben.
 
  • Gefällt mir
Reaktionen: [wege]mini
Heschel schrieb:
Ja genau, für jede Anwendung muss ein entsprechender Chip her - nicht wahr? Wie verschwenderisch das wohl sein wird, wenn man ein System für eine bestimmte Anwendung verwenden muss.....
Nicht für jede Anwendung ein entsprechend System, aber für 50 % der Anwendungen System 1 und für die anderen 50 % System 2. Das sind jetzt natürlich von mir nur aus der Luft gegriffene Zahlen. Ich weiß nicht, wie die Verteilung der Software ist, welche etwas spezielles benützten.

Ich weiß nicht wieviel Software im normalen Gebrauch AVX-512 benützt und ob man dann dies bei allen Kernen mitschleppen muss. Wer solche spezielle Erweiterungen braucht, sollte sich dann auch keinen Hybrid kaufen. Das ist dann nicht die Zielgruppe.

Wenn 80 % der Kunden zu 80 % Software benützt, welche 80 % der Funktion eines CPU gar nicht braucht, dann muss man sie auch nicht zu 100 % anbieten.

Die Frage ist eher, wieviel kann man weglassen, damit der Großteil der Benützter keinen Nachteil haben, bzw. durch eine weniger komplexen CPU Energie und Kosten sparen.

Schlimmstenfalls wird man gar kein Kompromiss finden, aber in dem Fall wird das Konzept so schnell wieder verschwinden, wie die Modullbauweise von Bulldozer.
 
@xexex Du sprichst von Boost bei einem zukünftigen Achtkerner so, als würde das beim 64 Kerner nicht gehen.
Der Threadripper 3990W zeigt es ja recht eindrucksvoll: 4,3GHz im Boost auf wenigen Cores und bei Vollast auf allen Kernen ~3GHz. Bei Intel ist es genauso. Der Core i7 10980XE taktet mit 4,6GHz, wenn wenige Cores genutzt werden, und wenn alle 18C/36T unter Vollast laufen dann gehts mit 3GHz vorwärts.
 
xexex schrieb:
Und? Dann schaue dir mal an mit welchen Takt eine solche 64C CPU arbeitet.
Anhang anzeigen 975809

Und nun stelle dir mal vor, wenigstens 8 Kerne davon könnten auch mit 5Ghz boosten, was bei so einer big.LITTLE Lösung letztens angestrebt wird. Bei gemischten Lasten würden sich daraus enorme Leistungssteigerungen ergeben.

Man kann einen threadripper mit dem richtigen OC schon heute auf 5.5 allcore boosten, wenn man den richtigen Aufwand betreibt.

Die Frage bei solchen Lösungen ist doch - wieviele Anwendungsfälle hab ich dafür, und könnte das Problem nicht auch anders angegangen werden?
 
Zurück
Oben