Notiz Intel Alder-Lake-CPU: Mit 14 Kernen & 20 Threads bei bis zu 4,7 GHz in Erprobung

v_ossi schrieb:
woher zum Teufel nimmt der CB Mob in seiner unendlichen Arroganz eigentlich immer die Gewissheit, besser antizipieren zu können was funktioniert und was nicht, als einige der klügsten Köpfe der Branche?

Meine Vermutung wäre: Es ist ziemlich offensichtlich eine Notlösung. Man muss die Kernanzahl erhöhen um auf dem Papier nicht so abgeschlagen zu wirken. Bei vielen uninformierten Kunden und sicher auch Anlegern wird das wohl ziehen (siehe Smartphone, Hauptsache große Zahlen. Oder Megapixel bei Kameras damals). Da man riesige monolithische 16Kerner nicht zu realistischen Preisen fertigen/anbieten kann, wird es eben diese Notlösung.

Von daher ist es nicht das was sich die klügsten Köpfe ausgedacht haben, was das Beste wäre - sondern das was eben gerade machbar ist.

Auf dem Papier steht doch als Vorteil nur der geringere Verbrauch bei niedrigen Lasten. Das ist wünschenswert, aber bei niedriger Last ist der Verbrauch ohnehin schon gering. Zudem ist der kleine Vorteil auch noch von vielen äußeren Umständen abhängig: Software, Windows, Mainboards etc.

Naja, ich kann zumindest nachvollziehen warum viele skeptisch sind. Wir werden es ja erleben.

Viele Grüße
 
  • Gefällt mir
Reaktionen: Smartbomb und Gortha
RalphS schrieb:
Merkt hier den keiner, daß exakt das wofür sie amd in den Himmel loben, sie nun Intel in der Luft zerreißen?
Kannst du das bitte näher erläutern?
Mir ist nämlich keine Big.Little CPU von AMD bekannt. Weder mobil, noch stationär.
Ergänzung ()

Floletni schrieb:
WIe im Hardwareluxx Test zu lesen ist ein Atomkern (mit Cache) 0,88 mm² groß. Ein Cove Kern kommt dagegen auf 4,49 mm². Intel kann also statt eines großen Kernes theoretisch fünf kleine verbauen. Ein theoretisches Plus von 4 physikalischen Threads.
Kostet das verbinden der Cores keinen Platz? Sonst muss der nämlich berücksichtigt werden.


Floletni schrieb:
Warum sollte das big.little konzept nicht im Desktop funktionieren?
Weil man in dem Bereich, wo man es benutzt, nämlich
Floletni schrieb:
In Mobiltelefonen
Üblicherweise nicht durchgehend am Stromnetz hängt.
Wie hier schon mehrfach gesagt wurde, für Laptops mag das ne super Sache sein, wegen der Akkulaufzeit.

Du musst nämlich auch berücksichtigen, dass der Platz für die CPU nur begrenzt ist. Man tauscht also Performance gegen Stromsparen ein.
In Geräten mit endlicher Stromkapazität wie Laptop oder Handys sinnvoll.
Am PC, der am Stromnetz hängt? Die Stromrechnung ist minimal kleiner.

Die Gesamtsysteme verbrauchen ~50W im Leerlauf, wobei allein durch das MB Schwankungen von >10W entstehen können. Wenn wir also von 10W Einsparung durch die Umstellung der CPU im Leerlauf ausgeben, ist das denke ich schon sehr großzügig geschätzt.

Wer seinen PC also 24/7 im Leerlauf fahren lässt würde davon wohl profitieren. Der wurde aber vermutlich mehr davon profitieren, direkt eine Atom-CPU o.Ä. zu kaufen...
 
Zuletzt bearbeitet:
Das hat zwar Potential, aber ich warte so gesehen eher auf Meteor Lake, der dann hoffentlich 16 starke Kerne hat.
Für mobile Lösungen aber sicher eine gute Lösung.
 
Ich freue mich schon auf die Effizienz. Kleinerer Node und die Kombination aus kleinen und großen Kernen sollten ja einiges ermöglichen.
 
Cruentatus schrieb:
Meine Vermutung wäre: Es ist ziemlich offensichtlich eine Notlösung. Man muss die Kernanzahl erhöhen um auf dem Papier nicht so abgeschlagen zu wirken. Bei vielen uninformierten Kunden und sicher auch Anlegern wird das wohl ziehen (siehe Smartphone, Hauptsache große Zahlen. Oder Megapixel bei Kameras damals). Da man riesige monolithische 16Kerner nicht zu realistischen Preisen fertigen/anbieten kann, wird es eben diese Notlösung.

Einfach mal kurz überschlagen:
Tiger Lake-U mit 4 Kernen, GT2 IGP, einem Haufen DSPs, 4xTB4 etc. hat knapp 150mm². Die vier "Big Cores" brauchen dabei um die 35mm². 16C mit IMC, PCIe etc. würden damit auf jeden Fall in 200mm² passen und das ist alles andere als "riesig". Für so ein reines Highend Desktop Design ist der Markt (Stückzahlen) aber einfach viel zu klein. Für AMD ist der Aufwand (->Entwicklungskosten) durch die Verwendung von zwei CPU Chiplets dagegen überschaubar. Praktisch ist 8C+ am Desktop eine sehr kleine Nische.
 
Zuletzt bearbeitet:
ghecko schrieb:
Sehr gut sogar. Du kannst ja mal mit dem 2-Kerner das ein oder andere AV1 Video auf Youtube testen und schauen wie weit du mit der Auflösung bei zwei Kernen kommst. Versuche ich dasselbe auf einem 8-Kerner hab ich über alle 16 Treads hinweg relativ gleichmäßige Auslastung.


Ok, aber Intel hat doch mit der Xe eine GPU auf den Markt gebracht, die bisher mehr oder weniger ausschließlich für diesen Zweck gebaut wird. WENN es Intel darum ginge, wirklich bei geringerer Last, wie z.B. Videos, Strom zu sparen hätte man für solche Zwecke eine abgespeckte Xe einbauen können. Ein Quasi-Achtkerner fürs Videos gucken ist doch absurd.
 
Bierliebhaber schrieb:
Ein Quasi-Achtkerner fürs Videos gucken ist doch absurd.
Die generischen De- und Encoder auf GPUs sind qualitativ nach wie vor nicht so gut wie Software En- und Decoder. Spätestens wenn die Codecs zu neu oder die Profile zu abstrakt für den Decoder sind, muss wieder die CPU ran. Und bei deinem Skylake ist das in der gegenwärtigen Codeclandschaft ziemlich oft der Fall, der Decoder ist heute im Web quasi nutzlos und die CPU muss alles alleine machen, in Software.
Da wäre es doch schon angenehm einen 8-Kerner zu haben der das auch tatsächlich schafft.
 
  • Gefällt mir
Reaktionen: Rockstar85
hahaqp schrieb:
Ja hoffe ich auch, schließlich möchte ich als Kunde ein Monopol haben damit ich von gesichtslosen Großkonzernen so richtig ausgenommen werde.

Bei manchen Leuten frägt man sich schon welche Synapsen falsch verbunden sind :confused_alt:

Lol. Welches Monopol???? Die 20% Marktanteil von AMD? Da brauch es noch einige Jahre und mehrere Flopps eh da ein Gleichgewicht entsteht! Oder möchtest du wieder 4 Kerner über 10 Jahre hinweg mit 5% mehr Leistung, plus neues Mainbaord.
 
@ghecko

Aber einen "Achtkerner", der das tatsächlich schafft, hat man doch schon. Ist dann die Frage, ob sechs oder acht "richtige" Kerne, die kaum ausgelastet werden, mehr verbrauchen, als acht langsame Kerne, die stärker ausgelastet werden... ist ja nicht so, dass, wenn acht stromsparende Kerne wegfallen, plötzlich gar keine Rechenleistung für Szenarien mit niedriger Last da ist.
Wenn ich mir angucke, was mein 5600X mit niedriger Last verbraucht, und wenn Intel nicht ganz großen Mist baut dürften die in einer ähnlichen Größenordnung liegen, dann sind da doch maximal 5W oder so rauszuholen, in Nischenszenarien.

Oder Intel schafft ein physikalisches Wunder un drückt den Verbrauch der kleinen Kerne auf unter 0W, dann dürfte ein spürbarer Mehrwert vorhanden sein. :D
 
Bierliebhaber schrieb:
Ist dann die Frage, ob sechs oder acht "richtige" Kerne, die kaum ausgelastet werden, mehr verbrauchen, als acht langsame Kerne, die stärker ausgelastet werden...
Zu dem Zeitpunkt wenn die Hardwaredecoder obsolent sind ist es egal was der Prozessor verbraucht und ob es langsame oder schnelle Kerne sind. Dann geht es nur noch darum ob die Gesamtleistung dafür reicht oder nicht. Da ist man dann froh um jeden zusätzlichen Kern.
 
Cruentatus schrieb:
Naja, ich kann zumindest nachvollziehen warum viele skeptisch sind.
Skepsis ist ausdrücklich erwünscht. Das fördert ja gerade eine kritische Betrachtung, aber hier stößt man doch oftmals nicht auf angemessene Skepsis, sondern seit der Ankündigung 2 Jahre vor dem ersten Produkt auf massive Ablehnung.

Cruentatus schrieb:
Von daher ist es nicht das was sich die klügsten Köpfe ausgedacht haben, was das Beste wäre - sondern das was eben gerade machbar ist.
Noch mal, woher nimmst du diese Gewissheit?

big.LITTLE ist ja kein neues, unerprobtes Hirngespinst einiger verrückter Wissenschaftler, die den Bezug zur Realität verloren haben, sondern ein erprobtes Konzept, das u.a. in jedem Smartphone der Welt funktioniert. Und da ist es bestimmt keine Notlösung, weil man keinen größeren Octacore monolithisch produzieren könnte.

Selbst die PS3 hatte ein asynchrones Design, weil man sich davon mehr Leistung versprach. (Was mit einigen Anlaufschwierigkeiten seitens der Software letztendlich ja auch stimmte -> Die US Air Force hat sicher nicht zum Spaß nen PS3 Supercomputer gebaut)

Willow oder Golden Cove Kerne sind verhältnismäßig riesig, weil sie u.a. so viel Cache mit sich 'herumschleppen' und AVX512 beherrschen. Das sind Vorteile, die nur verhältnismäßig selten ausgespielt werden (dann aber richtig nützlich sind), deren Nachteile (Platz und Strom) man auch mit den besten Tricks nicht komplett aufheben kann und immer mit sich herumschleppt.

Das ist quasi der V8 mit variabler Zylinderabschaltung in der 30er Zone. Nett, aber kaum nutzbar.

Und die grandiose Core Architektur ist letztendlich auch aus dem Pentium M hervorgegangen, nachdem sich der Weg des Pentium 4 als Sackgasse herausgestellt hat. Muss also nicht das schlechteste Vorzeichen sein, eine mobile Architektur als Grundlage zu haben.

PS.: Ich hätte gerne gesehen, was aus Itanium hätte werden können...

PPS.: Ich lehne mich mal ganz weit aus dem Fenster und prophezeie ein ähnliches Vorgehen bei AMD. Da wird irgendwann ein LITTLE Quad-/Hexacore Chiplet kommen oder man packt direkt ein paar kleine Kerne auf den I/O Die.
 
  • Gefällt mir
Reaktionen: Rockstar85
Der Intel 14C wird in MT immer gegen einen 14C mit nur großen Cores verlieren. Das wird ein Marketingdesaster wie bei Bulldozer.
 
v_ossi schrieb:
Noch mal, woher nimmst du diese Gewissheit?

Das ist doch keine Gewissheit. Ich möchte nicht in jeden Satz 'Ich denke/vermute/mutmaße/spekuliere' packen. Es ist doch klar dass es nur meine Interpretation ist.

Deswegen nochmal: Ich spekuliere dass es in erster Linie eine Notlösung ist und vermutlich viele andere auch. Es wirkt auf mich wie eine Zwischenlösung um etwas Neues zu präsentieren und die Kernanzahl zu erhöhen.

Anders herum gefragt: Wo siehst du denn mögliche Vorteile? Was hat man am Desktop von den little-Kernen?
Big.little wurde da eingesetzt wo es um Energieeffizienz geht, im Smartphone. Ich schrieb ja schon dass ich das gut finde. Aber ich glaube dass der Vorteil gering sein wird (wieder nur meine Spekulation...).

Viele Grüße
 
Bonanca schrieb:
Kostet das verbinden der Cores keinen Platz? Sonst muss der nämlich berücksichtigt werden.

Ich hatte exrta viel "theoretisch" in meinem Text geschrieben. Es war eine rein rechnerische Annahme. Klar gibt es noch ein paar Dinge die man beachten muss. Für die Verbindung zwischen den Cores wird ein Ringbus eingesetzt. Da hängen nicht nur die Kerne sondern auch Speichercontroller und die GPU mit dran.
Gegen Frage kostet das Anbinden von einem Kern und an Speichercontroller und GPU kein Platz. 0,88 mm²*5 sind auch 4,4 mm² und keine 4,49mm² des big-Cores. Ein bisschen Platz bleibt da noch übrig für Interconnects/Busse.
Kannst du das bitte näher erläutern?

Bonanca schrieb:
Weil man in dem Bereich, wo man es benutzt, nämlich in Mobiltelefonen üblicherweise nicht durchgehend am Stromnetz hängt.
Wie hier schon mehrfach gesagt wurde, für Laptops mag das ne super Sache sein, wegen der Akkulaufzeit.

Du musst nämlich auch berücksichtigen, dass der Platz für die CPU nur begrenzt ist. Man tauscht also Performance gegen Stromsparen ein.
In Geräten mit endlicher Stromkapazität wie Laptop oder Handys sinnvoll.
Am PC, der am Stromnetz hängt? Die Stromrechnung ist minimal kleiner.

Die Gesamtsysteme verbrauchen ~50W im Leerlauf, wobei allein durch das MB Schwankungen von >10W entstehen können. Wenn wir also von 10W Einsparung durch die Umstellung der CPU im Leerlauf ausgeben, ist das denke ich schon sehr großzügig geschätzt.

Wer seinen PC also 24/7 im Leerlauf fahren lässt würde davon wohl profitieren. Der wurde aber vermutlich mehr davon profitieren, direkt eine Atom-CPU o.Ä. zu kaufen...

Was stört es dich wenn in Zukunft solche Prozessoren als i5 und kleiner in Erscheinung treten und dort in Zukunft 5W weniger verbrauchen? Warum tauscht man Performance gegen das Stromsparen? Hast du Belege? Der HardwareLuxx Test sagt da etwas anderes.
Mit ein wenig mehr Fläche

Beim Im-Sinne-Vorgänger Lakefield hat man den unwichtigeren Teil, man könnte es Northbridge nennen, unter die CPU gelötet. Dieser Teil wird in 22nm gefertigt. Somit bekommt man den CPU-Part mit 64 EUsauf 82 mm². Ein Quad-Core Tiger Lake mit 96 EUs Grafik liegt hier bei 146.1 mm². Ein Quad-Core Ice Lake mit 64 EUs Grafik belegt 122.5 mm². Da geht also viel Fläche für die Grafik drauf. Schaut man sich den DIE-Shot vom Lakefield an, sieht man das noch deutlicher. Da fallen 4 Atomkerne kaum ins Gewicht.

Bei Alder Lake sollen es 8 Atomkerne werden. Mit Blick auf Lakefield wären das 2 big-Cores. Die Atomkerne leisten ungefähr 2/3 eine Cove-Cores. Somit hat man ein deutlicher Zugewinn an Multicore-Leistung. Wie du schon schriebst: Der Platz begrenzt.

Intel hat nun die Möglichkeit die big-Cores größer zu bauen ohne bei Multithreading-Anwendungen ins Hintertreffen zu geraten. Mit größeren big-Cores kann man auch wieder an der Singlethread-Leistung schrauben. 6 große Kerne sollten auch ausreichen um den meisten Anwendungen genügend leistungsstarke Kerne bereit zu stellen.
 
@v_ossi

Dann wird es zeit AVX 512 zu begraben.Oder kennst du viele Anwendung die so etwas brauchen.Ich kenne kein einziges.Bei den Ganzen Games nutzt ebenso kein einziges davon AVX 512. Und wie sieht es bei den ganzen Anwendung aus,welches davon nutzt wirklich expliziet denn AVX 512.Also damit meine ich nativ und nichts emuliert.Wenn dir da auch nix einfällt,dann kann es ja Intel wirklich begraben. Was man seid jahren noch immer kaum nutzt das wird ja meistens von den Herstellern verworfen.Hat AMD ja früher ebenso gemacht.Weil man eben was opfern bzw weg streichen muss um weiter zu kommen.Anderst geht es halt nun mal nicht.Dann spart sich Intel auch Platz ,das sie dann für andere Sachen verwenden können.Der Kunde Profitiert also von der Streichung sehr gut.Bin gespannt wie sich Intel am ende dafür entscheiden wird.
 
Da ich nicht markentreu bin, würde ich es sogar gut finden, wenn Intel AMD wieder in jeder Hinsicht übertrumpft. AMD wird gezwungen sein die Preise nach unten zu korrigieren und seinerseits wieder etwas neues entwickeln. Wir hätten nur Vorteile.
 
@latiose88

Mit dem eingesparten Platz von AVX512 wirst du kein Kern mehr auf den DIE unterbringen können. Es zu streichen und es zu emulieren macht auch kein Sinn. AVX-512 Mitte 2017 eingeführt. Es braucht eine Weile bis solche Instruktionen genutzt werden.
x64 wurde am Anfang auch kaum genutzt.

 
@Floletni
Ah ok verstehe.Also gibt es noch keine Software die das explizit wirklich nutzen kann.Und das nach fast 4 Jahren noch immer nicht.Das heißt vor 2030 werden wir davon auch noch nichts merken. Vielleicht ja dann vermehrt wer weis.Sollte es aber dann noch immer nicht genutzt worden sein,wird sich Intel auch gewiss überlegen dies zu streichen.Weil ein Future das auch nach jahren immer noch nicht funktioniert.Was denn dann?
 
ghecko schrieb:
Die generischen De- und Encoder auf GPUs sind qualitativ nach wie vor nicht so gut wie Software En- und Decoder. Spätestens wenn die Codecs zu neu oder die Profile zu abstrakt für den Decoder sind, muss wieder die CPU ran. Und bei deinem Skylake ist das in der gegenwärtigen Codeclandschaft ziemlich oft der Fall, der Decoder ist heute im Web quasi nutzlos und die CPU muss alles alleine machen, in Software.
Da wäre es doch schon angenehm einen 8-Kerner zu haben der das auch tatsächlich schafft.

Es ging ums Videos gucken, also um die Videodekodierung. Hier ist die Qualität komplett identisch. Intels Xe kann AV1 Videos in Hardware beschleunigen und das ist natürlich ein riesen Vorteil gegenüber der Software Lösung, wo die CPU Kerne unnötig arbeiten müssen, speziell im mobilen Bereich unnötig Energie verbraten, was sich stark auf die Akkulaufzeit auswirkt.
 
mkl1 schrieb:
Hier ist die Qualität komplett identisch
Nicht wirklich. Gerade was die Filter und Upscaler angeht sind die Softwaredecoder flexibler. Da kann man gegenüber den statischen HW-Decoder noch einiges rausholen, gerade bei schlechterem Bildmaterial. HDR mit seinen Profilen ist in Hardware auch eine absolute Katastrophe.
http://www.madvr.com/
mkl1 schrieb:
wo die CPU Kerne unnötig arbeiten müssen
Ja, aber bei unserer Diskussion ging es auch darum was man macht, wenn kein passender HW-Decoder mehr vorhanden ist. Zb bei seinem Skylake. Noch gar nicht so alt, aber die vorhandenen Decoder sind mittlerweile nutzlos. Dann hat man keine Alternative mehr zu SW-Decode.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nizakh
Zurück
Oben