Notiz Intel Alder-Lake-CPU: Mit 14 Kernen & 20 Threads bei bis zu 4,7 GHz in Erprobung

@latiose88

Ich glaube du verstehst nicht. Softwareentwicklung dauert Jahre und das anpassen an AVX-512 auch. Hauptsächlich werden die Befehle im Encoding/Decoding Bereich gebraucht/genutzt.
Warum sollte man diese Funktion streichen wo die Leistungsstarke CPU gebraucht werden?

Wieviele Kerne bekommt denn nun Intel unter wenn sie es streichen würden?

 
  • Gefällt mir
Reaktionen: Rockstar85
ghecko schrieb:
Nicht wirklich. Gerade was die Filter und Upscaler angeht sind die Softwaredecoder flexibler. Da kann man gegenüber den statischen HW-Decoder noch einiges rausholen, gerade bei schlechterem Bildmaterial. HDR mit seinen Profilen ist in Hardware auch eine absolute Katastrophe.
http://www.madvr.com/

Das sind konstruierte Fälle, die von 99,9% der user nicht beachtet werden. Mich selber interessiert das null. Ein hardware Encoder ist ein riesen Vorteil, man sollte jetzt nicht versuchen sich das zurechtzubiegen, nur um sich den Software Encoder schönzureden. Solange die Profile von youtube und Co unterstützt werden von der GPU, ist man in der Praxis gut aufgestellt.
 
  • Gefällt mir
Reaktionen: TechFA
mkl1 schrieb:
Ein hadware Encoder ist ein riesen Vorteil, man sollte jetzt nicht versuchen sich das zurechtzubiegen,
Hab ich irgendwo das Gegenteil behauptet? Du steigst hier in die Diskussion ein ohne jeglichen Kontext. Ich habe schon mehrmals argumentiert warum Softwaredecoding Relevanz hat. Wenn du das überliest, dann überlies mich bitte komplett und verschwende nicht meine Zeit.
 
ghecko schrieb:
Hab ich irgendwo das Gegenteil behauptet? Du steigst hier in die Diskussion ein ohne jeglichen Kontext. Ich habe schon mehrmals argumentiert warum Softwaredecoding Relevanz hat. Wenn du das überliest, dann überlies mich bitte komplett und verschwende nicht meine Zeit.

Ja weil das sehr konstruiert wirkt von dir, als wenn du den hardware Decoder madig reden willst. Softwaredecoding hat eine Relevanz, aber eine sehr dünne wenn die GPU den Codec auch unterstützt.
 
@Floletni

Nur für diese Aufgabe,ist aber echt schwach.Habe nun mit einer riesigen list erwartet wo nun schon AVX 512 im großen Vorteile bietet.Scheint wohl doch noch nicht so viele zu geben.Und von wegen ne starke Leistungssteigerung.In jeder Situation bietet AVX 512 nicht das was es theroetisch bietet.In einigen Fällen sogar Null Vorteile gegenüber AVX2. Das ist schon arg wenig,für das es Intel so stark anpreisen tut. Nun gut,könnte wohl an den Entwickler liegen.Hier hilft wohl Geld alleine auch nix mehr um das ganze wohl zu beschleunigen,besonders die freien Umwandlungs Entwickler tuen sich was AVX angeht verdammt schwer.

Und deine andere Frage zu beantworten.Ohne AVX 512 ist der Platz so groß wie Atom Kerne. Das heißt du bringst halt dann 2 anstatt 1 mit HT unter. So könnte man also ohne AVX 512 mit 16 anstatt 8 Kernen drauf kriegen vom Platz her. Und ohne AVX 512 braucht die CPU auch unter Last weniger Strom als mit AVX512. Da die CPU auch entschlackt ist.
Aber dann war es das auch wieder.Hier limtiert eben die Chipfläche. Intel muss sich also so oder so sich wirklich was einfallen lassen,denn so richtig klein wären sie dann noch immer nicht.Dafür besser bei den Temperaturen und auch beim Stromverbrauch weil AVX 512 nicht mehr extra abwärme Prudoziertt und auch weniger Abwärme. Weshalb man dann weniger ne starke Kühlung brauchen wird als mit AVX 512.

Also wie du siehst geht da ohne AVX 512 auch weit mehr als gedacht. Achja AVX 512 braucht so viel wie AVX1 Und AVX2 zusammen. mehr geht dann aber nicht mehr.

Würde man AVX bei den großen Kernen ganz weglassen ,dann käme man am ende wohl bei einem Intel Atom Kern raus. Für mich wäre also diese litte-Big Core interessant. Ich verwende beim Videoumwandeln noch nicht mal AVX1. Meine Software Profitiert nicht mal von AVX1 also von daher,sieht man mal wie schlecht die software ist. Leider habe ich keine beweise um festzustelen was passieren würde ob sich die Big und Little Core ohne jedlichen AVX sich so ähneln das es am ende keinen Unterscheid mehr machen würde zwischen Big und little Core.

Wäre somit ne interessante Benchmark für mich.Ich ändere auch nicht wegen ner CPU die Software.
Darum braucht auch mein Ryzen 9 5950x nur 128 Watt an Strom und nicht die 142 Watt was es sonst so ist.Ich bin also genau auf dem Level von der TDP.
Es bleibt also spannend wie es sich wohl außerhalb von AVX die CPUs sich so entwickeln werden. DIe sollen sich was anderes einfallen lassen,damit ich hier noch mehr Leistung am ende erreichen kann.Aber blos alles bitte ohne jedliches AVX.Denn sonst käme bei mir ja nix mehr an mehrleistung bei mir an.
ALso mal abwarten wie es weiter gehen wird. Achja der I7 4700HQ braucht beim VIdeoumandeln dank des nicht einsetzen von AVX nur rund 30 Watt anstatt 47 Watt was sie eigenlich hätte.Freilich dann nur mit 1 gleichzeitig und nicht wie beim Pc mit zweien.

Achja ich habe zwischen 3950x und 5950x die 10 % mehrleistung ohne jedliches AVX erreicht.ALso es geht schon was wenn man wirklich will.Nun AMD hat schon gezeigt was sie können. Nun ist Intel an der Reihe zu zeigen das sie es auch ohne AVX EInheiten schaffen können mehrleistung hinzukriegen.Nun abwarten wie es weiter geht.
 
Cruentatus schrieb:
Wo siehst du denn mögliche Vorteile?

Das ist doch das Spannende, ich kann es schlichtweg nicht mit Sicherheit sagen.
Aus dem Bauch heraus: wann auch immer der Cache nicht entscheidend ist, kein Vorteil aus dem erweiterten Instruktionsset gezogen wird oder SMT nicht wirklich nützlich ist. Letztendlich hängt sehr viel davon ab, wie das OS dann die Threads zuweist, aber selbst beim Gaming kann es sinnvoll sein nur 2 oder 4 große Kerne mit vollem Boost laufen zu lassen und 4 kleinen Kerne effizient Teillasten zuzuteilen. Und bei 1440p/4k läuft man häufig genug ins GPU Limit. Da wird die CPU noch 'unwichtiger'.
Und was ist mit simplen Hintergrund Tasks? Kannst ja einfach mal nur mit geöffnetem Browser den Task Manager anschmeißen. Da sind genug Dinge, die auch auf einem 'Atom' Kern nebenher laufen können.

Wie viel das bringt? Weiß ich nicht. Aber es ist verdammt noch mal spannend, was sich momentan alles entwickelt.
Vor 5 Jahren hat man das Chiplet Design belächelt.
Apple bringt ARM ins Notebook/Desktop.
Amazon schon länger in seinen Servern.
RISC-V macht eher unauffällige Schritte in den Markt hinein.

Eine (monolithische big Core x86) Lösung für alle Anwendungen ist einfach nicht (mehr) zeitgemäß. Es kommt ja nicht von ungefähr, dass sich überall immer mehr immer differenziertere Lösungen durchsetzen.

latiose88 schrieb:
Dann wird es zeit AVX 512 zu begraben.Oder kennst du viele Anwendung die so etwas brauchen.Ich kenne kein einziges.Bei den Ganzen Games nutzt ebenso kein einziges davon AVX 512.

Und bei Games wird das wohl auch weiterhin so bleiben, weil die Zen Kerne der Konsolen kein AVX512 beherrschen. Das entscheidet aber auch nicht über die Sinnhaftigkeit oder den Erfolg einer CPU.

Letztendlich ist AVX512 auch nur ein weiterer Punkt, an dem etwas per Hardware beschleunigt wird, wo es per Software deutlich länger dauern würde.

Anandtech hat in seinen Reviews zumindest ein paar wissenschaftliche Beispiele drin.
 
Alder Lake ist mit Bulldozer nicht vergleichbar.
Bei Bulldozer waren alle Kerne langsam. Man benötitgt aber mindestens 2 besser 4 "Prime Cores" die Single Threaded so schnell sind wies geht.
Die Restlichen müssen vor allem effizient und danach nur ausreichend schnell sein.
 
@latiose88

Ich kann mir gut vorstellen das AVX512 im HPC Umfeld. Also da wo mit großen Zahlen hantiert wird schon seine berechtigung hat. Das rauszunehmen und den Kern für Notebooks und Desktops umzugestalten ist zu viel Aufwand. Selbst wenn man die Fläche eines Atom gewinnen würde.
Ein Chiplet-Ansatz oder gestappelte Chips wo "Nothbridge"-Funktionen ausgelagert werden liegen da näher. Am Ende werden wir es in ein paar Jahren sehen.

@Hayda Ministral
Tja Bulldozer war aber ein komplett anderer Ansatz als ein Hybridprozessor.
 
Zuletzt bearbeitet:
Floletni schrieb:
Kannst du das bitte näher erläutern?
Ich Stelle auch keine Behauptungen/Vermutungen auf. Nichtmal theoretisch.


Floletni schrieb:
Was stört es dich
Ich wüsste nicht wo ich in irgendeiner Weise kenntlich gemacht haben soll, dass mich das stört. Schlecht geschlafen?

Floletni schrieb:
Warum tauscht man Performance gegen das Stromsparen?
Wenn potente Kerne gegen weniger potente eingetauscht werden und N große Kerne durch nicht weiter parallelisierbare Aufgaben ausgelastet werden, verliert man Leistung, sobald man weniger als N große Kerne hat. Auch wenn diese durch Zehntausend kleine Kerne ergänzt werden.

Und dabei werden es nur ein paar wenige sein.


Floletni schrieb:
Der HardwareLuxx Test sagt da etwas anderes.
Der Test, den du natürlich weder in deinem vorherigen Post, noch jetzt verlinkt hast.
Wo kämen wir denn hin, wenn wir Quellen nennen würden.


Floletni schrieb:
6 große Kerne sollten auch ausreichen
Die es ja auch bereits als CPU gibt..?
 
Floletni schrieb:

In diesem Post habe ich den Test verlinkt. Diesen Post hast du zitiert.

Bonanca schrieb:
Ich Stelle auch keine Behauptungen/Vermutungen auf. Nichtmal theoretisch.

Ich wüsste nicht wo ich in irgendeiner Weise kenntlich gemacht haben soll, dass mich das stört. Schlecht geschlafen?

Wenn potente Kerne gegen weniger potente eingetauscht werden und N große Kerne durch nicht weiter parallelisierbare Aufgaben ausgelastet werden, verliert man Leistung, sobald man weniger als N große Kerne hat. Auch wenn diese durch Zehntausend kleine Kerne ergänzt werden.

Und dabei werden es nur ein paar wenige sein.

Die es ja auch bereits als CPU gibt..?

Keine Ahnung warum du dich so angegriffen fühlst. Aber danke ich habe gut geschlafen.

Wenn du Angst hast das deine großen Kerne so ausgelastet werden, kaufst du kein Alder Lake sondern Zen. Die Frage ist halt abzuwägen wann die großen Kerne ausgeschöpft sind und man Leistung durch solche Aufgaben mit den kleinen verliert. Darüber werden sich die Ingenieure schon Gedanken gemacht haben. Am Ende muss man sich die Tests anschauen wie es sich auswirkt.
 
Zuletzt bearbeitet:
Floletni schrieb:
In diesem Post habe ich den Test verlinkt.
Die Zeile ganz unten muss ich dann wohl am Handy überlesen haben, sry dafür :)

Floletni schrieb:
Wenn du Angst hast das deine großen Kerne so ausgelastet werden, kaufst du kein Alder Lake sondern Zen.
In der Regel ist es aber so, dass es eine "Architektur" gibt, die für >50% der Personen ausreicht und sich nach dieser dann auch die Produktion gibt.
Ich glaube nicht, dass ein Big.Little und ein BigOnly(?) konzept nebeneinander im Desktop-Markt so koexistieren kann. Das letzte mal, als 2 unterschiedliche Konzepte gleichzeitig existierten von denen eines dominiert hat, musste man schon fast um das Überleben von AMD fürchten.

Floletni schrieb:
Am Ende muss man sich die Tests anschauen wie es sich auswirkt.
Das stimmt.
 
@Bonanca

Ich hatte gerade geschaut und gemerkt das Meteor Lake auf eine Hybride CPU wird. War der Meinung das die nur große Kerne besitzen wird.
Am Ende werden kleine und große Kerne so weiter entwickelt wie schon seit Jahren bis heute. Durch den Ringbus kann, einfach ausgedrückt, per Copy&Paste Kerne austauschen oder hinzufügen. Es gab eine Werbefolie wo das mit kleinen Quadraten vereinfacht dargestellt war. War auf CB in einer News. Ich finds aber gerade nicht.

Intel hat die Möglichkeit Server-CPUs für die Desktop Sperrspitze zu verwenden. Dort sehe ich noch nicht so schnell Hybrid-CPUs. Hatte man früher auch schon gemacht (Skylake-X, Pentium XE). Dann werden die als i9 vermarktet und alles darunter sind Hybride 🤷‍♂️
Es kommen im Serverbereich wohl Sapphire Rapids und Granite Rapids.

Edit: Ah hier ist die CB Nachricht

Sollte es nicht noch einen expliziten Nachfolger für Lakefield geben? Also nicht nur Hybrid sondern auch als Stapel für kleine Geräte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bonanca
Floletni schrieb:
Die Frage ist die hier in dem Thread noch nciht aufkam: Brauchen hochparallele Anwendungen wirklich große Cores oder sind viele kleine besser?

Da sind wir doch mal an des Pudels Kern und haben einen weiteren Grund, warum Big-Little letztlich Mist ist.
Die Gamer mit ihren Spielen, die nur 4-6 Kerne vernünftig auslasten, come on !? Diese Fraktion ist doch der Treppenwitz der Prozessor-Ingenieure. Die große Masse "arbeitet" mit der Technik (in der Tat, das kann man auch damit machen ;) ) und schießt nicht hauptsächlich Männchen von der Bildfläche. Und der für mich relevante und deshalb mithin oben zitierte Punkt ist in der Tat: Brauche ich für extrem parallele Anwendungen eine brachiale Single-Core Leistung oder packe ich nicht mehr kleine Kerne - letztlich auch zugunsten der Effizienz - auf den Die. Denn spätestens, wenn der mittelständische Unternehmer seine Monatsstromrechnung sieht, könnten manche Ohren rot werden. Das hat der "Piu-Piu" zuhause natürlich weniger im Fokus.
Unter Strich - liebe Freunde von Intel - bleibt für mich der schale Nachgeschmack, dass Big Little der Versuch ist, die TDP in den Griff zu bekommen - man könnte aber auch mal bei der Konkurrenz schauen wie´s geht - und für mich als "historischen" "Intelianer" (klingt genauso blöd wie Audianer) ist das kein Bashing, sondern unverblümte Tatsachendarstellung, auch wenn es mir selber leid tut.
 
Ich habe mich noch nach weiteren Tests umgeschaut. Golem.de hat den Lakefield sich auch zur Brust genommen.

Golem.de schrieb:
...
Die Resultate sind eindeutig: Der SNC-Kern ist 25 bis 67 Prozent flotter als ein TNT-Kern, vier Tremonts wiederum erreichen grob die doppelte Geschwindigkeit des einzelnen Sunny Cove. Es erscheint uns sinnvoll, dass bei dauerhaften Multithreading-Workloads der TNT-Cluster herangezogen wird, da so die absolute Performance und auch die Leistung pro Watt höher ausfällt.
...

Am Ende ist das nur ein Fingerzeig was kommen könnte.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Bonanca
Hoffentlich wird es, ähnlich wie 2015 bei der Markteinführung von Skylake, auch wieder Mainboards Speicherslots für zwei RAM Generationen geben. 2015 waren das DDR3 oder DDR4 Slots auf den Boards. Nun müssten es DDR4 oder DDR5 Slots sein (und der Speichercontroller muss freilich beide Techniken unterstützen).

Ich könnte in absehbarer Zeit, in den nächsten 6-12 Monaten einen neuen CPU gebrauchen, aber ich will nicht schon wieder DDR5 RAM Chips einkaufen. Sonst könnte es halt im Q1/Q2-2021 eine Comet-Lake S CPU werden. Dann brauche ich nur Board und CPU, was ja auch schon eine Stange Geld kostet.
 
Gaugaumera schrieb:
Alder Lake ist mit Bulldozer nicht vergleichbar.
Das wollte ich nicht und habe ich nicht behauptet. Ich bezog mich darauf das Bulldozer eine Wette AMDs auf die künftige Parallelität von Anwendungen war. Diese Wette ging am Desktop gewaltig in die Hose. Im Server konnte BD eine Zeitlang noch ganz gut mithalten, aber zusätzlich zur schlechteren IPC kam auch noch der vollkommen abgehängte Prozess von GF. Alles nur imho und afair.
 
mkl1 schrieb:
Ja weil das sehr konstruiert wirkt von dir, als wenn du den hardware Decoder madig reden willst. Softwaredecoding hat eine Relevanz, aber eine sehr dünne wenn die GPU den Codec auch unterstützt.
Sein Argument ist, was ist wenn deine CPU/APU/GPU kein AV1/aktuellen Codec hat und du bekommst ein (YT) Video mit AV1?
Genau! Es erledigt die CPU und mit weniger Kernen kommst du erheblich schneller an die grenzen, als mit mehr.
Thats it.
Konstruiert ist da nichts, da das aktuell mit wohl 99% aller AV1 Videos auf YT passiert.
 
  • Gefällt mir
Reaktionen: Rockstar85
mkl1 schrieb:
Ja weil das sehr konstruiert wirkt von dir, als wenn du den hardware Decoder madig reden willst. Softwaredecoding hat eine Relevanz, aber eine sehr dünne wenn die GPU den Codec auch unterstützt.
Sorry, aber das Thema Hardware / Software Encoding ist spätestens dann egal, wenn der Bitstream das nicht liefert (oder wie bei 2/3 aller PCs weltweit der Codec nicht in Hardware supported wird).. Es ist einfach so, dass zu 95% nun mal via Software encoded wird.. Wir haben das Thema damals mit Quicksync gesehen (Intels Versuch schnell in Hardware zu Encoden) und nun ja, es wirkt eher wie eine Notlösung, als wirklich wie etwas brauchbares (auf das Ergebnis bezogen)... (klar muss man sagen, dass die Ergebnisse brauchbar sind, aber moderne CPU einfach schneller bei besserer Qualität sind)
Es ist am Ende wie Ghecko sagte und man wird hier nicht plötzlich umschwenken. Denn die Ergebnisse sind seit Jahrzehnten eben Solide. Klar es gibt dann auch zB bei AV1 3% aller PC in 2021 die das nativ können.. Aber 97% können es immer noch nicht.. Beim Encoding übrigens würde man die Coves benötigen. Wenn aber ein 10100 schon 16 Bitstreams bereitstellen kann, dann sollte da Cove noch was drauf legen. Vermutlich wird der ATOM Teil zu langsam für sein.

Ach und ich würde mich freuen, wenn man Quasi mittels der Nutzung von Cove und dem Tremont Teil mehr Performance als mit SMT rausbekommt.. Nur warum hat man dann dennoch SMT drin, wenn man das Multithreading nicht konsequent auf die Tremont auslagern will (Weil Termont hier vermutlich sogar Effizienter sein wird) (Sozusagen als SMT Ersatz).. Ich bin gespannt, wie das Ergebnis aussehen wird. Und wenn es überzeugt, wird es gekauft. Sonst nicht. Und wir brauchen darüber nicht reden. Im Ultrabook, Mobile und auch Tablet markt ist sowas wie der heilige Gral. Aber im Desktop?
 
Zuletzt bearbeitet:
janer77 schrieb:
Noch schöner wäre natürlich eine dritte Marktmacht im GPU- und x86-CPU-Bereich.

Die Chinesen entwickeln doch auch CPUs, nur sind sie leistungsmäßig noch Müll. Gab doch mal einen Artikel irgendwo, womöglich auf CB. Ob die in einigen Jahren unter dem Radar aufholen können?

t3chn0 schrieb:
Geil, ich kann es kaum erwarten darauf umzusteigen. Ich freue mich sehr auf die komplett neue Architektur und Plattform. Nach all den Jahren endlich auch DDR5. Ich hoffe dass die Kerne ordentlich Gas geben können.

Ich würde auch gerne umsteigen. Nur was ist nun besser, 11900K oder 5800X? Oder doch im Herbst Alder Lake? Dann bringt AMD dann bestimmt einen Zen-3-Refresh. Auf solchen Folien soll da auch noch was kommen und was ganz neues mit DDR5 erst in 2 Jahren. Nur ist mein 8700K jetzt zu schlecht für meine Krüppel mit mangeldem Multicoresupport, so abartig wenig FPS ich teilweise bei Transport Fever 2 habe. Und bei GTA5 ist eh eher die FPS im 150er-Bereich zu halten mit weniger Mini-Drops (1% Low und 0,1% Low im AB).
 
Zurück
Oben