News Intel Nova Lake-S: Core Ultra 5 mit 8 P-Cores, Ultra 9 mit 52 Kernen, DDR5-8000 dazu

KarlAlbrecht schrieb:
Es ist trotzdem schlecht wenn in der Presse steht: alle Intel / AMD CPUs von Lücke xyz betroffen.
Wie gesagt, die Server-CPUs, wo der Fehler tatsächlich relevant ist, behalten HT bisher. Ausnahme die reinen E-Core-CPUs.
KarlAlbrecht schrieb:
Es ist ja nicht ein reines Intel Problem, SMT ist ja ziemlich identisch implementiert. Ich denke wenn AMD anfängt ihre c-Cores beizupacken werden sie SMT auch zeitnah fallen lassen. Es bietet einfach nicht mehr so den Mehrwert, Kerne genug sind da mittlerweile. Und Intel mit den E-Cores zeigt, wie viel Leistung aus kleines Cores geholt werden kann.
Bei Intel ist das Scheduling halt sehr viel komplizierter, da die E-Cores n größeren Abstand zu den P-Cores haben, als es bei AMD der Fall ist. Also hinsichtlich der absoluten Leistung und auch hinsichtlich Funktionsumfang. AMD C-Cores sind ja nur etwas anders angeordnet mit nem geringeren Cache, soweit ich weiß.
 
  • Gefällt mir
Reaktionen: Naru
xexex schrieb:
"Damals" als CPUs noch 2-4 Kerne hatten, war es eine sinnvolle Erweiterung, heutzutage ist es meist nur tödlich für die Latenzen, wenn dann wirklich alle Threads ausgelastet werden sollen.
Es kommt noch etwas anderes hinzu.

Wenn die Rechenwerke früher Pausen einlegten weil sie auf Daten warteten war das verlorenes Potential, das man durch einen zweiten Thread (teilweise) heben konnte. Heute rauschen die ALUs eher ins thermische Limit, worauf man mit Drosseln reagiert. Da ist es natürlich Quatsch, zwei Threads aufwendig auf ein einzelnes Rechenwerk zu knallen, wenn man den zweiten Thread mit weniger Aufwand auf ein anderes auslagern kann (und dazu noch zahlreiche Sicherheitsimplikationen loswird).

Ein "Stall" der ALUs wird also nicht mehr als verschenktes Potential, sondern als willkommene Cool-Down-Pause wahrgenommen.

Im Übrigen sind die Rechenwerke auch viel besser ausgelastet als vor 20 Jahren, oder wo sonst soll die gesteigerte IPC hergekommen sein?
 
  • Gefällt mir
Reaktionen: stefan92x und xexex
Cr4y schrieb:
Wie gesagt, die Server-CPUs, wo der Fehler tatsächlich relevant ist, behalten HT bisher.

Vorerst. Wie sich bereits abgezeichnet hat, so führt Intels Entscheidung, das Thread-Level Parallelism einzustellen, nicht nur auf einen sicherheitsrelevanten Aspekt zurück, dem Redesign der Cache-Hierarchie betreffend, sondern auch die Energieeffizienz und die Temperatur standen zuletzt für maßgebliche Kriterien, weshalb Intel an seiner Hyper-Threading Technology nicht weiter festhalten wolle.
 
Rickmer schrieb:
Ich wüsste jetzt nicht wofür ich 52 Kerne brauche.
Video Encoding. 3 Minuten Video, 20 Minuten warten, wenn man alles auf "best quality H265" stellt, selbst wenn man schon eine aktuelle, schnelle CPU hat.
Könnte nicht schaden, wenn es 4x so schnell wäre, spätestens falls irgendwann 6K oder 8K Video reinkommt, aber da limitiert vielleicht eher die Festplatte.
 
  • Gefällt mir
Reaktionen: Naru
INe5xIlium schrieb:

Jepp. Genau meine Devise.

Für CPU-Enkoding (Shader-Array: CPU + GPU) braucht es so 'n Monster wie den AMD Ryzen Threadripper mit mindestens 32 Cores, jedenfalls für das rechenintensive HVC1/ HVC2.

Solange man das nicht hat, muss man entweder auf AVC1 ausweichen oder AV1 in Kauf nehmen. Ansonsten gehe man in dem HVC1-/ HVC2-Enkoding über die VPU (CPU + GPU für die Vor-und Zwischenschrittberechnung; die VPU in der Hauptberechnung).
 
Zuletzt bearbeitet:
bad_sign schrieb:
Intels SMT ist deutlich schlechter als AMDs. AMD hat mehr Sicherheitsbarieren, weshalb sie weniger anfällig für die Cache Angriffe sind. Zudem kann AMDs SMT mehr rausholen als Intel (bis zu 80%, aber eher so 20-30%)
Es kommt auf den workload an. Intel kann auch 80% rausholen, wenn genau die duplizierten Register genutzt werden. Da ist kein meilenweiter Unterschied.
 
Nighteye schrieb:
Mich würde mal einen Test mit Star Citizen und der Intel 52 Kern CPU vs AMD 9800X3D interessieren.
Das mit den 64 Kernen kann ich ja mal testen ;)
 
  • Gefällt mir
Reaktionen: Nighteye und Naru
Krass! Du hast so 'n Monstrum.
Will ich gerne für meine Anime haben. ^^
 
Zuletzt bearbeitet:
Rickmer schrieb:
Der maximale Vollausbau bietet genügend Lanes für... bis zu 6~8 m.2 Slots? Die müssen erstmal aufs Board passen...
Die Anzahl ist ja die Gleiche wie beim Z890. Und sogar weniger als beim Z790.
Neu ist ja nur, das bei CPU und PCH ein paar Lanes mehr nun 5.0 sind.
Ergänzung ()

TeHaR schrieb:
Warum hier noch immer SATA und USB2 unterstützt werden ist mir schleierhaft :freak:.
Weil Leute immer noch Festplatten nutzen. Ziemlich merkwürdige Frage.
TeHaR schrieb:
USB ist abwärtskompatibel, und USB3 sollte daher der Standart sein.
Und was bringt der Tastatur und Maus USB 3?
TeHaR schrieb:
Und SATA belegt nur unötig Transitoren, die kann man sich sparen.
Wie viele Transistoren sind es denn? Das PHY teilen sie sich eh mit den PCIe Lanes.
 
  • Gefällt mir
Reaktionen: Veitograf und Naru
Cr4y schrieb:
AMD C-Cores sind ja nur etwas anders angeordnet mit nem geringeren Cache, soweit ich weiß.
Sie nutzen zum Teil auch andere physische Schaltungen für die gleiche Logik, wodurch weniger Platz benötigt wird, aber auch der erreichbare maximale Takt sinkt. Genau deshalb nutzt AMD die auch nur da, wo sie sowieso schon in den Taktraten begrenzt sind (also nicht im Desktop).
 
INe5xIlium schrieb:
Video Encoding. 3 Minuten Video, 20 Minuten warten, wenn man alles auf "best quality H265" stellt, selbst wenn man schon eine aktuelle, schnelle CPU hat.
Jagut... große Firmen haben dafür dedizierte Render Server, als Privatberufler kann man über eine Workstation nachdenken...

Es ist nicht so, als ob es da nicht schon Möglichkeiten gäbe, wenn man einer der wenigen User ist, die tatsächlich einen Usus für massive Parallelität haben.
 
INe5xIlium schrieb:
Video Encoding. 3 Minuten Video, 20 Minuten warten, wenn man alles auf "best quality H265" stellt, selbst wenn man schon eine aktuelle, schnelle CPU hat.
Könnte nicht schaden, wenn es 4x so schnell wäre, spätestens falls irgendwann 6K oder 8K Video reinkommt, aber da limitiert vielleicht eher die Festplatte.
Man wird immer Leute oder Anwendungen finden, die jede noch so potente CPU auslasten können.

Dein Beispiel ist zwar jetzt nicht konstruiert, aber auch fern ab von Mainstream. Wer eine 52-Core-CPU auslasten kann, den kann man schon getrost als Enthusiast bezeichnen, oder als professioneller Anwender.

Nicht falsch verstehen, ich freu mich auch auf mehr Cores, aber 90% der Kunden kommen prima mit 8 Cores und 99% mit 16 Cores aus, und das wird sich auch nicht in den nächsten 5 Jahren wesentlich verschieben.
 
INe5xIlium schrieb:
Schon recht, aber machst du es beruflich? Jemandem der vielleicht 3-4 mal im Jahr ein paar Videos bearbeiten möchte, können die "3-4min" völlig egal sein. Das ist so wie mit der 1Gbit/s Leitung fürs Internet, schön eine zu haben und sich alle paar Monate den neusten Blockbuster in 5 Minuten herunterladen zu können, es würde aber auch niemandem ein Zacken aus der Krone fallen, wenn er 10 Mal so lange benötigt und in der Zwischenzeit was anderes macht.
 
  • Gefällt mir
Reaktionen: peru3232
PS828 schrieb:
Das mit den 64 Kernen kann ich ja mal testen ;)
Ich empfehle Ruin Station als Startpunkt für hohe CPU Belastungstests in SC.
Hab da immer 100% CPU Auslastung mit meinem 16 Thread 5800X3D.
 

Anhänge

  • 100% CPU 63% GPU 1440p native RX6800 5800X3D.png
    100% CPU 63% GPU 1440p native RX6800 5800X3D.png
    7,7 MB · Aufrufe: 68
xexex schrieb:
Jemandem der vielleicht 3-4 mal im Jahr ein paar Videos bearbeiten möchte

Ich jage im monatlichen Turnus zu zwei, drei Anime je zwei BDMVs durch Handbrake.
Dies ergebe bei einer Season von 12/13 Episoden in einer Duration von ca. 24 Minuten mal dem, was er dort oben aufgeführt hat, in 1080p auf HEVC unfassbare rund drei Stunden pro Folge.

Ohne NVENC braucht man ans Enkodieren gar nicht erst zu denken: Der Nachteil des VPU-Encodings sind die tendenziell zu großen Dateien.

Und Intels QuickSync, was ich hier auch gelesen habe, kann man sich schenken: Es erfordert nicht nur mehr Zeit, weil eine Intel-iGPU mit einer NVIDIA-GPU nicht ansatzweise konkurrieren kann, es erzeugt zudem noch größere Dateien in der Ausgabe.

Und bei so manchem Anime muss eine Filterung herhalten (z. B. LapSharp), weil die Anime-Industrie schlampig arbeitet, beziehungsweise nur Blinde tätig sind, diese meinen, ein Anime muss durch Unschärfe und Farbrauschen so hässlich aussehen wie auf dem Blatt Papier eines Manga. Dieses weitgehend herauszufiltern beansprucht an die Enkodierung zusätzliche Zeit.
Ergänzung ()

12nebur27 schrieb:
Anime transcodieren doch recht schnell typischerweise?

Per VPU, ja. Aber diese Diskussion richtet sich an die arschlahme CPU-Enkodierung.
 
Naru schrieb:
Per VPU, ja. Aber diese Diskussion richtet sich an die arschlahme CPU-Enkodierung.
Auch mit ner CPU ist das nicht sooo schlimm? Preset slow mit ein paar anpassungen je nach anime bei sowohl crf sowie psyrd etc. geht auf ner modernen CPU doch recht zügig. Da finde ich live action Filme deutlich problematischer.
 
  • Gefällt mir
Reaktionen: bad_sign
mae schrieb:
Es gibt ja sogar Leute, die einen Mac Mini mit 0 PCIe-Lanes und doch vielen Kernen kaufen.
Hat ein Mac Mini nicht aufgrund von Thunderbolt schon mindestens x4 Lanes???
 
RKCPU schrieb:
Also, im obigen Link sieht man das anders, die können bei Multicore Anwendungen beschleunigen bei unter 1 Watt je Core.
Ist halt Geschwafel ohne Fakten.
Die Performance laut der Folie liegt ja bei 32-45% eines Zen5. Im Vergleich zu den Zen6 dann nochmals weniger.

Zudem wurde hier doch nur IPC und Takt eines einzelnen Kerns ermittelt. Das bedeutet ja nicht lange nicht, dass mehrere Kerne noch vernünftig skalieren. Erst Recht nicht 16. Um das sparsam zu gestalten werden die nicht an einem fetten Ringbus mit viel Cache hängen. Wenn ich 24 fette Zen6 Kerne habe, sind die LP Kerne komplett irrelevant bei Vollast. Genauso wie die 4 LP Kerne bei Intel. Ich würde da gar nicht von 52 Kern CPUs sprechen.
 
Zurück
Oben