Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Nova Lake-S: Core Ultra 5 mit 8 P-Cores, Ultra 9 mit 52 Kernen, DDR5-8000 dazu
Also, Parameter, diese auf flottes Enkodieren aus sind, erzeugen in Qualität und Dateigröße schlechte Resultate.
Dafür müsse man dann schon mit einem zweifachen Durchlauf zu Werke gehen: So viel flotter ist das dann auch nicht, zumindest nicht im HEVC.
Und wofür benötigt?
Klar bei Multi GPU kann man nicht genug haben. Aber ansonsten ist das doch recht großzügig ausgestattet. Damit wird man 90% abdecken. Darüber muss eben ein Xeon gekauft werden.
Also, Parameter, diese auf flottes Enkodieren aus sind, erzeugen in Qualität und Dateigröße schlechte Resultate.
Dafür müsse man dann schon mit einem zweifachen Durchlauf zu Werke gehen: Viel flotter ist das dann auch nicht.
Bin mir nicht sicher von welchen Parametern du redest, ich benutze aber auch ffmpeg und nicht handbrake. Da benutze ich für alles einfach angepasste x265 slow presets. Keine der Änderungen die ich gemacht habe waren mit dem Ziel bessere Transcode Zeiten zu bekommen gemacht.
Je nach Anime bin ich bei 0.3 bis 0.7x Abspielgeschwindigkeit beim Transcode. Also irgendwo zwischen 1h10min und 35min pro Episode.
Edit: Ausgeführt auf nem 7800x3D also nun wirklich nicht die beste CPU für den Job.
Mit Very Slow und Placebo kommt man natürlich auf langsamere Transcode Zeiten aber das was da hauptsächlich noch weiter verbessert wird sind motion prediction sachen bei denen ich nun wirklich keine großen Unterschiede bei beim Vergleichstest gemacht habe. Auch nicht bei tests wie z.B. SSIM. Also warum die Zeit unnötig verlängern?
Kann sein das das bei live action einen größeren Unterschied macht. Keine Ahnung. Da fallen mir aber Artefakte sowieso weniger auf deshalb benutze ich auch da einfach angepasste Slow Presets.
Schlussendlich ist das wichtigste eh die beste Quelle für den Transcode zu benutzen. Das ist bei Anime typischerweise der japanische Blu Ray release. Gibt da ein paar westliche Ausnahmen aber besser als den japanischen Release habe ich bisher noch nicht gesehen.
Nicht nur dafür.
Nehme man die 20 Lanes von der CPU, gehen davon 16 an die Grafikkarte und über bleiben... Genau: Vier an der Zahl.
Das langt für eine SSD, aber nicht mehr, wenn man über einen Mainboard verfügt. dass dort oben gleich zwei Slots anbindet, wovon der eine entweder deaktiviert ist oder sich die benötoigten 4 Lanes von einem eventuell vorhandenen WLAN-Adapter klaut, dieser dann deaktiviert ist.
Es ist ein Dilemma, auf welches der Thorsten von der PCGH schon sooft eingegangen ist.
Mit Arrow Lake hat man dieses Problem insoweit umschifft, indem die Anzahl der Lanes auf 24 erhöht wurde. Doch was ist, wenn es sich um eine SSD für die 5. Gen handelt, diese sich 8 Lanes gönnt? Richtig...
Von einer Großzügikeit kann für so manchen Anwender keine Rede mehr sein.
Bei Intel ist das Scheduling halt sehr viel komplizierter, da die E-Cores n größeren Abstand zu den P-Cores haben, als es bei AMD der Fall ist. Also hinsichtlich der absoluten Leistung und auch hinsichtlich Funktionsumfang.
Das ist gar nicht so das riesige Problem - das Problem dabei ist eher die Software ansich. Denn die Software kann ohne echten Einblick in die Hardware die Verteilung auf "Last" Basis gar nicht wirklich vornehmen. Aktuell läuft das halt eher nach dem Motto, wenn das mache das, wenn dies, mache jenes.
Bei der nochmal deutlich gesteigerten Kern Anzahl ist das aber gar nicht mehr sooo entscheidend, weil am Ende dafür die SMT Komplexitätsebene raus genommen wurde. Aktuell ist SMT nur für absolute MT Volllast ein echter Leistungsmehrwert. Denn die Belastung des zweiten Threads kostet in aller Regel immer Ressourcen auf dem ersten Thread des selben Cores. Wie viel, hängt vom Code ab - sprich ob das weh tut oder nicht.
Bestes Beispiel sind dafür Games im CPU Limit - der Thread für die FPS Erzeugung wird behindert von anderen Threads durch SMT - und die FPS Rate sinkt. Da zählt maximale Peak Performance, weil FPS eine reine Durchsatzmessung ist.
Ob du jetzt nen realen E-Core von Intel oder einen etwas einkastrierten C-Core von AMD nutzt, spielt für das Threadscheduling nahezu gar keine Rolle. Denn beide erreichen im Mittel bei weitem nicht die Peak Performance der großen Kerne. Und schlimmer noch, die Software kann eben prinzipbedingt nicht wissen, ob das jetzt Laufzeitkritisch ist oder nicht.
Der Sinn der Thematik kommt aber dann zum Tragen, wenn man durch den Ausbau der großen Kerne eh schon Power- und/oder Thermallimitiert ist - sodass noch mehr große Kerne dran zu bauen keinen Sinn ergibt, da diese taktseitig so weit runter fallen würden, dass man auch auf reale Ressourcen verzichten kann. Die Frage dabei ist, gibt es Konstellationen in dem so ein Ausbau von Nachteil ist? -> mMn bestenfalls ganz wenige. Bei AMD noch weniger als bei Intel. Der C-Core bei AMD mit 3,5GHz ist nicht langsamer oder schneller als ein durch Power/Temperatur eingebremster großer Kern mit ebenso 3,5GHz. Aber er spart Fläche auf dem Wafer.
Bei Intel ist der Spagat größer, die Taktraten der E-Cores aber schon wieder deutlich höher und dafür gibts zumindest dann für die kommenden Generationen offenbar auch die neuen E-Cores mit deutlich mehr Bumms.
Man muss das mal rückwärts anschauen - die IPC der alten E-Cores liegt in etwa bei Skylake Niveau. Also 6700k bis 10900k. 4,6GHz im Takt Turbo. Natürlich ist das ein Unterschied zu den P-Cores. Aber Welten waren das auch damals schon nicht. Kommende E-Cores sollen ja wieder schneller werden.
Cr4y schrieb:
AMD C-Cores sind ja nur etwas anders angeordnet mit nem geringeren Cache, soweit ich weiß.
Am Ende aber auch egal - das entscheidende ist, wie viel pro Thread Performance der Kern dann schafft, wenn das Powerbudget nicht ausreicht obenraus.
Für die C-Cores wie auch die E-Cores zählt, ob sie mit ihrem Flächenbedarf effizienter sind als einfach mehr große Kerne zu verbauen. AMD spart ich meine es waren um die 30% Fläche, Intel verbaut mit den alten E-Cores zumindest vier E-Cores auf die Fläche von einem P-Core.
Wenn jetzt aber die MT Performace höher oder wenigstens gleich schnell ist und die großen Kerne obenraus eh ihren Takt nicht ausfahren können, weil Power- oder Temperaturlimitiert, dann punkten die kleinen Kerne und zeigen einen Vorteil.
Wobei man durchaus gespannt sein darf, wie Intel 16x P-Cores im halbwegs gleichen Powerbudget unter bringen möchte, wo die 8x P-Cores heute schon das Powerbudget arg auslasten.
Ja, deswegen ist es besser, direkt von einer BDMV zu kodieren, anstatt sich den Ripps von anderen zu bedienen (ReinForce etc.), denn dann sind bei gleichbleibender Qualität sogar nochmals Einsparungen in der Dateigröße drin, besonders von JP-BDs, diese die Qualität von US-BDs und dergleichen übertreffen können.
Nicht nur dafür.
Nehme man die 20 Lanes von der CPU, gehen davon 16 an die Grafikkarte und über bleiben... Genau: Vier an der Zahl.
Das langt für eine SSD, aber nicht mehr, wenn man über einen Mainboard verfügt. dass dort oben gleich zwei Slots anbindet, wovon der eine entweder deaktiviert ist oder sich die benötoigten 4 Lanes von einem eventuell vorhandenen WLAN-Adapter klaut, dieser dann deaktiviert ist.
Etwa abenteuerlich was du hier schreibst. Zum einen hat die CPU 24 Lanes, es bleiben also zwei SSD über und zudem wird da nirgends was mit dem WiFi Chip geteilt. Die werden an den PCH gehängt, der weitere 24 lanes bietet.
Naru schrieb:
Doch was ist, wenn es sich um eine SSD für die 5. Gen handelt, diese sich 8 Lanes gönnt? Richtig...
Klar, wer kennt sie nicht die 8 Lane SSD auf ATX Boards.... An welcher Schnittstelle?
Als würden 14 GB/s nicht reichen. Wer x8 SSDs benötigt hat auch kein Problem damit nen Xeon zu kaufen.
Mach doch mal konkrete Beispiele, wo es nicht ausreicht.
Nicht nur dafür.
Nehme man die 20 Lanes von der CPU, gehen davon 16 an die Grafikkarte und über bleiben... Genau: Vier an der Zahl.
Das langt für eine SSD, aber nicht mehr, wenn man über einen Mainboard verfügt. dass dort oben gleich zwei Slots anbindet, wovon der eine entweder deaktiviert ist oder sich die benötoigten 4 Lanes von einem eventuell vorhandenen WLAN-Adapter klaut, dieser dann deaktiviert ist.
Das Stichwort dafür ist eher, dass man den PCH, Chipsatz oder wie auch immer man das nunmehr nennen möchte, dafür nutzt und möglichst gut an die CPU anbindet. Im Mainstream ist davon auszugehen, dass selten über Dauerhaft hohe Transferraten gesprochen wird, sodass die 4-8x PCIe 4.0 oder 5.0 zu besagten Hub nicht ausreichen würden. Letztlich kann man dann an diesen genug M.2 SSDs anklemmen und aufgrund der Tatsache, dass die Geschichte Fullduplex fähig ist, auch gleichzeitig in beide Richtungen agieren.
https://www.computerbase.de/artikel...controller-test.92956/#abschnitt_leseleistung
Wenn man sich einfach mal anschaut, was abseits von Benchmarks real praktisch an Transferspeed erreicht wird - irgendwo zwischen 1 Komma GB/sec bis knappe 4GB/sec - sind wir weit weit weit unter den Möglichkeiten, die ein 4x 5.0 Interface liefert. Ein ausreichend breite dimentsionierter Chipsatz/Hub mit genug M.2 SSD Plätzen bietet da einfach überhaupt keinen Nachteil.
Die Anzahl der Rechenwerke (allgemeiner: functional units) ist staerker gestiegen als die durchschnittlichen IPC, daher ist die Auslastung der functional units gesunken.
Wobei man durchaus gespannt sein darf, wie Intel 16x P-Cores im halbwegs gleichen Powerbudget unter bringen möchte, wo die 8x P-Cores heute schon das Powerbudget arg auslasten.
Sind aber durch M.2, U.2 etc. abgeloest worden. Aber einige haben den Schuss erst spaet gehoert, und Samsung hat noch die PM1735 mit PCIe4.0x8 rausgebracht.
Mir persönlich sind Verbrauch und Temperaturen am wichtigsten, momentan könnte ich die Leistung von mehr als 6-8 Kernen sowieso nicht abrufen. Wird wahrscheinlich interessant wenn Spiele es in der Breite tatsächlich schaffen diese Kerne auch richtig effizient einzusetzen.
Ja natürlich, das geht halt ein Stück weit zu lasten der Peak Performance. In Benches wird man das kaum sehen, weil Tools wie Cinebench total egal ist, wie hoch die pro Thread Performance ist - real praktisch ist aber beim gemeinen Otto Zuhause ggf. ein größerer Unterschied sichtbar.
So nach dem Motto, kaufe 16C Prozessor und setze 8C für ein Game und 8C für ein Background Video Encoding. Zieht das dann die Taktrate zu niedrig, wird das Spiel halt beeinflusst.
Der Schritt zu 12 bei AMD und 16C bei Intel ist aber durchaus zu begrüßen...
xexex schrieb:
Das ist bereits der Fall, "Skylake" Niveau waren die ersten E-Kerne.
Ich denke das interessiert langsam niemanden mehr was Intel macht !
Wieder mal großspurige Ankündigungen, wieder mal > 1 Jahr warten, wieder mal ein neuer Sockel, wieder mal ein neues Mainboard, wieder mal eine CPU die nicht aufgerüstet werden kann, weil 1 Jahr später blöderweise ein neuer Sockel und ein neues Mainboard für den Nachfolger notwendig ist...usw...usw...
Aber vielleicht merken sie bei Intel selber mal, daß das Geld nicht mehr vom Himmel fällt, wie die letzten 25 Jahre - und vielleicht fallen auch mal die jährlichen Erfolgsbeteiligungen etwas kleiner aus, damit man etwas ins Grübeln kommt...
Es kommt auf den workload an. Intel kann auch 80% rausholen, wenn genau die duplizierten Register genutzt werden. Da ist kein meilenweiter Unterschied.
Idealerweise würde Phoronix den gleichen Test mit einen 16C Intel durchführen, am besten auch Power limitiert.
Aber Intel hatte schon früher weniger + erarbeitet mit SMT, als es AMD getan hat. Wäre schon sonderbar, wenn Intel das Blatt wenden würde, wenn sie nicht mal bei den Cores in wichtigeren Disziplinen mithalten können.
Die News ist immerhin hier auf CB auf Platz ein der Meistgelesene News der letzten 72 Stunden. Ich glaube also schon, dass ein gewisses Interesse hier vorliegt.
Erstmal muss ja der Nachfolger der aktuellen Generation herauskommen, bevor dessen Nachfolger erscheint.
Dessi schrieb:
wieder mal ein neuer Sockel, wieder mal ein neues Mainboard, wieder mal eine CPU die nicht aufgerüstet werden kann, weil 1 Jahr später blöderweise ein neuer Sockel und ein neues Mainboard für den Nachfolger notwendig ist...usw...usw...
Wer kauft sich auch schon innerhalb eines Jahres eine neue CPU, oder gar 2 Jahre, wenn er jetzt nicht gerade kaputt geht. Würde ich jetzt definitiv als äußerst fragwürdiges Konkursverwaltern bezeichnen. Der AMD AM4 hielt von 2017 bis 2022. Für mich zu kurz, um bei eine CPU Wechsel, den Sockel zu behalten.
Es ist nicht so, als ob es da nicht schon Möglichkeiten gäbe, wenn man einer der wenigen User ist, die tatsächlich einen Usus für massive Parallelität haben.
Wenn man es beruflich macht, auf alle Fälle. Ich muss auch auf die Antworten hinsichtlich @Yosup und @xexex zugeben, dass ich etwas in Richtung "warum braucht man das generell" geantwortet habe und das Gegenbeispiel gesucht habe (du hast ja auch nur gesagt, dass du das persönlich nicht brauchst, was auch nachvollziehbar ist für die meisten). Ein wenig ist das Suchen nach dem Gegenbeispiel eine Mathematikerkrankheit. Gegenbeispiele können unbedeutend sein.
Vielleicht ist die Nische sogar noch kleiner als euere Abschätzung, aber ich glaube ich kann dann aber erklären, warum man es vielleicht doch eher gebrauchen könnte, als man denkt, wenn man es nur mathematisch durchrechnet und dabei hilft mir das Beispiel von Xexex vielleicht:
xexex schrieb:
Jemandem der vielleicht 3-4 mal im Jahr ein paar Videos bearbeiten möchte, können die "3-4min" völlig egal sein. Das ist so wie mit der 1Gbit/s Leitung fürs Internet, schön eine zu haben und sich alle paar Monate den neusten Blockbuster in 5 Minuten herunterladen zu können, es würde aber auch niemandem ein Zacken aus der Krone fallen, wenn er 10 Mal so lange benötigt und in der Zwischenzeit was anderes macht.
Ich glaube nämlich, dass die Beispiele sich unterscheiden. Videobearbeitung ist davon nicht so stark betroffen, wie Simulationen und Programmcode generell, aber auch beim Bearbeiten von Videos hat man eine Vorstellung, was man erreichen will, man hat Ideen, ändert die Einstellung und will sehen, ob das im Gesamten richtig gewirkt hat.
Beim Herunterladen einer Datei ist es eine Aktion, danach wartet man, dass der Vorgang abgeschlossen ist.
Beim Bearbeiten von Programmen oder Videos kann es sein, dass man einen Fehler sucht, dabei ändert man Einstellungen und schaut, wie sich das Ergebnis verändert hat. Wenn man dabei aber eine bestimmte Zeit warten muss und nicht konzentriert ist, hat man vergessen, was der rote Faden war, den man zum Finden des perfekten Ergebnisses sich zurecht gelegt hat.
Ich habe schon oft am Ende gemerkt, dass ich mir Notizen machen muss, dass ich beim Überprüfen vom Video/Programm noch weiß, worauf ich wirklich achten wollte, damit ich da nicht drüber weg komme. Wie sich Bugs verändern, vor allen Dingen, wenn bei komplexeren Berechnungen an verschiedenen Stellen das Ergebnis besser, schlechter wird oder die Abstürze anders aussehen. Wenn man soetwas über längere Zeit debuggen muss, weil der Compiler immer 30 Minuten braucht, dann verliert man den Überblick.
Die Aussage, dass man sich das eine Hand voll Mal im Jahr locker antun kann, stimmt natürlich immer noch.
Mein Einwurf dazu wäre nur, dass sich eventuell sogar das Ergebnis verändert und wenn man zurück zur Internetleitung kommt: 1Gbit/s zum gleichen Preis als Grundversorgung wäre ja schön. Selbst wenn diese CPU erstmal fast keiner braucht, ist es schön zu sehen, dass Performance günstiger und verfügbarer wird.
Ohne es beruflich zu machen, kauft man auf alle Fälle nicht die ganz teuren Lösungen und diese CPU könnte in den Enthusiastenmarkt rutschen.
Ergänzung ()
Naru schrieb:
Nehme man die 20 Lanes von der CPU, gehen davon 16 an die Grafikkarte und über bleiben... Genau: Vier an der Zahl.
Vielleicht liegt das daran, dass die Zeiten vorbei sind, dass man einen Miditower unter dem Tisch stehen hat. Soundkarten werden ja auch per USB angeschlossen und man hat einen großen Haufen Krempel herumliegen, statt alles über Einschübe am PC zu realisieren. Teilweise ist es natürlich schön, dass die Soundkarte da sein kann, wo der Sound gebraucht wird.
Aber dass man die USB-Schnittstellen bei einem großen Tower nicht einmal unfallfrei nach vorne verlegt bekommt, ist inzwischen schon etwas heftig.
Es fühlt sich an, als sollte der PC auf dem Schreibtisch stehen und daneben ein Haufen USB-Erweiterungen in einem Kneul an Kabeln.