Test AMD Ryzen Threadripper 7960X im Test: Der 24-Kern-Einsteiger im Workload- und Spiele-Benchmark

Blaze1987 schrieb:
Falsche Bildschirmfotos?
Lesen würde helfen:

"Du arbeitest hier (neben offensichtlich falschen Daten) mit Bildschirmfotos"
Ergänzung ()

Blaze1987 schrieb:
Im Gegensatz zu den meisten Usern, hinterlege ich immer Quellen und Screenshots für Transparenz.
Ein Bildschirmfoto, auf dem die von Dir behaupteten Eigenschaften nicht zu erkennen sind ist keine Unterstütung.
 
  • Gefällt mir
Reaktionen: cosh, SweetOhm und janer77
Unterstützung für was?

Wenn du wirklich Ahnung hättest, hättest du direkt gewusst, dass auf diesem Board nur 512 GB RDIMMs verbaut werden können und nutzbar sind, wenn beide CPUs verbaut sind, gell?

Dass die E5 Serie auch C und A Varianten besitzt, kannst du anhand des BIOS Post sehen...
Und damit andere CPU Base und Turbo MHz Clocks vorhanden sind weiß man oder halt nicht.

Mach aber bitte nicht andere für deine Fehlinterpretationen von Quellen oder Screenshots verantwortlich.

Soviel zu falschen Daten und nicht hilfreichen Screenshots.

Meine Aussage war und ist nur eine und ist völlig unerheblich von meinen Screenshots und Links (bis auf die Belege des F1 23 Computerbase Community Benchmarks):

Im GPU Limit von Spielen, ist eine moderne oder neuere CPU oder selbst eine CPU mit geringfügiger höherer IPC und mehr Takt für die Leistung ab 3 GHz und 6 bis 8 Cores nicht relevant! Das selbe gilt für die Plattform, Speicher Bandbreite und Massenspeicher!

Punkt.

Alles andere, hast du und andere Poster angeschoben, indem ihr widersprochen habt, ohne Belege oder Quellen anzuführen.

Oder einfach Behauptungen aufstellen ohne Belege / Quellen.

Das mein GPU Score im Time Spy geringer ist, liegt am UV der 4090 und nicht wesentlich an der verbauten CPU.

Woher weiß ich das? Weil ich mit anderen (schwächeren CPUs) teilweise schon höhere Scores hatte bei GPUs im Crossfire oder SLI Verbund.


Danke euch für den noch sachlichen Austausch.

Ich möchte mich auch gar nicht mehr weiter "gefühlt" provozieren lassen.

Behaupte was du möchtest. Bleiben Behauptungen ohne Belege oder Quellen.

Bye.
 
Zuletzt bearbeitet:
Ich verstehe diese komplette Offtopic Diskussion gerade nicht.
@Blaze1987, du "verteidigst" deine fast 10 Jahre alte CPU mit aktuellen Modellen indem du allgemeine Behauptungen (>90%) aufstellst, die du dann mit aus meiner Sicht Szenarien "belegst", die nicht unbedingt die kompletten 90% bedienen.

Ja, es ist richtig, dass viele Spiele in 4K GPU limitiert sind und die CPU nur einen geringen Einfluss auf die avg. FPS hat. Wobei auch hier desöfteren die low Percentile niedriger ausfallen, was bei niedrigen FPS durchaus nervig sein kann.
Außerdem gibt es Spiele, die sehr wohl nach CPU fragen. Civilization IV, Anno, usw.
Und es gibt auch genug Anwendungsszenarien, bei denen Spieler mindestens 100 FPS oder sogar deutlich mehr wollen und dafür nicht stumpf alle Grafikregler nach rechts ziehen. In schnellen Shootern z.B. -
https://www.anandtech.com/show/1874...0x3d-review-amd-s-fastest-gaming-processor/10
https://www.tomshardware.com/features/nvidia-geforce-rtx-3080-ampere-cpu-scaling-benchmarks

Ob das nur die <10% Anwendungsfälle sind oder nicht - das ist doch eine individuelle Entscheidung und kommt auf die Spiele und Anforderungen an. Bringt uns am Ende aber vermutlich nicht zu einer allgemeinen Aussage.

Zur "IPC" in den letzten 10 Jahren nicht signifikant gestiegen sein soll sage ich mal nichts, da ich gerade auf die Schnelle keine geeignete Quelle finde. Ich meine mich aber zu erinnern, dass wir je nach Anwendungszenario von knapp doppelter bis dreifacher "IPC" sind. Ist halt schwierig, das auf eine Zahl runterzubrechen, denn in deiner Diskussion geht es ja um Spiele und Spiele reagieren unterschiedlich auf die verschiedenen Architekturen und die Messmethode (z.B. average FPS vs. 99-percentile) haben dann einen Einfluss.

Vorschlag zur Güte:
In den von @Blaze1987 beschriebenen Szenarien ist sein Doppel Haswell trotz der knapp 10 Jahre noch auf der Höhe der Zeit. Es gibt aber durchaus diverse Szenarien, in denen ein Spieler auch in 4K von einer neueren, schnelleren CPU profitiert.

@Blaze1987
Ich kann verstehen, dass du deine Doppel Haswell Power Maschine liebst. Das war damals schon geile Technik und ist es auch heute noch. :schluck:
 
  • Gefällt mir
Reaktionen: Quidproquo77, Redundanz, SweetOhm und eine weitere Person
Darum ging es mir wirklich nicht.

Sondern dass im GPU Limit (bis auf meist RTS Spiele und selbst da kenne ich nur 2 wo es wirklich auffällt) viele Spiele einfach schlecht mit modernen CPUs skalieren.

Das ist einfach trauig für die angeblich so erhöhte IPC und vor allem fast 50 % mehr Takt nicht wirklich nachvollziehbar.

Nach 10 + Jahren sollte da einfach mehr bei rum kommen.

Das kann auch einfach an den Entwicklern der Spiele liegen und den oft identischen Engines (UE 4 / 5 etc.).

Viel bedenklicher finde ich dabei aber, dass oft Kaufberatungen ausgesprochen werden im Zusammenhang mit einer High-End CPU, damit der User @ 120 Hz oder 144 Hz den vermeidlich nötige/n CPU Aufrüstung / Plattform Wechsel ausgeprochen wird, obwohl bis auf wenige Ausnahmen jedes Spiel im GPU Limit gespielt wird.

Genauso, dass in Testberichten ein PPC / IPC Vergleich für Spiele (von mir aus auch für Apps) meist gar keine älteren Plattformen / Sockel mehr mit einbezieht, da sehr aufwendig zu testen. Das wäre aber m.E. wichtig.

Dann werden lieber CPU Benchmarks in völlig Praxis fernen 720 p Benchmarks herangezogen, um die aktuelle CPU Leistung aufzuzeigen.

Dann werden noch 4090 Benchmarks unterhalb von 4K und maximalen Details herangezogen, wo die Unterschiede in Gegensatz zu 4K gerade weitaus besser messbar sind... Großartig! 👍

Alles andere war Eifer des Gefechts und allgemein (auch von mir) zu viel Off Topic.
Dafür entschuldige ich mich und lass es uns gerne abhaken ✅.

Aber ich würde mich wirklich um weitere IPC / PPC CPU Benchmarks freuen.

Auch aktuelle SPEC Benchmarks sind nicht übersichtlich zu erhalten...

Also gerne her damit. 👋

PS. Danke dir für den Andantech (mag die auch sehr gerne) Link.

Bei den Low FPS versaut es es einen leider of die Spiele Engines.

Aber bei gut programmieren Titeln (RDM2, Ready or Not, Doom etc.) sind die sehr hilfreich als Indikator.

Dass bei Anwendungen das Ganze ganz anders aussieht steht übrigens ausser Frage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wechhe
Blaze1987 schrieb:
Wenn du wirklich Ahnung hättest, hättest du direkt gewusst, dass auf diesem Board nur 512 GB RDIMMs verbaut werden können und nutzbar sind, wenn beide CPUs verbaut sind, gell?
Dein Board hat 8 Speicherschlitze pro Sockel und kann bis zu 64GB pro DIMM aufnehmen, mithin 512GB mit einer CPU. (und 1TB mit zweien)

https://www.asus.com/commercial-servers-workstations/z10ped16_ws/
https://www.asus.com/commercial-servers-workstations/z10ped16_ws/specifications/
https://dlcdnets.asus.com/pub/ASUS/...WS_memory_AVL_20190311.pdf?model=Z10PE-D16 WS

🤷‍♂️
 
  • Gefällt mir
Reaktionen: SweetOhm
Blaze1987 schrieb:
Aber ich würde mich wirklich um weitere IPC / PPC CPU Benchmarks freuen.

Da würde ich mich auch drüber freuen.

Ich verstehe zwar den theoretischen Charakter der CPU Gaming Tests, jedoch sind diese eben für sehr viele Spieler nicht wirklich praxisnah und damit nicht hinreichend genug für eine Kaufentscheidung.
Immerhin bieten einige Seiten 1440p Benchmarks und einige wenige 4K Benchmarks.

Naja. Eh ich nun auch offtopic werde - ich glaube, dass ich deinen Beitrag verstanden habe. Passt für mich :schluck:

Die aktuelle HEDT Plattform ist irgendwie geil, aber nicht mehr so geil wie damals die Haswell oder Threadripper - weil sie eben nicht so universell einsetzbar sind, z.B. fürs Gaming. Das suggerieren zumindest die Benchmarks. Ob das in der Realität überhaupt die Zielgruppe wichtig ist UND die getesteten Szenarien zum Einsatz kommen statt GPU Limitierung - das muss jeder für sich entscheiden.
 
  • Gefällt mir
Reaktionen: Blaze1987
Blaze1987 schrieb:
Beim TimeSpy Vergleich solltest du ggfls. Mal dein Augenmerk auf den GPU Score richten.
Ja das ist es eben. Ich lese da für den GPU Score 15'652 - bitte korrigiere mich wenn ich was nicht sehe.

Meine 7900XTX hat einen GPU Score von knapp 30k. Eine 4090 muss darüber liegen.
Wenn ich bei 3DMark reinschaue dann erhalte ich mit einer 4090 im Graphics Score im Peak der Verteilung ~36'500 Punkte:
Quelle

Wir sprechen hier schon vom normalen TimeSpy? Wenn ja - dann ist eben deine GPU völlig CPU limitiert.
 
@incurable:

Puhh.

Du möchtest anscheinend trotzdem weiter machen wie es scheint. 🤣😅

Mehr als 512 GB RDIMMs sind praktisch nicht drin gewesen.
Mit 3DES DIMMs sind in der Theorie mehr drin (konnte ich nirgendwo kaufen, da nicht gelistet), genauso mit LV DIMMs.

Habe es mit 64 GB RDIMMs und 128 GB RDIMMs probiert.
Kein Post mehr möglich gewesen. Das ist die Praxis, was ich dir sagen kann.

Auf dem ASRock X99E-ITX funktionieren wiederum 2x 128 GB DDR4 RDIMMs @ 2400 MHz...

Du wusstest doch nach deinen ersten Post dazu von mir, dass zwei CPUs verbaut sind.

Mögen wir uns nicht einfach die Hände reichen und ich spreche dir auch nicht ab, dass du gewillt bist Google & die Asus Homepage korrekt zu bedienen und zu lesen? 🙃

Wenn du das Board die CPUs nicht besitzt und die Versuche mit RDIMMs selbst nicht unternommen hast, meinst du nicht, dass es dann nur für die Theorie reicht?

Egal. Ich habe dir die Informationen nicht eindeutig aufbereitet / präzisiert und dafür entschuldige ich mich ganz herzlich bei dir und gelobe Besserung.


@Dark Soul

Da sollte auch wirklich was nicht stimmen...

Müsste ich nochmal laufen lassen...

Habe nur noch ältere GPU Limit Benches im Hardwareluxx Forum zur 4090 UV (mit schwächeren CPUs) :

Beitrag im Thema 'NVIDIA RTX4000 Undervolting-Sammler' https://www.hardwareluxx.de/communi...00-undervolting-sammler.1325830/post-29927213

@Wechhe:

Da haben wir noch IPC / PPC Test, leider nur relativ neue Plattformen und m.E. Nur für Anwendungen:
https://www.computerbase.de/2021-11...0k-test/6/#abschnitt_weitere_spielebenchmarks
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Ich habe kein Problem damit, wenn Du für das Richtige um Entschuldigung bitten möchtest.

Wichtiger finde ich persönlich, dass die Behauptungen in den Beiträgen einer Prüfung standhalten. Wenn Du Dich also alternativ (oder auch zusätzlich) diesem widmen möchtest, wäre mir damit mehr gedient.
 
Blaze1987 schrieb:
Da sollte auch wirklich was nicht stimmen...

Müsste ich nochmal laufen lassen...

Habe nur noch ältere Benches im Hardwareluxx Forum zur 4090 UV (mit schwächeren CPUs) :

Beitrag im Thema 'NVIDIA RTX4000 Undervolting-Sammler' https://www.hardwareluxx.de/communi...00-undervolting-sammler.1325830/post-29927213
Schöner Beitrag zu UV einer 4090!

Aber auch hier... Wenn ich des TimeSpy Extreme nehme, sind alle deine Zahlen darunter:
Quelle 3DMark

Da müsste eine 4090 bei ~19.5k sein. Du bist auch in 4k darunter. Eventuell ein NUMA Problem? War ja beim Threadripper Gen 1/2 nicht anders im Gaming.
 
  • Gefällt mir
Reaktionen: Blaze1987
@incurable:

Okay. Wofür möchtest du jetzt bitte noch Quellen / Beweise?

Das in den meisten Spielen bei 4K und maximalen Details eine 4090 nicht ausgebremst wird (außer bei ein paar RTS Spielen oder bei 3 Shootern, wo man mehr als als 120 FPS in den low FPS benötigt? ) bzw. die CPU so gut wie keine Relevanz mehr spielt?


Die Quellen habe ich angegeben.

Andere haben uns dazu auch Links beigesteuert.

@Dark Soul:

Du willst doch jetzt nicht wirklich die World Records mit LN2 / Flüssiggas als Referenz bei den GPU Time Spy Extreme Benchmarks als Referenz heranziehen oder?

Ich will nicht wissen, was 3000 MHz + GPU Takt für Watt Zahlen ergeben hat.

Wie gesagt, müsste ich ohne manuelle UV Curve nochmal gegentesten...
Also Werkeinstellungen.

Als Referenz würde ich dann einen CB oder Hardwareluxx Bench im Time Spy Extreme oder ähnliches nutzen.

Heute aber nicht mehr... 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Blaze1987 schrieb:
Wie gesagt, müsste ich ohne manuelle UV Curve nochmal gegentesten...
Also Werkeinstellungen.

Als Referenz würde ich dann einen CB oder Hardwareluxx Bench im Time Spy Extreme oder ähnliches nutzen.
Gerne! Hab hier nämlich noch ein X99 System rumliegen (leider eben keine GPU) - würde mich also brennend interessieren :)
 
  • Gefällt mir
Reaktionen: Blaze1987
guggi4 schrieb:
https://www.computerbase.de/2023-12/gpu-braucht-cpu-2023-amd-test/

Der 1600X dürfte in etwa die Gamingleistung deines Xeon haben, tendenziell sogar etwas mehr.
Der bremst selbst in 2160p eine 4090 großteils aus.

Kann ich leider nicht selbst nachtesten oder kontrollieren, da ich keins der Spiele besitze. Wären auch keine dabei die ich spiele.

Ich kann mir jetzt auch drei Spiele rauspicken, wo der Unterschied mit Sicherheit nicht in 4K Max Details vorhanden ist.

Sind das dann auch Cherry Picking Test dazu?

https://www.anandtech.com/show/1874...0x3d-review-amd-s-fastest-gaming-processor/10

Ausser bei Anno, Dota2 (+ 50 % = macht bei @ 120 Hz oder 144 Hz trotzdem nicht viel aus und die Spiele sind absolut bekanntermaßen im CPU Limit, warum wurden diese wohl ausgewählt? Damit man wieder keine Unterschiede feststellen kann @ 4K? ) und Spiderman reden wir von 5 - 20 FPS Min FPS unterschied bei Cyperpunk (in genau dieser Benchmark Sequenz wohlgemerkt!)

Eine Quelle hatte ich mit F1 23 schon als Quelle angegeben.

Was jetzt?

Das einzige was jeder ausführen kann, ist ein Time Spy Extreme Run und die seine Ergebnisse posten als Vergleich...

Dann noch für Anwendungen obwohl ich da ja schon gesagt hatte, daß dort auf jeden Fall enorme Leistungszuwächse vorhanden sind (alleine schon fast + 50 % Takt):

https://www.computerbase.de/2023-09/cinebench-r24-community-benchmark/#abschnitt_cpuergebnisse


Das hilft uns trotzdem nicht weiter.

Das einzige was helfen würde, ein aktuelles System in Anzahl X Spielen in 4K max Details zu meinen im identischen Parcours zu testen.

Ansonsten glaube ich nicht, dass wir es so weit treiben sollten.

Das einzige was ich anbieten kann:

Kommt gerne mit einem aktuellen System inkl. 4090 vorbei und wir benchen zusammen... 👌😋

Aber nochmal.
Wer CPU limitierte Spiele und Auflösungen und geringe Grafikeinstellungen spielt, weiß das und hat dafür auch keine 4090 im System.

Wer Probleme mit Min FPS besitzt kauft sich eine neue Plattform / neue CPU und gut ist.

Genau das werde ich auch machen, wenn meine Spiele nach CPU Leistung schreien.

Das einzige Spiel, was ich kenne, welches mehr GPU Leistung haben will, ist bisher einzig alleine Ready or Not auf Max Settings (4K und 150 % Skalierung).

Lass uns doch da mal schauen was da raus kommt...?!
Oder wäre das auch zum CB Test "CPU benötigt GPU" Cherry 🍒 picking?

Anderes Beispiel: Company of Heroes 3 ist CPU limitiert bei mir und Iron Harvest GPU limitiert @ 4K max Settings.

Sind aber beides RTS Spiele... Und jetzt?
Bringt euch das was? Mit Sicherheit nicht!

Ich selbst spiele nur @120 Hz auf nen OLED TV mit Freesync Premium...

Deswegen kann ich nur für meine genutzten Spiele mit den Einstellungen kein CPU Limit feststellen.

Das ist alles was ich als typisches Beispiel mit "kommt drauf an" angeben kann.

Und damit sollte nun auch endlich alles gesagt sein.

Wer das nicht glauben möchte: Testet es selbst nach inkl. Quellen und dann reden wir weiter.

Ich weiß sehr gut, wie man ein CPU oder GPU Limit testen kann und ich hätte bei nervigen Min FPS drops schon längst den Sockel gewechselt.

Zuletzt hatte ich das bei Insurgency Sandstorm und der RX 6900 XT.
Warum, CPU zu schwach oder GPU zu schwach?
NEIN!

Die Spiele Engine läuft einfach nicht rund mit AMD GPUs...
Das weiß ich, weil ich es praktisch getestet habe und das mit der 4090 FE nicht mehr auftaucht (selbst mit einer 1080 FE / 1080 TI hatte ich keine Drops vorher) ...

PS. Selbst UL sagt, dass unter anderen Time Spy CPU limitierende Benchmarks sind.

Port Royal und Wild Life dagegen sollten GPU limitierend sein...

https://support.benchmarks.ul.com/support/solutions/articles/44002196922-game-performance-estimation

Also hört doch einfach auf, die wenigen CPU limitierenden Spiele / Tests als Referenz heran zu ziehen.
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Da träume ich schon lange von, wird wohl aber auch nicht mehr passieren. Man bekommt ja selbst hier, unter vermeintlichen Enthusiasten, zu hören, dass sowas niemand braucht. Was willste machen? Gibt wohl keinen echten Markt dafür.
Wird wohl so sein... meinetwegen die teuren Boards und dann dein TR auf Basis der 3Dcache CPUs mit 16 kennen, 30% Aufpreis zum normalen ryzen aber dafür doppelte pcie lanes. Alle alten m2 können schmerzfrei in 4xm2 Karten verwendet werden und wer proxmox mit mehr wie einer GPU aufsetzen will hat auch die Möglichkeit mit entsprechender mehrleistung....
Ja, alles Niesche aber ich hätte es halt gern / würde das gern machen ;)
 
Dark Soul schrieb:
Das freut mich :)

Ja kann man so nennen.

Software Ingenieur im Bereich Forschung und Entwicklung, Space & Compiler. Nebenbei noch Dozent für Informatik (Algorithmik, Parallel Computing). Fragen darf man immer :)

Wenn das Gerät bereits vorhanden ist, dann kann man natürlich darauf spielen. Mein Punkt war nur, dass man sich keinen Threadripper / Epyc anschafft wenn die Primäre Anwendung Gaming ist.

Das bezog sich auf die alten HEDT Plattformen à la Intel X99 und ähnliches. Da hatte man nur mit diesen die volle PCI-E Bandbreite wenn man ein CF / SLI System betrieb. Somit war da meine Aussage, dass man HEDT damals als Gaming System rechtfertigen konnte. Heute sehe ich keine Gründe dafür.

Diese Tests zeigen sehr schön wie gut Spiele mit Anzahl Kernen skalieren. Noch dazu ist es viel einfacher und für vor allem für die Leserschaft verständlicher ein Spiel zu testen als synthetische Benchmarks oder gar eigenen Code.

Wenn ich mich nicht irre ist TRX40 der alte Chipsatz? TRX50 ist der neue.

  • 24C auf 32C sind ein Gewinn. Nur ist dieser kleiner auf von 16C auf 24C - und eben dieser stagniert je höher man geht - deshalb mein Beispiel mit Amdahl's Law. Ich weiche also nicht aus, du verstehst mich einfach nicht habe ich das Gefühl. Ich habe nur deine Aussage der viel günstigere 7950X hätte es auch getan widerlegt.
  • Zur Jobparallelität. Wenn man Abhängigkeiten hat im Code geht das eben nicht so einfach. Nehmen wir das (vereinfachte) Kodieren einen RAW Videos von der Festplatte mit HEVC/H265 als Beispiel:
1. Wir laden die Rohe Datenquelle in den Speicher - das ist ein Serieller Prozess welcher nicht parallelisiert werden kann
2. Der Encoder wird angeschmissen, Frames werden unterteilt in Tiles, dies kann man Parallelisieren, jeder Thread hat unabhängig voneinander einen Ausgangsspeicher wo er reinschreiben kann.
3. Das Fehlersignal (residual) für das Frame wird erstellt - das ist ein serieller Prozess.
Wir haben also eine Abhängigkeit 1->2->3. 1 und 3 sind serielle Prozesse, 2 ein paralleler Prozess. Somit kann man nicht 1, 2 & 3 gleichzeitig Starten.
Dieses Problem hat man ja konstant - CPUs lösen dies intern ja mit Pipelining. Dann läuft ja quasi alles Parallel, nur in anderen Stages.

x Jobs parallel starten ist nur möglich wenn diese absolut unabhängig voneinander sind. Und das ist bei einem Rechentask leider oft nicht möglich. Um das Ganze zu umgehen kann man aber einfach die Problemgrösse erhöhen, das macht man bei der GPU programmierung so - dann zieht nähmlich Amdahl's Law nicht mehr, sondern wir gehen nach Gustafson's Law vor. In der Literatur spricht man dann von Latency Hiding.
Anderst wird es wenn es um reine CPU Umwandlung geht.Du schreibst ja im letzten Abstatz bestimmt von GPU Videumwandeln.Es gibt aber welche wie ich die machen eine reine CPU Videoumwandlung.GIllt das Beispiel auch bei H264 oder nur bei H265?
Und man kann das ganze noch aufweichen.Man starte 2 x das selbe Programm und gibt jedem von denene unterschiedliche Videos und wandelt gleichzeitig beide damit um.Mir wollte einer weis machen das sich beide gegenseitig ausbremen würden.Dem ist aber nicht so.Auf einem 6 sowie 8 und 12 Kerner mag das zutreffen aber ab 16 kernen ist das nicht mehr der Fall.Und das FPS in Tiles aufgeteilt werden das lese ich bei Videoumwandlung zum ersten mal.Ich las davon das die Zeilen also die Pixel ne gewisse Menge dem jeweiligem Kern zu geordnet wird.Und diese am ende wieder zusammen getan werden.Dsa geht nur bis zu einer gewissen Anzahl an Kernen gut und ab da dann nicht mehr.
Und mir ist schon aufgefallen bei einer normalen Serien Folge von 20 Minuten schaffte ich niemals unter 30 Sekunde Pro Folge zu kommen,egal ob einzeln oder 2 Paralell.Selbst eine GPU schaffte es nicht und dabei ist ja eine rtx 3050 keine schlechte GPU.Das ist der Teil wo nicht mehr beschleunigt werden kann.Das schriebst du ja.Ich bin allerdings noch nicht bei 30 Sekunden angekommen.Selbst ein Moderner Threadripper ist dazu nicht in der Lage.
Ob es an den 60 % an Auslatung des Threadripper 7960x liegt,obwohl es nur 24 Kerne sind.Ich aber schon mit 2 parallel handtiere.Das System habe ich selbst nicht,es testet zur Zeit einer für mich.Als nächstes wird SMT abgeschaltet probiert,sowie fest der Anwendung zugeordnete Kerne.ALso jede Software 12 Kerne.
Ich will schauen was man da noch aus der CPU holen kann.Und ich kann es nicht glauben das das Ergebnis schlechter ausfällt als mit einem 5960wx der ebenso 24 Kerne hat,wo halt Zen 3 Threadripper ist.

Mit 64 bit bzw einer Version des Software wo ich verwende,gab es einen Boost.Mit der Version die ich so verwende jedoch nicht.Kann sein das es an der Optimierung liegt das das nun schneller Umwandeln.
Mir wollte der Tester weis machen es liegt nur daran weil es nun keine 32 Bit sondern eine 64 Bit Version sei.
Das durch das die Videos schneller Umgewandelt werden.Die Bandbreite der Videos liegt jedoch bei 5 Mbit Bitrate,also eigentlich dürfte der Ram nicht Limitieren.Und ich weis aus der 7950x test das es nur einen kleinen gewinn des Ramtakt gab.
Wenn man also alle Infos zusammen tut,dann weis man was sache ist.Dann gibt es noch den Framebuffer auf der CPU ,der puffert das ganze.Dank dem Cache und so.Aber nicht jede L3 Größe führt zu einem Boost.
Eigentlich spielt auch die missrate und Hitrate beim Arbeiten eine Rolle.In meinem fall ist die missrate fast gegen 0 angekommen.Das heißt der Cache limitert nicht.Mein Ryzen 9 5950x ist einfach nur so langsam ohne das L1,L2 oder L3 Limiieren würde.Wenn selbst L1 ne sehr geringe missrate hat,wird es auch L2 so haben.

Ich lasse also weiter testen mit der hoffnung das sich am Ergebnis der aktuellen Threadripper noch was tuen wird.

Ich könnte auch mit meiner CPU die moderen Version testen.Da gab es ebenso einen Boost.Der war zwar kleiner gewesen aber besser als nix.
Mit dem 7950x wird es da auch einen höheren Boost geben.Wenn dann schwindet dann der Abstand zwischen 7950x gegenüber 7960x auf so um die 15 %.
Um da draus noch mehr zu machen geht es nur mit noch mehr gleichzeitig umzuwandeln.Und wie regelt denn die CPU wenn 2x die selben Arbeit statt findet und woher weis die CPU welche Daten von welchem Video sind,weil das ist ja ein risiko das Fehler Entstehen können.Das kann mir wohl eben keiner Erklären,wäre aber echt interessant.

Aber traurig ist das mit so einem geringen abstand ich auch mit einem Zen 5 ereichen kann,weil was sind schon 15 % Leistungsunterschied. Und mein Ziel ist auf hinuter zu den 30 Sekunden die nicht beschleunigt werden können zu kommen.Diese CPU exisiert allerdings noch nicht.Und auch blöd das die Geschwidnigkeit also in Zeit von dem Material wo umgewandelt werden sollte Abhängig ist.So war eine 300 MB Folge um einiges schneller umgewandelt als eine 600 MB Folge.Obwohl die Länge des Videos die selbe war.
Das selbst kann ich eben somit auch nicht beeinflussen.Ist halt dann so.Daran wird auch nen Threadripper nix dran ändern können.Und da wird die IPC Leistung eine rolle spielen.Ich nehme jede Steigerung die man so kriegen kann auch mit.Damit ich das beste aus der CPU herausholen kann was geht.Ohne OC zu betreiben.
 
Zuletzt bearbeitet:
latiose88 schrieb:
Anderst wird es wenn es um reine CPU Umwandlung geht.Du schreibst ja im letzten Abstatz bestimmt von GPU Videumwandeln.Es gibt aber welche wie ich die machen eine reine CPU Videoumwandlung.GIllt das Beispiel auch bei H264 oder nur bei H265?
Das Beispiel bezieht sich auf CPU Encoding - also die Referenzimplementation mit x265. H265 / HEVC ist der Standard, x265 die C Bibliothek. Zum Thema H264 / AVC: Dies wurde zu einer Zeit entwickelt (2003) als es fast noch gar keine Multicore CPUs gab - somit ist das noch schlechter parallelisierbar.

Wenn man also zwei Prozesse mit einem h264 Codec auf einer Modernen CPU startet, sollte das Problemlos gehen. Denn ein einzelner h264 Prozess lastet wahrscheinlich nicht mal 2 Cores vollständig aus.

latiose88 schrieb:
... Und das FPS in Tiles aufgeteilt werden das lese ich bei Videoumwandlung zum ersten mal ...
Kannst du im Kapitel 6.3 des Standards nachlesen :) --> HEVC Standard

latiose88 schrieb:
2 Paralell.Selbst eine GPU schaffte es nicht und dabei ist ja eine rtx 3050 keine schlechte GPU
Wenn ich es richtig im Kopf habe, hat die 3050 nur einen NVENC (die 4090 zB hat mehrere), es kann also nur 1 Stream gleichzeitig encodiert werden. Ob unterschiedliche Formate gleichzeitig gehen müsste man nachlesen.

Ob dein Anwendungsfall schneller wäre mit einem der von CB hier getesteten Threadripper kann man salopp also gar nicht beantworten. Da müsste man sich den Usecase im Detail ansehen.
 
  • Gefällt mir
Reaktionen: Wechhe
@Dark Soul
Naja du hast mich beim letzten abschnitt wohl missverstanden.Es hat schon einer mit einem Threadripper 7960x angefangen zu testen.Das Ergebnis mit der alten Version ist schlechter ausgefallen als mit Zen 3 Threadripper namens 5965WX. Bei der neuesten Version war es dann besser gewesen.Aber ich beziehe mich immer auf die ältere Version.Meine ist von 2018 mit 32 Bit als Code.
Ich dachte immer es spiele keine Rolle welche Software und deren Version.Da die CPU es ja die Aufgabe der Hardware sei hier ne Steigerung zu führen.Scheint aber nicht in jedemfall so zu sein.Von richtig skalieren kann keine rede sein.
Achja die RTX 4090 kann zwar zwei gleichzeitig aber nicht wenn man es auf 2 Unterschiedliche Prozesse die selbe Anwendung startet,dann sind es 2 seperate.Und das ist mit x264 ja kein Thema. Es ging ja ,sonst würde es ja der rtx 4090 nur vorbehalten sein.Ich schreibe wenn dann von 2 gleichen codecs.Nach oben können halt dann mehr.Und bei meinen handelt es sich um überwiegend 720x 576 Videos.Das dürfte echt für keine GPU ne richtige Herausforderung sein.Aber selbst auf alle Settings nach ganz unten also miseste Bildqulität ist es selbst bei einer GPU mal das Ende erreicht.Ich habe da einfach alle Regler nach links also das unterste gestellt.Ich habe gehofft das die GPU auch noch beschleunigt werden kann.Aber die GPU schafft es auch nicht mehr.Unter 30 Sekunden eine Folge umzuwandelt war nicht möglich.DIe Datei war dann bei rund 30 MB am Ende gewesen für 20 Minuten Folge.


Was ich damit sagen wollte,das alles mal ein Ende der Skalierung hat.Selbst ne GPU kann nicht alles Paralleisieren.Warum sollte es der GPU anders ergehen als der CPU.Ich habe wohl einfach zu viel von der neueren Generation erwartet gehabt.Hatte erwartet das mit meiner älteren Version hier mindestens 15 % mehrleistung heraus kommt.Schließlich hatte die 5965wx nut 4,6 ghz gehabt und die aktuelle 4,8 ghz.Mit der IPC Steigerung erreicht man da mindestens 10 % und mehr.Aber das ist eben nicht eingetreten ,warum kann ich nicht erklären.

Habe da wohl zu hohe Erwartungen gehabt.Naja erwarte dann in Zukunft nicht mehr zu viel.Das ganze Verhält sich also anderst als ich Erwartet hatte.Das kann man wohl nicht beeinflussen.Das ist das wo auch gemeint ist.Um eine so deratig hohe Leistung zu erreichen,warte ich wohl noch ab bis weitere 30-40 % mehrleistung zum Zen 4 drauf kommt.Ich bin einfach auf noch mehr CPU Leistung schwarf.Man kann ja nicht genug CPU Leistung haben.Ich will damit die schlechte Software Leistung kompensieren.Um das zu schaffen,wird die CPU das wohl richten müssen.
 
Blaze1987 schrieb:
Ich habe von geringen IPC Zuwächsen gesprochen.
Sei mir nicht böse, aber das liest sich für mich irgendwie anders (siehe #92 oder Anhang) ... :rolleyes:
 

Anhänge

  • Nicht höher.jpg
    Nicht höher.jpg
    451,6 KB · Aufrufe: 51
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blaze1987
Das Gigabyte Aero D ist gerade günstig im Angebot für 739€:

Aero D

Update:
TR Kollege hat seinen 7970X gepimpt

7970x, ASRock TRX50 WS - 5GHz all-core, 5.85GHz single core - 355 max power draw​

proof
 
Zuletzt bearbeitet:
Zurück
Oben