Test AMD Ryzen Threadripper 7960X im Test: Der 24-Kern-Einsteiger im Workload- und Spiele-Benchmark

duskstalker schrieb:
und ich bin mir sicher, da finden wir auch raus, wie amd auf die 88/92 kommt.
Ich hab's dir vorgerechnet, wie man auf die 88/92 kommt, ob du das jetzt so zählen willst oder nicht.
duskstalker schrieb:
bei x399 hieß es "64 pcie lanes"
"A total of 88 PCIe® 4.0 Lanes"
von der AMD Website zu TRX40

Wie gesagt, du wirst keine Plattform finden, bei der die Anzahl mit der von dir als enduser frei verfügbaren PCIe Lanes übereinstimmt. Das war auch nie die Intention, das ist einfach nur der Anspruch, den du plötzlich stellst. Ist dir bei früheren Plattformen nur einfach nicht aufgefallen oder hat dich noch nicht interessiert
Damit bin ich auch raus.
 
  • Gefällt mir
Reaktionen: Redundanz
Dark Soul schrieb:
Also ist deine Aussage lieber einen 16C 7950X zu nehmen völliger Unfug.
Die Ironie dahinter scheinst du nicht wirklich erfasst zu haben ;)

Den grundsätzlichen Fragen weichst du ja aus:
  • 16C auf 24C ist ein immenser Gewinn laut dir selbst, warum genau sollte das nun von 24C auf z.b. 32C nicht so sein?
  • Warum sind nun keine 2 oder 3 oder x Jobs parallel möglich?
 
  • Gefällt mir
Reaktionen: Newbie_9000
Dark Soul schrieb:
Man sieht, das Ganze stagniert mit Anzahl Cores - in diesem simplen Beispiel würden sich mehr als 8C wirtschaftlich wohl selten lohnen. Wenn wir unendlich viele Cores hätten, würden wir trotzdem bei 20s stagnieren.

Man kann also zusammenfassend auf AMD Produkte folgende Aussage treffen:
1. Der Serielle Anteil wird durch IPC / Takt schneller --> Threadripper / Ryzen sind schneller als Epyc
2. Der Parallele Anteil wird durch mehr Cores schneller --> Epyc mit richtig viel Cores holt den Pokal

TLDR: Angesichts unserer Anwendung und des Budgets wurde es ein 7960X.
Was hindert euch bei den später genannten Rechenzeichen einfach mehr als eine Aufgabe parallel auszuführen?

Ich mein, du sprichst später von 19h vs. 13h. Soweit, sogut. Aber bei 2x19h auf der selben Kiste hast du 100% Skalierung und könntest technisch auch die doppelte Anzahl an Threads belasten.

Argumentativ ist das irgendwie eine Rosine. Denn in aller Regel kann man ab einer gewissen Anzahl an Threads mehr oder weniger beliebig hoch skalieren, indem man einfach die Anzahl der Aufgaben erhöht und nicht die selbe Aufgabe immer weiter parallel versucht breit zu ziehen.


Zudem bei dem Workload, den du beschreibst, das Ding doch eh in der Ecke vor sich hin dümpelt?
Das einzige Argument, was mMn da noch zutrifft ist der Umstand, dass man das womöglich nicht 24/7 rund um die Uhr macht. Sprich der Mehraufwand beim Mitteleinsatz sich auf die Rechenzeiten beschränkt.


Ich hab selbst früher etwas intensiver mit Blender Cycles gearbeitet. 2014 einen 8C Haswell-E 5960X mit 4,5GHz OC, zwei NV GPUs für GPU Beschleunigung, später dann OptiX und das Ding lief beim Rendern und beim Modellieren erste Sahne. Mittlerweile übernehmen aber effektiv vollständig die GPU(s) die Renderarbeit und selbst die Live View geht super fix. Einen nennenswerten Vorteil von sehr viel mehr Cores ggü. den 16C/32T im Desktop sehe ich da zumindest privat nicht (mehr).
MMn bietet TR und auch das Intel Workstation Teil da heute einen viel schlechteren Kompromiss als fürher. Damals zu Haswell, Broadwell und noch Skylake HEDT Zeiten war der HEDT in jeder Lebenslage mindestens gleichwertig zum Desktop. Von Extreme OC mal abgesehen. Heute kaufst du dir (siehe Gaming im Vergleich zu den X3D Modellen) einen Kompromiss für schweine teuer Geld.
Die Anforderungen sind overall noch nicht entsprechend mitskaliert, was die Core Anzahl, den RAM/Menge und die PCIe Lanes angeht.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Caffenicotiak, incurable und 2 andere
Ayo34 schrieb:
Sehe für den 24 Kerner auch nicht so einen großen Markt. Man kauft sich eine sehr teure Plattform, baut einen 1500€ Prozessor ein und hat dann in einem guten Fall 30% mehr Leistung. Dafür ist aber auch der Stromverbrauch im Idle, unter Teillast und unter Last deutlich höher! Also muss man im Grunde schon auf mehr Schnittstellen, Steckplätzen und RAM angewiesen sein. Erst dann wird er für manche sinnig.

Bei mehr Kernen sieht es dann natürlich komplett anders aus, da Intel dort überhaupt nichts Gegensetzen kann zur Zeit.

Threadripper + 256GB RAM + mehrere RTX A6000 wäre natürlich trotzdem ein Traum für diverse AI-Anwendungen.
Die Zahl der Kerne ist oft nicht entscheidend, sondern die Menge an Arbeitsspeicher. Aufwendige industrielle Messgeräte im Preisbereich über 1 Mio € bekommen oft schon standardmäßig einen PC mit 512 GB Arbeitsspeicher zur Seite gestellt, ob man die nun braucht, oder nicht.
 
Schöner Test. Eine konkurrenzlose CPU. (Plattform) Gut das die HDET Plattform trotz ihrer Nische wieder bedient wird. Denn trotz der Nische gibt es eine Käuferschaft für die Produkte und diese Nutzer haben sicherlich ihr Usecase dafür.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ja oder man sagt gut ich lasse zwei Programme die sehr intensiv sind laufen und der rest als Puffer das das System noch gut reagiert. Dann bringt es auch was. So könnt ich mir einen 24 Kerner gut vorstellen der so bei rund 60 % ausgelastet ist oder wenn smt aus dann geiass bei rund 85 %, was ja dann durchaus so langsam gut ist. Der Rest packt dann schon den ganzen anderen kleimkram dann auch chillig
 
  • Gefällt mir
Reaktionen: Redundanz und SweetOhm
Man muss einfach mal ins Jahr 2017 zurückgehen... Da waren die Kernanzahlen der heutigen Mainstreamrechenknechte einfach undenkbar. Auch hatten wir früher mit "HEDT" kein erzwungenes R-DIMM oder überhaupt die Möglichkeit für viel mehr Speicherkapazität / ECC Speicher. Aus diesen Gründen sind Spielebenchmarks in meinen Augen auf einer HEDT / Server Plattform meistens irrelevant.

@Holzinternet & @Dark Soul:


Aha...

Es wird gerne der Sinn der HEDT Plattformen in Frage gestellt...

Wie wäre es mit Langlebigkeit der Plattform?
Server / Workstation Features?
Support?
Zuverlässigkeit?
PCIE Lanes?
Zertifizierungen für Hypervisor / Server OS?


Mein X99 / C612 System von 2012 / 2014 schlägt immer noch im MT einen Threadstripper der ersten Generationen (Cinebench).

44 Cores und 512 GB RDIMMs waren damals schon möglich.

Da sich die IPC der CPUs bis heute nicht wirklich verbessert hat (der Takt & damit die Leistungsaufnahme hat sich nur verdoppelt) warte ich immer noch auf einen würdigen Nachfolger. Gerade die Minimum FPS wären mir persönlich wichtiger als sie die Maximum oder Average FPS:

https://www.pcgameshardware.de/CPU-...00X-Zen-3-Alder-Lake-IPC-Vergleich-1397753/2/


Auch im Bereich Gaming Limitiert die Nvidia 4090 FE bei mir, wenn der Grafikregler nach rechts geschoben wird... (4k @120 Hz)...

Als Beispiel bei Ready or Not...
20231219_145005.jpg


Daher kommt auch der doppelte Score bei Time Spy (CPU Takt).
Screenshot_20240103_122158_Chrome.jpg
 
Zuletzt bearbeitet:
Blaze1987 schrieb:
Mein X99 / C612 System von 2012 / 2014 schlägt immer noch im MT einen Threadstripper der ersten Generationen (Cinebench).

44 Cores und 512 GB RDIMMs waren damals schon möglich.
Dein Xeon E5-2699A V4 hat 22 Kerne, kam Ende 2016 auf den Markt und ist als Broadwell ohne L4 und mit 3,6 GHz Turbo reichlich weg von der Leistung moderner Desktop-Plattformen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Nur das es sich um 2x CPUs handelt = Dual Socket Mobo.

Und vorher hatte ich andere CPUs drin (v3), welche sehr wohl von 2014 stammen (Haswell).

Wenn du schon smart 🧠 sein möchtest, dann schon richtig...

Dann gib mir doch mal ein Spiel an, wo die CPUs nicht mehr ausreichend sein sollen?

Bisher habe ich noch keins gefunden, wo die 4090 FE nach mehr CPU Leistung bittet... 😉
 
Es geht nicht nur um die CPU-Leistung. Die gesamte Speicherbandbreite ist ja auch gestiegen, sowohl zum Hauptspeicher, als auch zum Massenspeicher.
 
Mein Screenshot ist vom BIOS Post.
Da sieht man immer nur die CPU Beschreibung.

Das Board besitzt zwei Sockel (einfach mal Google nutzen).

Die v3 gingen "nur" bis 18 Cores.
Also bei dem Board max. 36 Cores bei v3...
Und ja, 200 MHz waren die Intel Xeon E5-2699 v3 langsamer als die v4...
Das ist nicht viel... Aber die + 4 Cores bei identischer TPD waren für mich eher ausschlaggebend.

Immer noch akzeptabel für das Alter der Plattform.

@incurable & @Spock37:

Und nochmal: Es gibt bisher keinen Flaschenhals für die 4090 FE...

Beispiel: F1 23 Computerbase Community Benchmarks: https://www.computerbase.de/2023-06...s/#abschnitt_benchmarks_in_nativer_aufloesung

Im GPU Limit ist die CPU, Speicherbandbreite, Massenspeicher IOPs halt so ziemlich egal, solange die IPC @ 3 GHz + stimmt.

Screenshot_20240103_141317_Chrome.jpg

Soviel zu den modernen CPUs der letzten 10 bis 12 Jahre und veralteten CPUs der X99 HEDT Plattform.

Was soll da also eine neue Plattform / CPUs, Speicherbandbreite, PCIe Gen 5 Massenspeicher (nur ein Beispiel zoggen) genau bringen? = Nix!

Das sollte auch nur mal andeuten, dass manche HEDT Plattformen einfach langlebiger sind als die meisten Desktop Plattformen (vor allem bei Intel) und bis heute jedes Spiel / Anwendung ordentlich performt.

Da es hier immer wieder diverse Post gibt, wie sinnlos eine HEDT Plattform (auch vor allem fürs zocken) sein soll... Nur deswegen, poste ich das.

Da wäre der Wechsel zu Zen 1 oder 2 Blödsinn gewesen.

Und auch heute wäre es Blödsinn, da die CPU IPC nicht höher geworden ist.

Dass es mit aktuellen HEDT Plattformen mehr PCIe Lanes, mehr Speicher Takt und mehr Massenspeicher IOPS gibt, ist völlig klar. Ob das wirklich je nach Workload ausschlaggebend ist, kann ich nicht beurteilen. Wahrscheinlich im Video Schnitt Bereich, Schach (Single Core + Takt) und demnächst im KI Bereich vielleicht relevant (auch wenn KI eher von GPUs profitiert).

Wir nutzen auf der Arbeit bis heute noch ohne Probleme Haswell / Broadwell auf dem VMware Cluster (SAN) in der Virtualisierung. Die Server laufen teilweise mehr als 10 + Jahre 24 / 7 durch.
Versuch das doch mal auf einer Desktop Plattform ohne Ausfall...? 😉

Im HCI Bereich haben wir natürlich aktuellere Intel Plattformen (da geht es um den Support).

Andere Unternehmen nutzen wohl reine (auch ganz viele ältere) Desktop Systeme im Verbund. Als Beispiel Google.

Von daher: Schaut auch einfach mal über den eigenen Tellerrand hinaus.

Und vor allem: Testet die Leistung selbst oder schaut euch auf vielen Websites nach Vergleichen um und erst dann könnt ihr Behauptungen / Fakten posten, welche valide sind.

Aber wenn AM5 nur 2x voll angebundene NVMEs (als Beispiel) auf den Boards anbietet bzw. die Board Hersteller das Lane Spitting völlig undurchsichtig ausführen und dann das Board fast 1000 € kostet , ist das auch kein großer Gewinn für mich... Da kann man direkt mehr Geld in die Hand nehmen und hat länger was für den doppelten Preis...
Und für das Geld einfach nicht akzeptabel für mich persönlich (AM5 oder Intel 1300 / 1400) .

Wenn die Preise der aktuellen HEDT Plattformen stimmen würden (aktuell besteht leider keine Konkurrenz), hätte ich trotzdem gewechselt (wahrscheinlich Intel 4677 wegen dem besseren Support).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und Caffenicotiak
CM286 schrieb:
Die liegt gerade mal im Bereich i5/i7 aus der 10er bis 12er Generation. Und das bei viel höherem Verbrauch.
Zumindest hab ich das im Test so raus gelesen.
Was daran toll sein soll?!
Anwendungsleistung und das Gesamtpaket ist toll!
 
NMA schrieb:
Ich habe etwas dazulernen können! Danke!
Das freut mich :)
NMA schrieb:
kann man das ungefähr so nennen?
Ja kann man so nennen.
NMA schrieb:
Als was sind Sie wirtschaftlich tätig (man möge dieser indeskretion mit Nachsicht begegnen)?
Software Ingenieur im Bereich Forschung und Entwicklung, Space & Compiler. Nebenbei noch Dozent für Informatik (Algorithmik, Parallel Computing). Fragen darf man immer :)
MalWiederIch schrieb:
wozu dann bspw. in deinem Fall einen Desktop neben den „high end desktop“?
Wenn das Gerät bereits vorhanden ist, dann kann man natürlich darauf spielen. Mein Punkt war nur, dass man sich keinen Threadripper / Epyc anschafft wenn die Primäre Anwendung Gaming ist.
MalWiederIch schrieb:
Warum muss Gaming der primäre Einsatzzweck sein?
Das bezog sich auf die alten HEDT Plattformen à la Intel X99 und ähnliches. Da hatte man nur mit diesen die volle PCI-E Bandbreite wenn man ein CF / SLI System betrieb. Somit war da meine Aussage, dass man HEDT damals als Gaming System rechtfertigen konnte. Heute sehe ich keine Gründe dafür.
MalWiederIch schrieb:
Nein. Darum auch in fast jedem Test vertreten. Soll wohl auch Leute geben die den HEDT Rechner nicht in der Uni stehen lassen müssen …
Diese Tests zeigen sehr schön wie gut Spiele mit Anzahl Kernen skalieren. Noch dazu ist es viel einfacher und für vor allem für die Leserschaft verständlicher ein Spiel zu testen als synthetische Benchmarks oder gar eigenen Code.
guggi4 schrieb:
von der AMD Website zu TRX40
Wenn ich mich nicht irre ist TRX40 der alte Chipsatz? TRX50 ist der neue.
gaelic schrieb:
  • 16C auf 24C ist ein immenser Gewinn laut dir selbst, warum genau sollte das nun von 24C auf z.b. 32C nicht so sein?
  • Warum sind nun keine 2 oder 3 oder x Jobs parallel möglich?
  • 24C auf 32C sind ein Gewinn. Nur ist dieser kleiner auf von 16C auf 24C - und eben dieser stagniert je höher man geht - deshalb mein Beispiel mit Amdahl's Law. Ich weiche also nicht aus, du verstehst mich einfach nicht habe ich das Gefühl. Ich habe nur deine Aussage der viel günstigere 7950X hätte es auch getan widerlegt.
  • Zur Jobparallelität. Wenn man Abhängigkeiten hat im Code geht das eben nicht so einfach. Nehmen wir das (vereinfachte) Kodieren einen RAW Videos von der Festplatte mit HEVC/H265 als Beispiel:
1. Wir laden die Rohe Datenquelle in den Speicher - das ist ein Serieller Prozess welcher nicht parallelisiert werden kann
2. Der Encoder wird angeschmissen, Frames werden unterteilt in Tiles, dies kann man Parallelisieren, jeder Thread hat unabhängig voneinander einen Ausgangsspeicher wo er reinschreiben kann.
3. Das Fehlersignal (residual) für das Frame wird erstellt - das ist ein serieller Prozess.
Wir haben also eine Abhängigkeit 1->2->3. 1 und 3 sind serielle Prozesse, 2 ein paralleler Prozess. Somit kann man nicht 1, 2 & 3 gleichzeitig Starten.
Dieses Problem hat man ja konstant - CPUs lösen dies intern ja mit Pipelining. Dann läuft ja quasi alles Parallel, nur in anderen Stages.

x Jobs parallel starten ist nur möglich wenn diese absolut unabhängig voneinander sind. Und das ist bei einem Rechentask leider oft nicht möglich. Um das Ganze zu umgehen kann man aber einfach die Problemgrösse erhöhen, das macht man bei der GPU programmierung so - dann zieht nähmlich Amdahl's Law nicht mehr, sondern wir gehen nach Gustafson's Law vor. In der Literatur spricht man dann von Latency Hiding.
fdsonne schrieb:
Argumentativ ist das irgendwie eine Rosine. Denn in aller Regel kann man ab einer gewissen Anzahl an Threads mehr oder weniger beliebig hoch skalieren, indem man einfach die Anzahl der Aufgaben erhöht und nicht die selbe Aufgabe immer weiter parallel versucht breit zu ziehen.
Genau - wie oben erwähnt geht man dann nach Gustafson's Law vor. Wieso machen wir das also nicht - Es geht um Leichen und Medical Imaging (mehr darf ich nicht sagen) - der Forscher sieht sich das Ergebnis "von Hand" in der Zwischenzeit an um ML Algorithmik zu entwickeln. Ist keine Vollautomatische Pipeline, sondern Forschung.
fdsonne schrieb:
Einen nennenswerten Vorteil von sehr viel mehr Cores ggü. den 16C/32T im Desktop sehe ich da zumindest privat nicht (mehr).
Das ist absolut so - sobald alles GPU beschleunigt wird, dient die CPU nur noch zur Datenfütterung. Aber soweit sind unsere Bibliotheken noch nicht :) Da wird aber natürlich fleissig daran entwickelt.
Blaze1987 schrieb:
Threadstripper der ersten Generationen
Der TR der ersten/zweiten Gen war wegen des NUMA Aufbaus eine Krücke.
Blaze1987 schrieb:
Da sich die IPC der CPUs bis heute nicht wirklich verbessert hat
Dieser Aussage kann ich leider nicht zustimmen.
Blaze1987 schrieb:
Limitiert die Nvidia 4090 FE bei mir,
Also dem gezeigten Timespy nach, bremst die CPU die 4090 extrem aus. Der normale Timespy testet ja aber nur in FHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kraeuterbutter, SweetOhm und Wechhe
@Dark Soul

Deswegen habe ich den Community F1 23 Benchmark angehangen, wo eine 6 Core x99 v4 CPU (ähnlicher Takt wie bei mir) im GPU Limit selbst mit einen AM5 7800 X3D gleich zieht.

90 % aller Spiele hängen im GPU Limit bei entsprechenden maximalen und spielbaren Grafikeinstellungen.
Da bringt niemanden 50 % mehr CPU Takt.

Die CPU IPC ist mehrmals von PC Games Hardware und im Hardwareluxx Forum getestet worden und öffentlich einsehbar.

Diese Tests wünsche ich mir von CB auch für aktuelle Generationen. Die aktuelle CPU IPC wäre bei Zen 4 wahrscheinlich höher, aber nicht so hoch, wie die meisten glauben / schätzen würden.

https://www.pcgameshardware.de/CPU-...00X-Zen-3-Alder-Lake-IPC-Vergleich-1397753/2/

Der Vergleich ist relativ aufwendig und schwierig (nominiert auf 3 GHz und diverse BIOS / OS Einschränkungen) auszuführen. Daher auch kaum bekannt bei den meisten.

Ob du das nun selbst so siehst (oder ggfls. deine speziellen Anwendungen oder eigener Code anders reagieren / von mehr Takt profitieren) ist eine Sache / nur eine Sicht der Dinge / Fakten.

Bei z.B. Linux Kernel Kompilierungen wird die Sache schon anderes aussehen. Das ist klar. 😉

Auch in anderen Nischen wie Simulationen, PC Schach mag das wieder laut Usern hier und anderen Foren ganz anders aussehen.
Trotzdem, hat das nun mal absolut gar nichts mit der CPU IPC zu schaffen. Sondern nur mit mehr Takt (fast + 50 %) und je nach dem mehr Cache, Speicherbandbreite etc...

Der Vergleich bezog sich auf aktuelle Spiele im GPU Limit.
Das ist nun einmal Fakt, gemessen und öffentlich einsehbar.
 
Zuletzt bearbeitet:
tochan01 schrieb:
wie wäre das schön eine Plattform zu haben die Top in games ist und dann noch viele PCIe lanes hat.... zur zeit gibt es nur ein entweder oder
Da träume ich schon lange von, wird wohl aber auch nicht mehr passieren. Man bekommt ja selbst hier, unter vermeintlichen Enthusiasten, zu hören, dass sowas niemand braucht. Was willste machen? Gibt wohl keinen echten Markt dafür.
 
Blaze1987 schrieb:
https://www.pcgameshardware.de/CPU-...00X-Zen-3-Alder-Lake-IPC-Vergleich-1397753/2/

Der Vergleich ist relativ aufwendig und schwierig (nominiert auf 3 GHz und diverse BIOS / OS Einschränkungen) auszuführen. Daher auch kaum bekannt bei den meisten.
Ja aber der zitierte Test zeigt ja, dass es ganz klar einen IPC Zuwachs gab. Steht ja auch unterhalb im Text. Ich weiss nicht wie du da darauf kommst das es keinen IPC Zuwachs gab?

Der von dir gepostete Timespy ist aber definitiv im CPU Limit. Aber das ist grob Offtopic.
 
  • Gefällt mir
Reaktionen: cosh, SweetOhm und incurable
Beim TimeSpy Vergleich solltest du ggfls. Mal dein Augenmerk auf den GPU Score richten. Wenn der ähnlich oder genauso hoch ausfällt wie bei aktuellen CPUs (was der Fall ist), limitiert da auch nix oder wenig in 1080 p.

Ich habe von geringen IPC Zuwächsen gesprochen.

Und Achtung, jetzt kommt die Brücke nochmals zu meiner eigentlichen Kernaussage:

Und das im GPU Limit (welches numal in 90 % aller Spieler vorliegt, wenn man die Grafikeinstellungen hoch stellt) selbst diese so gut wie verpufft...
Dazu kommt noch, dass 50 % mehr CPU Takt, genauso verpufft.



Und genau darum geht es bzw. scheint niemanden besonders zu interessieren oder bekannt zu sein.

Dadurch kommen falsche Kaufberatungen, Meinungen und vermeidliche Fakten zu Tage.

Du benötigst für eine 4090 eben keine neue CPU, solange du max. Details @ 4K aufwärts 120 Hz oder 144 Hz spielen möchtest!

Wer sich die Arbeit macht und in 4K max. Details Benches (Spiele) ansieht, weiß einfach, dass es kein CPU Limit gibt = selbst bei der 4090.

Also warum wird das hier immer noch und immer wieder behauptet?
Auch mit HEDT Plattformen kann man einwandfrei zocken.

Um mehr ging es mir gar nicht.

Vor allem, wenn es hier Posts gab, dass eine ältere CPU für Spiele nicht mehr ausreichen würde ist einfach zu 90 % falsch und nur das wollte ich durch den Offtopic von mir wiederlegen.

Genauso, das HEDT Plattformen nicht geeignet für Zocken wären, da weniger Takt etc. Ist falsch.
Fürs zocken alleine mit Sicherheit finanziell nicht sinnvoll.

Und das die genutzte CPU / Plattform (ab 3 GHz aufwärts) einfach für Spiele im GPU Limit absolut nicht relevant ist!

Viele kaufen eine starke CPU und eine Mid - Range GPU und wundern sich, dass ihr Spiel XY nicht wesentlich besser skaliert bei max. Grafikeinstellungen.

Damit habe ich auch jetzt genug getextet.
 
Zuletzt bearbeitet:
Blaze1987 schrieb:
Das Board besitzt zwei Sockel (einfach mal Google nutzen).
Du arbeitest hier (neben offensichtlich falschen Daten) mit Bildschirmfotos, die keinen Hinweise darauf geben, dass mehr als eine CPU verbaut ist. Timespy erkennt Deine CPU/CPUs gar nicht.

Blaze1987 schrieb:
Und ja, 200 MHz waren die Intel Xeon E5-2699 v3 langsamer als die v4...
100 MHz. Haswell vs Broadwell.

Es kann doch nicht so schwer sein, die richtigen Informationen zu Deinem eigenen Gerät zu veröffentlichen.
Ergänzung ()

Blaze1987 schrieb:
Beim TimeSpy Vergleich solltest du ggfls. Mal dein Augenmerk auf den GPU Score richten. Wenn der ähnlich oder genauso hoch ausfällt wie bei aktuellen CPUs (was der Fall ist)
Ich habe mit meinen eigenen Ergebnissen verglichen: Dein CPU-Ergebnis von 9161 Punkten liegt unterhalb eines AMD Ryzen 7 3800X. (~9250)

Deine RTX 4090 kommt auf ein Time Spy Ergebnis von 14148 und wird in den Grafikpunkten (15652) so eingebremst, dass sie im Gesamtergebnis von einer RTX 3070 mit einem i9-12900K geschlagen wird. (~14300 Time Spy/ ~14000 Grafik)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cosh und SweetOhm
Falsche Bildschirmfotos? Falsche Daten?

Wenn du halt keine Ahnung davon hast, dass es sich bei dem Board um einen Dual Sockel handelt und damit auch doppelt so viele Cores vorhanden sein könnten, dann schließe halt deine Wissenslücke.
Dafür kannst du nur selbst etwas.

Die Intel Xeon E5-2699 v3 oder v4 Serien haben noch Kürzel wie C (energy optimization) , A (performance optimization) etc.

Damit verändert sich wesentlich der Turbo Takt und damit sind mehr als 100 MHz Takt Unterschied vorhanden.

Aber hau doch noch einfach weiterhin raus was das Zeug hält. Damit zeigt sich doch einfach, wie viel Ahnung du von meiner verbauten Hardware besitzt. Nämlich gar keine!

Gerne schließe ich auch diese Wissenslücke von dir völlig kostenfrei.

Dass 3D Mark meine CPUs (bisher alle von mir verbauten Intel Xeon E5 Serien von mir: E5-2699 v3, Intel Xeon E5-2699C v4, Intel Xeon E5-2699A v4) nicht erkennt hat einen ganz einfachen Grund:

Die E5 Serien waren für OEMs vorbehalten und nicht für den Endverbraucher gedacht gewesen.

Kommen daher primär in großen IT Systemhäusern in fertigen Servern / Workstations vor.

Ist aber auch alles Okay 👌.

Behaupte einfach nichts, wovon du augenscheinlich keine Ahnung von besitzt oder noch schlimmer, behaupte nicht, dass ich falsche Informationen oder Angaben tätigen würde.

Im Gegensatz zu den meisten Usern, hinterlege ich immer Quellen und Screenshots für Transparenz.

Damit bin ich raus und behaupte du einfach weiterhin und hau Annahmen und reines theoretisches Wissen raus, welches noch nicht mal stimmt.

Dir ist schon klar, das Time Spy mit so vielen Threads gar nicht skaliert? Geschweige den von Dual Sockets?

Dass bei 1080 p (alles bis auf 4k) immer jede CPU limitiert ist bekannt.

Ich hatte beim CPU Vergleich zum ersten Threadripper von Cinebench R23 gesprochen... Ist aber jetzt auch egal.

Die Kernaussage habe ich Post davor nochmal markiert. Um mehr ging es nicht.
 
Zuletzt bearbeitet:
Zurück
Oben