Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K

Esenel hats doch selber geschrieben hier, dass am Ende nicht wirklich was übrig bleibt beim Effizienz-Duell. Das Ding ist halt du kannst den Takt beim Intel massiv runterfahren und dank stark optimiertem RAM ist man dennoch performant unterwegs, da geht der Verbrauch stark runter. Ich will euch doch nix, ja der 3D ist ein wenig effizienter im Endeffekt. Beides gute CPUs, nur für mich persönlich und diese Meinung muss niemand teilen, ist Intel alles in allem besser.

Ok @cm87 ist in deinen Augen die Intel CPU nicht besser für Tuner? Kannst ja mal deine Meinung zu den 2 Produkten sagen.

@Jaffech 30W ist etwas zu wenig für Intel, das ist eher 3D Gebiet.
 
Duvar schrieb:
Ok @cm87 ist in deinen Augen die Intel CPU nicht besser für Tuner? Kannst ja mal deine Meinung zu den 2 Produkten sagen.
wen juckt meine Meinung? ist ja wieder nur eine subjektive Ansicht - wo bleibt da die Objektivität?
und unter "tuning" versteht die Masse auch unterschiedliche Dinge - daher gibt es hier kein absolut richtig oder falsch.
 
Wieso darfst du keine Meinung haben bzw hier kundtun? XD Wie er sich dreht und wendet nur um nicht zu sagen das Intel am Ende besser ist XD
 
Hmm also für mich war das sinnig, denn für jmd der hier Mr. Ram OC ist und der Großteil seiner Posts übers Tuning handelt und so viel Zeit darein investiert, kann rein nach Logik nur Intel besser finden zwecks deutlich größerem Tuningpotential/spaß. Aber gut wenn du deine Meinung diesbezüglich nicht teilen willst, ist das natürlich auch ok.
 
Alter, langsam wirds lächerlich. Selbst querstellen wenn vergleichbare CX Logs gefordert werden (zu großer Aufwand :rolleyes:) und dann auch noch anderen ans Bein pissen. Grandiose Leistung.
 
  • Gefällt mir
Reaktionen: M3930, CueSystem, Denniss und 3 andere
Duvar schrieb:
@Jaffech 30W ist etwas zu wenig für Intel, das ist eher 3D Gebiet.
Hö? Höre ich da "x3D ist effizienter?" :D
Spaß, dann nimm von mir aus 40W oder 50W

Duvar schrieb:
Wieso darfst du keine Meinung haben bzw hier kundtun? XD Wie er sich dreht und wendet nur um nicht zu sagen das Intel am Ende besser ist XD
Aber mir vorwerfen, ich würde dich in die ecke drängen und offense sein :D
 
Wollte nur seine Meinung rauslocken, aber der ist zu smart dafür :D
Hey, ich hab nie gesagt der 3D sei nicht effizient, der ist effizient af.
 
Nolag schrieb:
Man kann aber auch nicht von Multi-Core Leistung sprechen, weil damit meist die Leistung der CPU unter Nutzung aller Threads gemeint ist.
Ja so ist das. Deshalb ist ein Spiele-Benchmark mit aktuellen Spielen immer ein Multi-Core Benchmark. Der sagt aus wie gut die Engine im Zusammenspiel mit der Plattform die Kerne nutzen kann. Single-Core sagt aus wie gut ein Kern ist, aber rein gar nichts darüber, wie gut das Zusammenspiel der gesamten CPU funktioniert. Manche Spiele skalieren bei 16 Kernen noch, manche machen bei 6 o. 8 Kernen dicht. Aber kein modernes Spiel läuft auf einem Kern, Deshalb ist der Single-Core Mark bedeutungslos. Ansonsten bräuchte man ja nur die Single-Core Leistung mit X Kerne zu multiplizieren. Das funktioniert so aber nicht.

PS: Seid lieber froh, das es endlich mal echte Performance-Sprünge bei den CPU's gab. Sonst hätte Intel uns noch 10 weitere Jahre mit 100 MHz Häppchen zum immer höheren Preis beglückt. Davon profitieren alle Käufer, egal ob ihr Favorit blau oder rot ist.
 
Zuletzt bearbeitet:
Capt.Flint schrieb:
Single-Core Mark bedeutungslos. Ansonsten bräuchte man ja nur die Single-Core Leistung mit X Kerne zu multiplizieren. Das funktioniert so aber nicht.
Sehe ich anders. Der Single-Core Wert ist nicht bedeutungslos. Er gibt immer noch einen gewissen Richtwert zum Vergleichen zwischen CPUs für Anwendungen die nicht alle Kerne bzw. die CPU nicht zu 100% auslasten. Man sieht wozu ein Kern im best case imstande ist. Je weniger Kerne genutzt werden desto wichtiger ist die Leistung des einzelne Kerns.

Der 12900K macht in Spielen eine Server CPU platt, da die einzelnen Kerne mehr Leistung haben. Die dürfen mehr schlucken und entsprechend höher takten. Da kann der Multi-Core Wert von der Server CPU auch um den Faktor 4 höher sein.

Man müsste mehrere Kombinationen testen und Werte für 2, 4, 6, 8,... Kerne ermitteln, aber dann ist die frage wo fängt man an und wo hört man auf.
 
floh667 schrieb:
Hat noch jemand Planet coaster? Das ist auch eine ziemlich harte Nuss für CPUs, wenn man viele Parkbesucher hat.
Mein Park ~12.000 Besucher. Die rx6800 langweilt sich, während die Simulation läuft. Es ist auch absolut egal, wo man sich im Park befindet oder wie weit man rein oder raus zoomt, die Simulation benötigt immer gleich viel CPU Leistung, entsprechend bleiben die FPS konstant bei 16
Anhang anzeigen 1245608
Ich zitiere mich Mal selbst. Das ist besser als jeder 360 vs 390 fps Benchmark.
Die Simulation limitiert die FPS in jeder beliebigen Auflösung und jedes bisschen plus an FPS ist auch wirklich ein Plus für das Spielerlebnis sowie eine Aussage über mehr Rechenleistung.
 
  • Gefällt mir
Reaktionen: Pisaro
Selber schrieb:
Der 12900K macht in Spielen eine Server CPU platt, da die einzelnen Kerne mehr Leistung haben. Die dürfen mehr schlucken und entsprechend höher takten. Da kann der Multi-Core Wert von der Server CPU auch um den Faktor 4 höher sein.
Das hat auch keinerlei Aussagekraft. Eine Server-CPU ist dafür gebaut, Funktionen und Berechnungen mit höchster Datenintegrität in einem Maß parallel auszuführen, die ein Desktopprozessor gar nicht beherrscht und wird mit viel größeren Reserven (niedrigerer Takt, ECC-RAM Module) betrieben. Die OC-Xeons waren nicht ohne Grund lange ein Geheimtip. Ein F1 Auto wird beim Alltagstest im Großstadtverkehr auch nicht sonderlich gut abschneiden.
Ich bleibe dabei, außer vielleicht in ganz speziellen Szenarien ist es völlig Wurst ob ein 12700K (der 12900K ist preislich eine völlig andere Liga) oder 5800X3d im Rechner steckt, da die Graka limitiert. Für AM4 Nutzer ist der X3D noch mal ein attraktives Update, alle anderen müssen eh extrem tiefer in die Tasche greifen. Da wäre es dann aber schlauer die 2 Monate auf AM5 oder Intel 13K (wenn sie es rechtzeitig schaffen) zu warten, da bei einem erforderlichen Sockel- / RAM- wechsel die CPU nur einen Teil der Anschaffungskosten ausmacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Duffy Duck und Thakor
Wubziz schrieb:
Sarkasmus? Das was ich geschrieben habe ist fakt und konnte über mehrere Jahre nun so schon beobachtet werden.

Sogar der Autor des Tests hat mir darauf nen Like gegeben.

Ich glaube du solltest dich an deine eigene Nase fassen.
Ich muss wohl mehr smileys benutzen. 😄
 
  • Gefällt mir
Reaktionen: Wubziz
Ich mag den 5800x3d eigentlich.

Aber der Preis passt mir nicht.

Dazu, dass einfach in manchen Games zu viel Abstand (zB Cyberpunk) herrscht.

Ich sag mal, wenn die eine CPU 1% Lows von 105 fps packt und die andere 115 - Ist mir das egal.
Aber wenn eine CPU zB 70 fps und die andere 90 packt, ist das schon ein Gamechanger für mich.

100 ist so die Marke, die ich knacken möchte.
Ab 90 fühlt sich alles smoother an (144hz) und die +10 auf die 100 sind einfach ein "Puffer".

Bin gespannt auf Ryzen 7000.
Da sollte wieder deutlich aufgemischt werden <3
 
  • Gefällt mir
Reaktionen: Esenel
m4c1990 schrieb:
Früher war es AMD mit der Stromverbrauch Brechstange...
Nun macht Intel so einen Unsinn...
Ist da jemand zu jung für die Zeiten des Pentium 4? :D;)
Die Performancekrone wechselt zwischen beiden seit vielen Jahren genauso wie die Effizienzkrone. Gerade die Methode die letzten Stücke Performance aus einer Architektur zu quetschen in dem man einfach mehr Strom reindrückt ist zum Lebensende einer Architektur oft der Fall. Sozusagen eine Überbrückung der sonst zu stark abflachenden Performancekurve durch mehr Energiezufuhr die oft noch eine Weile hinausgezögert werden kann durch Reduktion der Fertigungstrukturbreite. Wobei der oben erwähnten Pentium 4 auch dadurch nicht gegenüber einem Athlon XP/64 (Später: Phenom) in den effizienten Bereich rutschte.
In diesem Bereich ist es ein ständiges auf und ab, das immerhin dadurch noch überschaubar bleibt, dass es nur wenige Konkurrenten gibt (CPUs: AMD vs. Intel im x86 Segment, GPUs: AMD vs. Nvidia im Profi und Gaming Segment [mir ist der jüngste Intelrelease bewusst, aber solange der nicht zumindest treibertechnisch auf halbwegs soliden Beinen steht rechne ich ihn hier nicht zu]).

Sicherlich gibt es nun Ärger, die Lager aller genannten Hersteller haben noch immer feste Jünger die jederzeit Willens sind ihre Augen vor der Realität zu verschließen um weiterhin einen Sieg ihrer Fraktion zu erkennen. -> Troll Euch! Ich hab in meiner Zeit auch schon auf falsche Pferde gesetzt und konnte diesem etwas gutes Abgewinnen ;)

@Topic: Danke für den aufschlußreichen Test! Insbesondere als privat, "auf eigene Kosten" erstellte Übersicht gut aufbereitet und unabhängig von dem, was hier anscheinend oft gesagt wurde gemäß den Möglichkeiten neutral bewertet!
 
  • Gefällt mir
Reaktionen: m4c1990
cruscz schrieb:
Ich hab in meiner Zeit auch schon auf falsche Pferde gesetzt

Ich nicht, weil ich immer abgewartet, und Tests gelesen habe.

Ob die Pentium 1-Alternativen von Cyrix oder AMD, Geforce FX, Pentium 4, Phenom 1, oder Bulldozer - alle wurden schon durch Testberichte als Nieten entlarvt, und umschifft.
 
Hab ich Tomaten auf den Augen oder hab ich was überflogen, wo ist der Vergleich zu RAM OC vs ohne OC oder 08/15 DDR4 RAM 3200 CL 16.18.18.18.38 man will ja unterschied sehen zwischen normal und Premium teuren schnellen RAM und was es im Alltag bringt im normalen Gebrauch außerhalb von 720p Benchmarks wie viel Mehrwert hat man bei 1080p, 1440p oder 4K🤷🏼‍♂️
 
In der Überschrift steht ja nur: RAM-OC Benchmark - und nicht Vergleich zum 0815-RAM, obschon ich mir den Vergleich natürlich auch gewünscht hätte.
 
Novasun schrieb:
Das ist so nicht richtig. Energie sparen ist so oder so das intelligenteste was man machen kann. Denn die gesparte Energie kannst du dann für was anderes nutzen.
Das sehe ich anders, denn Watt = Leistung!
Es gibt aber auch Spiele, die ich nicht am PC
(i9 12900K) spiele, dafür habe ich einen Gaming Laptop!
 
Zurück
Oben