News Intel Raptor Lake: Erstes Synthetic-Benchmark-Review des Intel Core i9-13900

Matthias80 schrieb:
in der Consumer, Zocker Welt? WTF
Mein Quote war über die SERVER CPUs mit den schnell steigenden Kernanzahl bei kommenden AMD CPUs.

bezüglich Raptor Lake / Meteor Lake vs ZEN4 steht ja noch DLVR als Gerücht im Raum, dass ja bereits ab Raptor Lake kommen soll, dass sind erstmal satt 20-25% weniger Volt die benötigt werden bei gleiche Node Frequenz. Die Effizienzkurve sieht bei Alder Lake ja schon sehr gut aus, mal von den OC Ausreißern abgesehen, mit DLVR wäre man da ganz wo anders unterwegs als ZEN3/ZEN4.
 
Matthias80 schrieb:
in der Consumer, Zocker Welt? WTF
Er hatte mich zitiert, wegen den 52 vs 64. Genoa will ja sogar 96 bringen.
Viele Probleme sind nicht endlos parallelisierbar, da hat er recht. Auch so ein Grund weshalb ich Raptor Lake bei Consumer einfach nicht verstehe. Ist der Markt für so viele E-Kerne echt so groß?

@conpain
Ja ich denke auch das AMD primär auf Server schaut und nur den "Rest" unter Consumer bringt.
Weil TSMC kann eben keine Masse liefern wie Intel, daher will man da das meiste absetzen bei dem das meiste margentechnisch zu verdienen ist.

Intel erfuhr nie Wettbewerb und daher nie ernsthaftes Marketing.
Daher blamieren diese sich sehr oft mit merkwürdigen/zweifelhaften Moves.
 
Zuletzt bearbeitet:
Zer0Strat schrieb:
. Wenn die Gerüchte über Meteor Lake stimmen, dann wird Zen 4 zu Grabe getragen nächstes Jahr. Da hilft dann allenfalls der V-Cache in Games.
Welches Gerücht soll das sein?
Zer0Strat schrieb:
Zen 4 könnte AMDs Rocket Lake werden. Heiß, stromhungrig, teilweise schlechter in Games (als der 5800X3D), Brechstange.
Wenn dann wird es AMDs Alder Lake. Gibt ein paar hoch getaktete Modelle die nicht mehr effizient sind, aber verdammt schnell und wird die TDP begrenzt, passt auch die Effizienz.
 
Zer0Strat schrieb:
Zen 4 könnte AMDs Rocket Lake werden. ...
Aber nicht vergessen, dass man bei Rocket Lake ab DDR4-3733Mhz einen RAM Teiler (Gear 2) brauchte
während Comet Lake bis DDR4-5000Mhz 1:1 konnte. AMD geht doch stattdessen von DDR4 auf DDR5.
Etwas überraschend war natürlich, dass die AMD Benchmarks bereits mit DDR5-6000Mhz CL30 liefen :o
 
Man hat es hier im Forum aktuell echt schwer wenn man nicht suggeriert, dass AMD alles besser macht. Traurig.

Die ganzen Diskussionen die hier entstehen basieren zu 99% auf falschen Behauptungen, die immer wieder ihre Kreise ziehen.

Wenn ein 12900K dann keine "echten" 16 Kerne hat (sich aber dennoch in 50% der Anwendungen vor einen 5950X schiebt) oder ein 5800X3D unantastbar bei der Effizienz ist (dann aber gerne nicht beachtet wird, dass er im IDLE genau die 20-30W mehr braucht als ein Intel, die er beim Gaming spart) weiß man, das man keine auf Fakten basierende Diskussion mehr führen kann.

So lange hier immer dieselben User auf dem roten Auge blind sind, lohnt sich die Mühe der ganzen Postings nicht. Und die, die wirklich sachlich und neutral beide Unternehmen ähnlich "symphatisch" finden und sich einfach nur auf die kommende Technik und den Austausch darüber freuen, ja die gehen hier komplett unter.
 
  • Gefällt mir
Reaktionen: Rios und Zer0Strat
@Dome87

Ist ganz schön nervig teilweise, weil es genug Screens im Forum gibt wo diese Behauptungen widerlegt werden und es praktisch unmöglich ist diese Screens nicht zu sehen (und mal die eigene Meinung zu überdenken, weil oft einfach sowieso nachgeplappert ) so lang wie hier anscheinend im Forum abgehangen wird. M.E. Kindergarten & Meinungsmache. Da braucht man auch gar nicht mit Sachlichkeit und Neutralität kommen bei solchen Leuten/Kindern. Ist halt schade für den Qualitätseindruck des Forums.
 
  • Gefällt mir
Reaktionen: Dome87
Dome87 schrieb:
Wenn ein 12900K dann keine "echten" 16 Kerne hat (sich aber dennoch in 50% der Anwendungen vor einen 5950X schiebt) oder ein 5800X3D unantastbar bei der Effizienz ist (dann aber gerne nicht beachtet wird, dass er im IDLE genau die 20-30W mehr braucht als ein Intel, die er beim Gaming spart) weiß man, das man keine auf Fakten basierende Diskussion mehr führen kann.
Was juckt mich, ob die Ryzen CPU 20-30 W im Idle mehr verbraucht, wenn der Gesamtverbrauch aus Board-CPU-Ram bei beiden Herstellern gleiche Werte ausspucken? Es juckt mich als Endanwender nicht, ob bei Intel nun das Board mehr verbraucht, oder die CPU.

Was aus der Steckdose genuckelt wird, ist der interessante Wert und da wurden dir schon dutzend mal die Testergebnisse gepostet, dass ADL und Zen3 sich absolut auf dem gleichen Niveau befinden.

Dadurch verbraucht der Intel eben im Idle nicht weniger, da zu einer CPU auch ein Board und Ram gehört, sonst ist das Teil nur ein besserer Briefbeschwerer.


Dome87 schrieb:
So lange hier immer dieselben User auf dem roten Auge blind sind, lohnt sich die Mühe der ganzen Postings nicht. Und die, die wirklich sachlich und neutral beide Unternehmen ähnlich "symphatisch" finden und sich einfach nur auf die kommende Technik und den Austausch darüber freuen, ja die gehen hier komplett unter.

Solange weiter falsche Behauptungen aufgestellt werden, siehe deinen oberen Teil des Posts, solange wird sich im Forum auch nichts ändern. Wärst du wirklich Technik-Interessiert, wüsstest du, dass der Idle Verbrauch eben nicht so ist, wie du ihn darstellst. Eine CPU alleine funktioniert nunmal nicht.


idle-alderlake-zen3.jpg


Hier das ganze nochmal zur Verdeutlichung.

Also im Idle zwischen 44 und 46 Watt...das sind bei mir nun keine 20-30 W.

Und gleich kommst du dann wieder mit dem Teillast-Bereich, wo wir beide wissen, dass beide Hersteller nun im Verbrauch peaken um die Tasks schnellstmöglich abzuarbeiten. AMD nennt das Race to sleep, bei Intel ist es halt der Turbo-Boost.
 
  • Gefällt mir
Reaktionen: Matthias80
Idle Verbräuche an der Steckdose sind doch Quatsch mit Sauce. Zu viele andere Faktoren und zu ungenau.
 
  • Gefällt mir
Reaktionen: Dome87
@aldaric

Komm doch nicht immer mit der Mär, dass es realistisch sei, IDLE nur als "nichts mehr machen" zu bezeichnen. Und auch Teillast kann länger dauern. Immer dieses "Race To Sleep"-Gesülze.

Was CB da an der Steckdose mißt ist unrealistisch. Ich spreche noch immer von Dingen wie einem Youtube-Video, Daten kopieren oder eine BluRay brennen. Da liegt mein 12900KS bei 5-15W, mein 5800X3D bei 45-55W. Das ist einfach eine Tatsache.

Und da ich z.B. nur ~25% spiele und 75% arbeite und surfe verbraucht mein KS im Schnitt deutlich weniger (an der Steckdose). Ist dabei im Multicore und erst recht im Singlecore deutlich(!) und auch in ~50% der Spiele schneller als der X3D. Den benutze ich hauptsächlich für seine Steckenpferde (Squadrons / Valorant). Allderings bekommt der KS da auch ausreichend FPS hin.

Ich finde sie immer noch beide gut. Der X3D ist natürlich beeindruckend in Games vom Verbrauch und die Leistung ist dank des Caches enorm, gerade auch mit den niedrigen Taktraten.

Aber als Allrounder mit wesentlich mehr Reserven ist ein 12700K/12900K/5900X dann doch deutlich besser. Der 5800X3D ist ein Spezialist. Er kann halt nur eine Sache so richtig gut. Aber auch die nur zu ~50%. Er ist nicht die schnellste Gaming-CPU. Den Platzt muss er sich mit dem K/KS leider teilen ;)
 
  • Gefällt mir
Reaktionen: Rios
Das waren/sind doch bei AMD eher Treiberprobleme oder Bugs im Energie(spar)plan. Immer noch ? :confused_alt:
 
Nein, das liegt unter Anderem einfach am Aufbau der CPU. Bei Intel muss (noch) nur ein monolithischer Die versorgt werden; bei Ryzen immer mindestens ein I/O-Die + Chiplet.

Das spielt bei großen Lasten dann keine Rolle mehr und ein Ryzen ist dann ja auch noch vom Sockel her limitiert und somit sparsamer.
 
Und das hat keine Hardwareseite Jemals getestet/simuliert und dann ein Diagramm erstellt ? :o
 
Wie willst du das denn messen? Das ist ja kein fester Zustand wie 100% IDLE oder ein Spiel.
 
Naja, jeweils 15 Minuten Internet surfen, Youtube, Photoshop und noch irgend Etwas müsste doch ausreichen.
Wenn dann CPU A wirklich 50 Watt braucht und CPU B nur 25 Watt dann wäre das ein ziemlicher Unterschied.
 
Um das, was über 9 Seiten "diskutiert" wurde einmal für mich (und ggf. andere) aufzubröseln:

Mythos 1: ADL ist sehr ineffizient (Besonderer Vergleich 5800X3D vs i7 12900K/12700k)

  • Die reelen Unterschiede sind im Alltag zu vernachlässigen.
  • Wo der Ryzen im Gaming effizienter ist, ist ADL in leichter Teillast effizienter (Youtube Video, einfache Arbeiten am PC). Das, was man also mit dem Ryzen im Gaming an Strom spart, spart man beim Intel in leichter Teillast. In beiden Szenarien sind die Unterschiede gering.
  • Man kann auf den eigenen Anwendungsbereich schauen: Ist man ausschließlich am Zocken oder ist man mit dem PC auch häufig in Teillast (ich schon, allein Youtube & Browsen).
  • Ineffizient ist ADL beim Gaming auch nicht. Zudem kann man PL1+PL2 drosseln ohne Leistung zu verlieren (Sweetspot-Suche)
  • Selbst wenn wir annehmen würden, dass der Ryzen insgesamt übers Jahr gesehen weniger verbrauchen würde, ist der Unterschied bei "normaler Nutzung" so gering, dass die Wahl der GPU viel entscheidender ist. (RTX3090 vs 6900XT)

Mythos 2: E-Cores sind nur Marketing-Cores und taugen nichts

  • Die E-Cores bringen in den meisten Spielen nichts, schaden jedoch auch nicht. Der Unterschied zwischen E-Cores AN und E-Cores AUS beträgt im Durchschnitt 1%. Das liegt daran, dass Spiele (noch) nicht auf die Nutzung sehr vieler Kerne ausgelegt sind.
  • Einige, neuere Spiele profitieren von E-Cores (FarCry6, Cyberpunk). Es scheint demnach so, dass es für die Zukunft besser sein könnte. Das ist eine spekulative Annahme meinerseits, da sich derzeit gerade bei neueren Titeln leichte Vorteile zeigen.
  • Anwendungen, die auf Multi-Core/Thread ausgelegt sind profitieren dagegen von den E-Cores.
  • Daher liegt der 5800X3D auch deutlich hinter z.B. einem i7 12700k in Multi-Core Tests.
  • Wenn man mit dem PC also auch Anwendungen verwendet, die Multi-Core Leistung benötigen, ist der 58003DX nicht die beste Wahl.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tornavida und Dome87
Dome87 schrieb:
Was CB da an der Steckdose mißt ist unrealistisch. Ich spreche noch immer von Dingen wie einem Youtube-Video, Daten kopieren oder eine BluRay brennen. Da liegt mein 12900KS bei 5-15W, mein 5800X3D bei 45-55W. Das ist einfach eine Tatsache.
Ich hab mit meinem System an der Steckdose aktuell wenn wirklich alles zu ist recht stabil 67-69W am Messgerät stehen.

Ungeachtet dessen, dass das bereits 20W mehr sind, als CB misst (vmtl kommt auch einiges vom RAM OC, war sowohl mit dem 1600X als auch mit dem 3700X genauso, auch mit unterschiedlichen Boards, <60W hab ich am Messgerät noch nie gesehen), aber mache ich jetzt nur Chrome auf mit diesem einen Tab dieses Threads, bei dem links und rechts animierte Werbebanner laufen, ist mein Verbrauch konstant zwischen 88 und 92W.

Gerade ist das rechte Banner zu einem einfachen Bild gewechselt, während das linke weiterhin animiert ist, der Verbrauch fällt auf ~80W.

Minimiere ich Chrome, falle ich auch wieder auf die 67-69W.

Das sind konstante ~10W mehr pro animiertem Werbebanner und damit die meißte Zeit 20W mehr, solange ich dieses Fenster offen habe.
Ein 1080p YT Video im Vollbild liegt bei 116-120W, also + 50W im vergleich zu meinem "Ilde".
Wäre jetzt interessant zu wissen, was eine ADL CPU hier an Unterschied hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dome87
@Taxxor Mit dem 12700K@OC habe ich 42W mit animiertem Banner. 29W bei Stillstand und 16W, wenn Firefox zu ist.

Was ich bemerkenswert finde, wenn ich nur mit dem Mauscursor hin- und herwackle, schießt der Verbrauch auf meinen Ryzen Systemen hoch. Ich meine, wegen eines Mauscursors? :D
 
Zuletzt bearbeitet von einem Moderator:
Taxxor schrieb:
Ein 1080p YT Video im Vollbild liegt bei 116-120W, also + 50W im vergleich zu meinem "Ilde".
Wäre jetzt interessant zu wissen, was eine ADL CPU hier an Unterschied hat.
20-21W im Durchschnitt mit einem 12900k@OC,also die Anzeige bei HWI,kannst ja mal vergleichen.
Um die 10 W Idle (ca. 10 Min Screen)

Screenshot (150).png
 
Zuletzt bearbeitet:
YT war ein schlechtes Beispiel wegen der Hardwarebeschleunigung, der Mehrverbrauch hängt hier fast komplett an der 6800XT und nur zu ~10W an der CPU^^

Reine CPU PPT Werte:
2 animierte Banner: ~35W
1 animiertes Banner: ~29W
Chrome minimiert: ~26W
YT Video: ~35W

Bei geöffnetem Chrome
Mauscursor langsam bewegen: ~40W
Mauscursor etwas schneller bewegen: ~45W
 
Zuletzt bearbeitet:
Dome87 schrieb:
Aber als Allrounder mit wesentlich mehr Reserven ist ein 12700K/12900K/5900X dann doch deutlich besser. Der 5800X3D ist ein Spezialist. Er kann halt nur eine Sache so richtig gut. Aber auch die nur zu ~50%. Er ist nicht die schnellste Gaming-CPU. Den Platzt muss er sich mit dem K/KS leider teilen.
Teilen aber auch nur so lange, wie die Intel CPUs stock laufen. Mit OC gibt's auf die Zwölf. Ein 12700K mit DDR4 ist hier übrigens nicht weit weg vom großen Bruder mit DDR5.

Kauft man den i7, dann hat man deutlich mehr Singlethread-Leistung, deutlich mehr Multithread-Leistung, bessere Spieleleistung, bessere Lows und bessere Temps, allerdings auch eine schlechtere Effizienz ins Spielen.

Das hier ist ein typisches Beispiel, es wurde durchgängig eine RX 6800 XT@OC verwendet. Man hat praktisch kein Tuning-Potential mit dem 5800X3D, was natürlich einige gut finden, weil man quasi out-of-the-box schon fast max. Leistung hat.

Das sind Benchmarks, die für meinen Test verwendet werden, der hoffentlich bald mal fertig wird. Die Daten sind unter "professionellen" Bedingungen ermittelt worden.

1655632594440.png
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rios und Dome87
Zurück
Oben