Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

Persönliche Erfahrung / Messungen an der Steckdose. Bei einem YouTube-Video brauchte mein System mit dem 5800X3D teilweise 30 Watt mehr als mein System mit dem 13900K(S). Restliche Hardware ähnlich.
 
Ich mache die Problematik bei meinem 2700X fest am Unterschied zwischen "Energiesparmodus" und "Ausbalanciert" als Energiesparplan. Im kompletten Idle gibt es beim Verbrauch so gut wie keinen Unterschied zwischen den beiden. Aber im Schwachlastbetrieb sind es bei der PPT beim ersten 12W und beim zweiten 30W. Bei den späteren Ryzen (Chipletvarianten, speziell bei zwei CCDs) ist der Unterschied wohl teilweise noch größer. Diesen großen Unterschied gibt es wohl bei Intel nicht.

Ich begegne dem im Alltagsbetrieb mit dem IdleSaver von Process Lasso und lasse den Rechner nach wenigen Sekunden Untätigkeit in den Energiesparmodus wechseln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dome87
@CB
Ich frage mich, warum CB nicht mal – analog zu GPU-Tests – auch bei CPUs den Stromverbrauch bei Youtube-Wiedergabe testet.

Single-Core-Volllast ist jetzt nicht das, was ich »Teillast« nennen würde.
 
  • Gefällt mir
Reaktionen: Alpha008 und Darkseth88
Gibts bei Raptor Lake noch die Unterscheidung mit Gear 1/2 bei der RAM-Anbindung? Und wenn ja, wie ist die Aufteilung? Finde dazu nichts im Artikel und auch nicht auf den Intel-Seiten :o
 
  • Gefällt mir
Reaktionen: Xaphyr
Faust2011 schrieb:
Gibts bei Raptor Lake noch die Unterscheidung mit Gear 1/2 bei der RAM-Anbindung?
Ja, gibt es nach wie vor, verhält sich genauso wie bei Alder Lake. DDR5 kann nur mit Gear 2 oder 4 betrieben werden.
 
  • Gefällt mir
Reaktionen: Klever, Xaphyr und Faust2011
Habe mal eine ganz doofe Frage ... die CPU Temperaturen im Test (3/6 Temperaturen unter Volllast)
... sind das die MAX oder Durchschnittswerte wenn man z.B. mit HWINFO die Temps ausliest ?
Wollte das als Vergleich für meinen neuen PC nutzen und bin da unsicher. :(
 
Arcturus128 schrieb:
@CB
Ich frage mich, warum CB nicht mal – analog zu GPU-Tests – auch bei CPUs den Stromverbrauch bei Youtube-Wiedergabe testet.

Single-Core-Volllast ist jetzt nicht das, was ich »Teillast« nennen würde.
+1, weil Sorge, dass nur ein "Gefällt mir" nicht genug Aufmerksamkeit generiert für diesen Punkt.
 
Ich habe mal PL1 von meinem 13900K auf 125 W gesetzt und musste feststellen, dass ich damit bis zu knappe 11% an fps verliere, und zwar in Cyberpunk 2077 in der Stadt mit großen Menschenmengen. In diesen Szenen hat man "normalerweise" bei 200-220 W (bei 1,4X V und 9X Grad) eben bis zu 11% mehr fps. Zu 125 W sind das aber auch immerhin 75-95 W Unterschied.

Computerbase hat im Test 162 W im Durchschnitt und 182 Watt im Maximum für Cyberpunk 2077 angegeben. Mehr als auf 1% bzw. 2% percentil-fps muss man laut Test auch nicht verzichten. Bis zu 11% ist jetzt natürlich das Fünf- bis Zehnfache. Und wer weiß ob es noch ne Stelle gibt, wo es sogar mehr als 11% sind.

Die Werte des Computerbase-Tests sind natürlich sicher richtig, sie zeigen aber nur den Durchschnitt eines gewissen Mixes. Ich will damit sagen, dass einem klar sein muss, dass man beim Rumlaufen durch die Stadt mit 125 W permanent X-11% an fps verliert (mit 88 W will ich gar nicht erst testen), je nach Settings und fps-range kann man das dann eben auch mal negativ merken oder auch nicht. Ist individuell und kommt auch drauf an, ob man eine Sync-Methode nutzt usw. usf..

Ich kann nur empfehlen bzw. ich handhabe es so, den 13900K nicht auf die von Intel vorgesehenen 125 W für PL1 zu beschränken.

Bei den allermeisten (Gaming-)Boards sind die stock-limits ja aber auch viel höher, so dass man dieses "Problem" nicht bekommt, sofern man nicht selbst Hand anlegt.

Jetzt muss man natürlich sagen, dass in vielen anderen Stadt-Gebieten oder gar außerhalb der Stadt oftmals nur 130-150 W anliegen (nicht auf die Goldwaage legen, kommt ja auch auf Vcore und Temperatur an), in dem Moment würden 125 W kein oder kaum ein Leistungsverlust bedeuten, klar. Aber eben hier und da gibt es vereinzelt eben bis zu 11% weniger fps.

Darüber hinaus benötigt ja nicht jedes Spiel 125 W oder mehr, aber Cyberpunk 2077 ist eben so eins. Wir reden übrigens von um die 115 fps (ist ja für die CPU-Last nicht ganz unrelevant). Cyberpunk 2077 wird nicht für immer das einzige Game sein, was solch eine CPU-Leistungsaufnahme erzeugt (und es gibt sicher auch jetzt schon andere Spiele, die ich nur nicht kenne/habe...).

Ich habe PL1 von meinem 13900K auf den gleichen Wert wie PL2 gesetzt, welchen Intel dafür vorsieht (253 W). Hier gibt es keinen fps-Verlust beim Gaming (egal welches Game oder Szene).
 
Zuletzt bearbeitet:
150 W PL1 hatte ich getestet, ordnet sich einigermaßen mittig (glaube etwas näher an 175W) von 125 und 175 W ein, aber noch spürbar weniger fps. 175 W finde ich da deutlich besser, da kaum ein Unterschied zu stock (hier waren es 0-2% zu 200-220 W). Muss aber jeder selbst entscheiden (vorhandenes Kühlsystem, gewünschte Lautstärke usw.).

PL2 ist ja nur für 56 (Intel) oder um die 92 Sekunden (stock-setting vieler Gaming-Mainboards) gedacht, und das reicht für Cyberpunk 2077 einfach nicht. Es sei denn du flüchtest so schnell wie möglich ins Außengebiet, je nachdem wo du gerade bist... ;)

Das PL2 ist eher für sehr kurzfristige Aufgaben gedacht.
 
  • Gefällt mir
Reaktionen: Xaphyr
ok und was passiert wenn man P2=P1 einstellt,so das minimum und maximum gleich sind bei Last.Gibt es dann heftige Leistugungs Einbrüche? ALso als ich den 13900k auf 125 Watt maximal Last eingestellt hatte,haöbierte sich die Leistung förmlich bei Arbeits Sache.Sonst braucht die unter Vollast ja 350 Watt.Also kein Wunder das es mehr als die doppelte Zeit zum Umwandeln gebraucht hatte.Ich selbst habe diese jedoch nicht weil ich was gegen Stromfresser habe.Die Idle Stromverbrauch ist jedoch durchaus gut,hängt jedoch ja auch vom Mainboard ab das ganze.
 
also in meinem Falle war es aber gleich die dopelte Zeit.Das ist ein Extremer einbruch.Der dazu führt das diese CPU sogar fast auf Level einem i7 7960x ist.Und das nur weil man so stark Eingedrosselt hatte.
Und das ist echt so.Habe sogar ein Video davon gemacht.Und ich weis ja die Ergebnisse aller möglichen CPUS.Darum kann ich genau sagen ob das Ergebnis gut oder schlecht ist.
 
Robman86 schrieb:
Ich kann nur empfehlen bzw. ich handhabe es so, den 13900K nicht auf die von Intel vorgesehenen 125 W für PL1 zu beschränken.
Einerseits gut, dass du ans Strom sparen denkst, andererseits der falsche Weg denn selbst wenn du jetzt
100 Watt weniger verbrauchst und täglich 5 Stunden im CPU Limit zockst dann sind das bei 50Cent/kwh
pro Jahr ~90€ Ersparnis. Mit dem Kauf eines 13700K hättest du auf einen Schlag 200€ gespart. :heilig:

Viel sinnvoller wäre Undervolting bzw. austesten welche Spannung deine CPU für welchen Takt braucht,
einen Frame Limiter zu nutzen und moderne Techniken wie Nvidia DLSS + Frame Generation zu nutzen.
Dann zieht die CPU nur noch 50 Watt und dir wird bewusst, dass ein 13600K auch ausgereicht hätte. :evillol:
 
  • Gefällt mir
Reaktionen: Apo
naja es sei denn man braucht die Leistung will aber Strom sparen,dann macht das sinn.So nach dem Motto ich Opfere ein paar Prozent Leistung und gewinne dafür an Strom zu sparen.
Wie 50 % Leistung Opfern und dabei 200% an Strom sparen und dabei noch immer 30 % über dem 13700k und dabei genau den gleichen Stromverbrauch oder halt mehr Leistung bei ähnlichen Ergebnissen.
So habe ich auch wenn es ein AMD System ist auch gemacht.So weit die Spannung gedrosselt wie gerade noch so Ausreichend für die volle Leistung und dabei auf gewisse Watt gedeckelt.Als Beispiel ein 5950x der braucht eigentlich 142 Watt und dank festgesetzten Boost Takt nur noch 120 Watt.
So kann man es auch bei Intel machen.Man darf es nur nicht übertreiben.
 
Der 13900K hat 5,5Ghz All Core ? Dafür braucht er standardmäßig wie viel Spannung ? z.B. 1,300V ?
Diese (meist zu hohe) Spannung bestimmt den Stromverbrauch also entspricht PL2 von 250 Watt !

Hat man eine gute CPU die für 5,5Ghz nur 1,275V braucht (was man eben selbst austesten muss)
dann verbraucht sie "nur" noch 225 Watt. Wenn man den Takt leicht verringert dann geht vielleicht:

5,5Ghz 1,300V 250 Watt
5,5Ghz 1,275V 225 Watt
5,4Ghz 1,250V 200 Watt
5,3Ghz 1,225V 175 Watt
5,2Ghz 1,200V 150 Watt
5,1Ghz 1,175V 125 Watt
5,0Ghz 1,150V 100 Watt

Das sind nur 10% weniger Takt also 10% weniger Leistung bei 150 Watt Stromersparnis. :daumen:
 
0ssi schrieb:
Einerseits gut, dass du ans Strom sparen denkst, andererseits der falsche Weg denn selbst wenn du jetzt
100 Watt weniger verbrauchst und täglich 5 Stunden im CPU Limit zockst dann sind das bei 50Cent/kwh
pro Jahr ~90€ Ersparnis. Mit dem Kauf eines 13700K hättest du auf einen Schlag 200€ gespart. :heilig:

Viel sinnvoller wäre Undervolting bzw. austesten welche Spannung deine CPU für welchen Takt braucht,
einen Frame Limiter zu nutzen und moderne Techniken wie Nvidia DLSS + Frame Generation zu nutzen.
Dann zieht die CPU nur noch 50 Watt und dir wird bewusst, dass ein 13600K auch ausgereicht hätte. :evillol:

Puh, also für mich persönlich ist wirklich sehr viel falsch an deinem Post. Aber nicht persönlich nehmen, jeder hat so seine eigenen Bedürfnisse / Erwartungen / Vorstellungen.

Ich gehe jetzt nicht intensiv auf deinen Post ein, aber mal in Kürze aufistungsartig:
  • mir geht es nicht ums Strom sparen (und auch nicht um 200 Euro). Ich spiele so 15 Stunden die Woche, vor allem Multiplayer. Dort will ich das best mögliche Spiele-Erlebnis. Ich habe die 125 W PL nur aus allgemeiner Interesse getestet. Für mich hat sich wieder mal bestätigt, dass man das meiste selbst testen muss, da die Erwartungen unterschiedlich ausfallen
  • zu Undervolting: habe ich jetzt über 10 Jahre gemacht, mittlerweile mache ich es nicht mehr. Mein Desktop ist kühl und leise genug und so hab ich (vor allem in Online-Parties) keinerlei Risiko von Abstürzen (ob ein Undervolting-Setting nämlich wirklich richtig stabil ist, weiß man teilweise erst nach so einiger Zeit)
  • ich nutze seit je her einen Frame Limiter
  • DLSS nutze ich ebenfalls
  • Frame Generation nutze ich nicht, da es für mich in den meisten Fällen noch merkbare Nachteile mit sich bringt, sowohl input-technisch, als auch optisch
  • ich möchte die besten min-fps, damit mein gesetztes fps-limit möglichst wenig schwankt bzw. die fps-range möglichst klein ist. Und hier ist der 13900K nun mal am besten (im Vergleich zum 13600K/13700K). Andere sind in anderen Postings schon genug drauf eingegangen. Natürlich konfiguriere ich auch die GPU bzw. die ingame settings so, dass ich entsprechend Puffer bei der Load habe. Allgemein ist die CPU fast wichtiger als die GPU, da man bei einem GPU-Limit Settings oder DLSS-Stufe reduzieren kann, für ein CPU-Limit bringt das wenig
  • wer sagt, dass ich den 13900K nur zum Zocken nutze?
Lassen wir es am besten gut sein... :)
 
Robman86 schrieb:
Dort will ich das best mögliche Spiele-Erlebnis. Ich habe die 125 W PL nur aus allgemeiner Interesse getestet.
Per PL Senkung bekommst du aber nicht das best mögliche Spiele Erlebnis weil du die CPU limitierst
und sie dann gar nicht das best mögliche Spielerlebnis in Form von FPS und Frametimes liefern kann.
 
Hör bitte auf meine zwei Sätze zusammenzufügen, die nicht zusammengehören. Das eine hat mit dem anderen nichts zu tun. Wie gesagt: Lassen wir es am besten.
 
Zuletzt bearbeitet:
Zurück
Oben