News Intel Raptor Lake Refresh: Core i9-14900K soll mit 6 GHz protzen, Core i3 und i5 ohne Änderung

ThirdLife schrieb:
Ja, ich finde ab 120Hz wirds auch bei einem Shooter schon nicht mehr ganz so einfach - da müsste ich viel raten und würde oft daneben liegen.
Wurde bei LTT doch schon ich meine bis hoch auf 360Hz mit unterschiedlichen Abstufungen runter auf 60Hz getestet mit dem Ergebnis, dass selbst Leute die sich als „casual gamer“ bezeichnen den Unterschied bis nach oben eindeutig erkennen konnten.
Da wärst du eher die Ausnahme.
Ergänzung ()

alkaAdeluxx schrieb:
Dir ist schon klar, dass es ein umgelabelter 13900KS ist?
Mit entsprechend deutlich besserem P/L-Verhältnis sobald die Verfügbarkeit im Handel gegeben ist. Mehr Leistung gibt es im Desktop dieses Jahr generell nicht, glaube auch weniger dass viele von der 13. Generation umsteigen - innerhalb 2-3 Jahren wechseln die wenigsten die CPU.
Wer allerdings von einer älteren Plattform kommt freut sich über gratis Mehrleistung im einstelligen Bereich oder geringere Preise für die 13. Generation.
 
Zuletzt bearbeitet:
alkaAdeluxx schrieb:
Dir ist schon klar, dass es ein umgelabelter 13900KS ist?
Das mit dem Refresh ist schon klar, nur die Prozessoren sind eine gute Mischung aus X3D und normalem Ryzen 9 7950. Mal schauen, zu welcher Plattform es geht...
 
MalWiederIch schrieb:
Wurde bei LTT doch schon ich meine bis hoch auf 360Hz mit unterschiedlichen Abstufungen runter auf 60Hz getestet mit dem Ergebnis, dass selbst Leute die sich als „casual gamer“ bezeichnen den Unterschied bis nach oben eindeutig erkennen konnten.
Da wärst du eher die Ausnahme.
Kann schon sein. Ich habs nur für mich selbst getestet, alles zwischen 60 und 90Hz wirkt gut bis 120, 144Hz würde ich sagen sieht man dazwischen noch ne Differenz, darüber kommts halt stark aufs Spiel an. In einem Doom Eternal sieht mans evtl. aber ich bezweifle dass du die Differenz mit 100%iger Trefferquote zwischen 240 und 360 Hz siehst.

Zwischen 60 und 360, klar, aber oberhalb 200 ? Da wird die Luft arg dünn.
 
MalWiederIch schrieb:
Dafür gibt es doch die P-Core only Xeons? KVM hat jedenfalls keine Probleme mit den E-Cores und Mehrleistung bieten diese massig.
Weil die Xeons rein Kosten/Nutzentechnisch mit allem drum herum wie Boards und ECC RAM sowie Energieverbrauch den Rahmen in dem ich einen ESXi brauche völlig sprengt. Und das alte günstige Zeugs was man bekommt, ist aus heutiger Sicht einfach zu ineffizient.
 
Schranz0815 schrieb:
Dafür ist der Stromverbrauch beim Spielen einfach unterirdisch hoch, verglichen mit der Effizienz eines AMD

Na da übertreibst du ja jetwas , kannst du bitte nochmal ganz genau hinschauen und den Spieleverbrauch vergleichen ? Wärest Du so nett und dann würde ich dich auch noch bitten da unvoreingenommen ranziehen und ein wenig ehrlicher mit dir zu sein

Danke
 
Für den Spieleverbrauch gab es doch letztens erst einen Test:
Achtung: Dort wird der 13600K gegen den 7800X3D verglichen. Fazit des Testers ist zwar, man soll sich nicht so anstellen, da der 13600K in Spielen nur 40-60W mehr verbraucht (Anm: bei deutlich schlechteren FPS), ich finde das aber schon
a) eine relevante Hausnummer und
b) weiß ich nicht, warum er den 13600K genommen hat und nicht den 13700K oder den 13900K, die eher mit dem 7800X3D vergleichbar sind und noch mal mehr Strom ziehen.
 
Cmdr_Michael schrieb:
b) weiß ich nicht, warum er den 13600K genommen hat und nicht den 13700K oder den 13900K, die eher mit dem 7800X3D vergleichbar sind und noch mal mehr Strom ziehen.
Das dürfte sich evtl. in der Multi-Core Anwendungs-Performance begründen. Da sind die zwei sicher näher zusammen als ein 13700K zu einem 7800X3D.

Für Games natürlich irrelevant.
 
Ich kaufe bevorzugt AMD, weil ich weiterhin will, dass es wenigstens zwei AGs gibt, die im Preiskampf sind.
Aber diese Debatte um die Leistungsaufnahme Idle und Last erachte ich als eine intellektuelle Benachteiligung. Weil nur noch und endlos. Ständig werden irgendwelche Fetzen aus dem Gesamten gerissen um dann mit diesem Fetzen das Gesamte zu beurteilen.
Und wenn einem die Benches auf CB nicht gefallen für die eigene Motivation, müssen andere Benches diese Motivation stützen.
Auf CB hat ein 13600K eine Leistungsaufnahme bei Spiele von durchschnittlich 88W und maximal 94W.
Der 7800X3D von 60W und 64W. Ich sehe also durchschnittlich einen 28W Unterschied und maximal einen 30W Unterschied.
Laut CB ist der 7800X3D in 720p um 19% vor dem 13600K
Man kann also 150€ weniger ausgeben mit DDR4 und 13600KF und hat eine hervorragende Spielebasis. In Multi-Anwendungen ist der 13600K 15% vorne.
Es gibt also im Gesamten für fast schon jegliche Art und Weise an Anforderungen und Wünsche eine Möglichkeit.

Und wenn ich also 0,40€ für die kWh bezahlen muss und 30W beim Zocken mehr Leistungsaufnahme habe, dann kann ich 5 Jahre tagtäglich 7 Stunden Zocken für die 150€.

Es ist also aus meiner Sicht eine überaus sinnentleerende Debatte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ardadamarda
Alesis schrieb:
Es ist also aus meiner Sicht eine überaus sinnentleerende Debatte.
Persönlich auf sich selbst bezogen absolut richtig, ja. Wenn aber schon 500k Leute 30W brauchen reden wir von 15 Megawatt und somit einer kleinen Stadt die versorgt werden kann.

Und alle wollen doch eine Energiewende ? Oder ist dann beim eigenen Geldbeutel immer Ende ? Bei den 4090ern war noch vor Release das gemäkel hier groß von wegen die EU soll limitieren mi ma mu. Könnte man dann ja auch hier machen - wer nicht die gleiche Mehrleistung anbietet für das was er mehr verbraucht über einem definierten Fixwert muss Sondersteuer zahlen.

Die Debatte kann man auf tausend Arten führen und deren Ausgang hängt letztlich davon ab welches Ziel verfolgt werden soll.
 
ThirdLife schrieb:
Und alle wollen doch eine Energiewende ?
CPU's dürften kaum eine Rolle spielen denn die CPU Benchmarks sind doch in 720p aber der Mainstream
zockt in 1080p bzw. aktuell wohl bereits in 1440p und hängt zu 90% im GPU Limit wo der wirkliche Strom
verschwendet wird weil Frame Limiter aus und Lichtsensor hat auch Niemand im Monitor also blendend. :cool_alt:

Dein 83C1 läuft bestimmt mit OLED Licht 80 statt OLED Licht 100+Energie Sparen Automatisch (Lichtsensor)
also 100 Watt Mehrverbrauch. Aber vielleicht hast du ja eine PV Anlage mit Speicher und dann ist es egal. :cool_alt:
 
ThirdLife schrieb:
Und alle wollen doch eine Energiewende ?
Und deswegen hast du eine Grafikkarte die 439W zieht.
Und wenn man in England arm ist, ist man schlechter dran als in Deutschland. Trotzdem verbrauchen die ärmsten 20% der in England lebenden Menschen fünfmal soviel Energie, wie die ärmsten 84% der in Indien lebenden Menschen.

Die Debatte um die Leistungsaufnahme in den Foren AMD gegen Intel ist eine Luftnummer. Es geht dabei weder um eine zielführende Debatte um dabei den Planeten mit den Mitgeschöpfen zu retten, den Menschen ganz klar außen vor, sondern um seinen Liebling nach vorne zu pushen. Und wenn man die Welt retten möchte, also im Sinne von weniger aufheizen, sollten wir weltweit besser keine Autos mehr fahren, die nicht eine weiße Farbe haben.
 
0ssi schrieb:
CPU's dürften kaum eine Rolle spielen denn die CPU Benchmarks sind doch in 720p aber der Mainstream
zockt in 1080p bzw. aktuell wohl bereits in 1440p und hängt zu 90% im GPU Limit wo der wirkliche Strom
verschwendet wird weil Frame Limiter aus und Lichtsensor hat auch Niemand im Monitor also blendend. :cool_alt:
War einfach mal ein Denkansatz. Und naja, CPU spielt schon eine Rolle, ich bin ziemlich oft CPU limitiert. Unterhalb von 4K kriegst du eine 4090 nie ausgelastet.

0ssi schrieb:
Dein 83C1 läuft bestimmt mit OLED Licht 80 statt OLED Licht 100+Energie Sparen Automatisch (Lichtsensor)
also 100 Watt Mehrverbrauch. Aber vielleicht hast du ja eine PV Anlage mit Speicher und dann ist es egal. :cool_alt:
Beim normalen TV-Schauen und Youtube-Content hab ich ihn auf 40%, bei HDR Filmen natürlich 100%. Und nein ich hab keine Solaranlage, beziehe aber zu 85% regenerative Energie, fahre mittlerweile EV statt 5.0er V8 und das auch nur etwa 1-2x die Woche (dank Home Office) und esse etwa 3x die Woche Fleisch. Denke also das dürfte sich dann ausgleichen. :D
Ergänzung ()

Alesis schrieb:
Und deswegen hast du eine Grafikkarte die 439W zieht.
Eigentlich sogar 600 theoretisch. Hab aber noch nie mehr als 573W in einer AI-Anwendung gesehen. Gerade zock ich Wolcen bei 3440x1440p, alles maximiert im 40% Powerlimit. Das sieht dann so aus:
1692543300787.png


Vermutlich bessere Werte als viele Leute mit einem Entry-Level oder Mittelklasse-PC haben.

Alesis schrieb:
Und wenn man in England arm ist, ist man schlechter dran als in Deutschland. Trotzdem verbrauchen die ärmsten 20% der in England lebenden Menschen fünfmal soviel Energie, wie die ärmsten 84% der in Indien lebenden Menschen.
Ist ja First-World-Technisch immer so. Wer mehr hat und nutzen kann ballert automatisch mehr weg.

Alesis schrieb:
Die Debatte um die Leistungsaufnahme in den Foren AMD gegen Intel ist eine Luftnummer. Es geht dabei weder um eine zielführende Debatte um dabei den Planeten mit den Mitgeschöpfen zu retten, den Menschen ganz klar außen vor, sondern um seinen Liebling nach vorne zu pushen.
Dann wär es aber auch Liebling-Pushen wenn egal welche Werte betrachtet werden. Für dich mag ein Punkt irrelevant sein, für andere halt nicht. Dann sind 5% bessere Performance in Game X für Intel halt auch ne Luftnummer und Liebling Pushen. Darf ja nix mehr erwähnt werden weil sich immer jemand angegriffen fühlt.

Find ich schwierig. Ich denke man muss alle Seiten betrachten und dann je nachdem für sich selbst zu einem Schluss kommen.

Alesis schrieb:
Und wenn man die Welt retten möchte, also im Sinne von weniger aufheizen, sollten wir weltweit besser keine Autos mehr fahren, die nicht eine weiße Farbe haben.
Mist. Dunkelblau Metallic hier. 🤣
 
Zuletzt bearbeitet:
Na toll ich wollte jetzt meine neues System kaufen und meine 10 Jahre alte Mühle in den Ruhestand schicken . noch warten oder den 13900K sich gönnen ?
 
Ein paar Tage mehr machen nach 10 Jahren wohl nicht mehr viel aus.
Warte die 14900k Tests ab.
 
Zurück
Oben