Test Single- statt Dual-Channel: So viel Leistung kostet ein RAM-Modul auf Core Ultra 7 265K

wagga schrieb:
Der 14600K hat aber das Problem der Deneration und Oxidation, wann ein i5/i7 13000/14000 ausfällt weiß keiner. Ich hoffe sie machen 8 Jahre, aber habe Zweifel.

Die i5er kannst du aus der Gleichung nehmen. Ebenso alle CPU's die nicht mit P1=P2 betrieben werden.
Mittlerweile sollte das BIOS update bei allen im DIY-Markt angekommen sein. Damit werden die Peak Ströme reduziert und damit der eigentliche Grund für die ganze Problematik im Keim erstickt.

Das Thema ist technisch zumindest erledigt.
 
  • Gefällt mir
Reaktionen: vti, MalWiederIch und pabu.roar
Wenn man kein AMD kaufen möchte, aber eine aktuelle Plattform möchte, landet man beim Sockel 1851. Dies erfordert DDR5. Welcher exorbitant teuer geworden ist.

Ist das eigene Budget knapp, kann man
a) gar nicht kaufen.
b) mit nur 1 günstigen Riegel vielleicht doch kaufen.

Die RTX 5090 ist keine Kaufempfehlung, sondern Maßnahme, um ein möglichst freies, weites Messergebnis der CPU zu erlangen. Somit ist sie kein Zielkonflikt für ein Budget. Darüber hinaus darf man dadurch erkennen, was eine hypothetische RTX7070 in bspw. 5 Jahren liefern würde.

Es kommt bald der "neue" Intel 270 Plus und die Daten dürften in diesen Test mit einfließen.


Wer bereits DDR4 Ram besitzt, darf sich die Anschaffung eines 14600k überlegen.
Dies kann jedoch nicht pauschal angenommen werden.
 
  • Gefällt mir
Reaktionen: cvzone
Den Blödsinn will ich doch noch kommentieren.
MalWiederIch schrieb:
Wurde nicht genau diese „Wundertreiber“ widerlegt? Was ein Drama das war, manche Glauben den Blödsinn bis heute :p
AMD hatte mehr Kerne und keine Spieleoptimierungen und brachte keinen Wundertreiber, sondern nur modernere Spiele um besser zu werden. Deshalb haben AMD Systeme die entsprechenden Intel Systeme überholt.

Es ist auch nachgewiesen, dass Intel die Compiler so umgesetzt hat, dass so Dinge wie SSE nicht nach Flags der CPUs aktiviert wurde, sondern nach Hersteller.

Genauso verhält es sich mit AMD64, das dann in x86-64 oder x64 umbenannt wurde, nachdem IA-64 gescheitert ist.
 
  • Gefällt mir
Reaktionen: Asghan
//differentRob schrieb:
Das Thema ist technisch zumindest erledigt.

Sehe ich genau so, wobei der 14600K faktisch auch gar nicht betroffen war, sondern der 14700 und der 14900 hatten das Problem.
Und mal Hand aufs Herz, die Intel haben selbst auf KF Tray 5 Jahre Garantie...

Mit einem Ryzen 9000X/3XD + ASRock/Asus Board hätte ich derzeit eher Sorgen :)
 
  • Gefällt mir
Reaktionen: MalWiederIch
eastcoast_pete schrieb:
da DDR 5 (JEDEC Spezifikation, also 4800 MHz) auch im Einkanalbetrieb ja technisch gesehen schon 2 Subkänale (subchannels) hat.

genau das meinete ich ja - mal ich würde ehrlich gesagt doch etwas feidern wenn nun viele mit DDR4 auf SC wechseln und dann auf einmal sehr lange Gesichter bekommen, weil die annehmen, das dieser Test auch ein ähnliches Verhalten bei DDR4 zeigt.
 
blueGod schrieb:
Man kann auch Pizza ohne Tomatensauce essen.
Geht auch, will nur keiner 😉
Nicht alles was hinkt, ist ein Vergleich.
In guten italienischen Restaurants oder Pizzerien gibt es in der Regel sogar ein Extrakapitel "weiße Pizzen" auf der Speisekarte - natürlich nicht beim Indisch-Döner-Pizza-Schnitzel-Imbiss (kann alles, aber nichts richtig) nebenan.
 
  • Gefällt mir
Reaktionen: Stramma
Jack3ss schrieb:
bei wie viel Spielen ist man im echten Leben wirklich im CPU-Limit und nicht im GPU-Limit?
die kann man doch an einer Hand abzählen...
niemand spielt 2026 mit 720p...

Anno1800, Star Citizen, Factorio... das sind nur drei Spiele aus verschiedenen Bereichen die alle CPU Limitiert sind bevor diese ins GPU Limit rennen. Kommt immer darauf an was man spielt. So pauschal ist deine Antwort nur geflame.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: JackTheRippchen und kellyfornia
Holzinternet schrieb:
Anno1800, Star Citizen, Factorio

Da müsste man jetzt aber Benchmarks sehen in 1080p/1440p, denn ob 60 oder 65 fps in Anno oder 350 statt 365 in Factorio wird wohl recht egal sein. FPS sind i.d.R. die Games, wo es auf fps ankommt, und da limitiert die GPU...
 
@pabu.roar Bei Factorio sind die FPS an die UPS gekoppelt. Gibt es hier auf CB auf nen tollen Test und eine Zeitlang war es auch Bestandteil von Benchmarks hier. Wäre schön wenn man das wieder aufleben lassen würde. 😊Und um ein CPU Limit zu testen ist die Auflösung 720p ideal. Deshalb macht man das ja auch.

Hat ja auch nichts mit realen Eindrücken zu tun. Sondern dient dem testen. So wie es angegeben ist. Und auch bei Anno1800 und Star Citizen macht es einen sehr großen Unterschied ob es 60 FPS sind oder 30 FPS.

Gruß
Holzinternet
 
Holzinternet schrieb:
Hat ja auch nichts mit realen Eindrücken zu tun.

Genau das ist der Punkt :) 720p hat mit Gaming in der Praxis gar nichts zu tun...
 
  • Gefällt mir
Reaktionen: Holzinternet
Ich hab nicht alle Kommentare gelesen, finde es naja, zwar interessant aber vielleicht überflüssig, sowas zu testen. Das single channel weniger performance bringt, liegt ja wohl im Sinne des erfinders (von dual channel).
Und das zweite Argument gegen solche Tests, mal als Frage formuliert: Sind denn Kits aus (X+X=Y) GB wesentlich teurer als 1x Y GB?
Versteh den Ansatz nicht. Wenn ich weniger RAM haben will, aus welchen Gründen auch immer, kaufe ich halt ein kleineres KIT.
Hab ich irgendwas verpasst? :confused_alt:
 
Zuletzt bearbeitet:
kellyfornia schrieb:
Der Prozessor bringt in 4K die gleiche Leistung sie in 720p, du musst aber in 720p testen damit du wirklich die CPU testest und nicht die GPU
Widerspricht sich der Satz nicht schon?

Zweitens macht es einen großen Unterschied, ob 4K oder 720p. In 4K hängt die GPU im Limit und die CPU muss nicht so viele Daten bereitstellen, wie sie es unter 720p tun muss. Deshalb ist die Auslastung einer CPU auch deutlich höher in 720p als in 4K.

Heißt:
Wenn ich die CPU in 4K teste, kann es durchaus sein, dass der Test mit Dual oder Single-Channel keinen großen Unterschied haben wird, da die CPU eh sich langweilt.
 
  • Gefällt mir
Reaktionen: pabu.roar
pabu.roar schrieb:
Genau das ist der Punkt :) 720p hat mit Gaming in der Praxis gar nichts zu tun...
Doch es ist relevant um zu sehen wo das Limit der cpu liegt und ob sie die GPU ordentlich füttern kann. Beispielsweise baut man sich ein rig um bf6 oder COD zu spielen und der monitor hat 240hz.
D.h. man möchtest idealweise ebenso viel FPS um es noch mit VRR zu betreiben aber so wenig Frametime Varianzen wie möglich.

So nun begibt sich derjenige auf die Suche nach ner CPU und GPU und sieht überall in 4k Test das alle Prozis iwo bei x FPS hängen, evtl. schlussfolgert er dass er mit der günstigeren CPU das Ziel erreicht und sich teuerste gpu holt, doch nach dem Einbau stellt er sein RIG ein und klebt iwo bei ruckligen 180 und die CPU ist heiss wie sau, weil er die falsche CPU gekauft hat....

Zu dem Test hier, es geht darum den Unterschied aufzuzeigen und welche möglichen effekte die beiden Setups im Limit betreffen...
Er ist nicht perfekt, aber zeigt deutlich was man erwarten kann...
 
HOCLN2 schrieb:
Heißt:
Wenn ich die CPU in 4K teste, kann es durchaus sein, dass der Test mit Dual oder Single-Channel keinen großen Unterschied haben wird, da die CPU eh sich langweilt.
Und damit testest du eben nicht die CPU, darum gehts ja
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
rongetu schrieb:
Ich hab nicht alle Kommentare gelesen, finde es naja, zwar interessant aber vielleicht überflüssig, sowas zu testen. Das single channel weniger performance bringt, liegt ja wohl im Sinne des erfinders (von dual channel).
Und das zweite Argument gegen solche Tests, mal als Frage formuliert: Sind denn Kits aus (X+X=Y) GB wesentlich teurer als 1x Y GB?
Versteh den Ansatz nicht. Wenn ich weniger RAM haben will, aus welchen Gründen auch immer, kaufe ich halt ein kleineres KIT.
Hab ich irgendwas verpasst? :confused_alt:
Naja bei AMDs 3D Prozessoren sind es eben nur 5%
 
  • Gefällt mir
Reaktionen: rongetu
rongetu schrieb:
Versteh den Ansatz nicht. Wenn ich weniger RAM haben will, aus welchen Gründen auch immer, kaufe ich halt ein kleineres KIT.
Hab ich irgendwas verpasst? :confused_alt:
Für 99% der Spiele macht es keinen Unterschied, ob man 16GB oder 32GB RAM im System hat.
Bezogen auf DDR5 gibt es kaum RAM-Riegel die kleiner sind als 16GB; insofern ist 1x 16GB gegenüber 2 x 16GB attraktiv, wenn man für den 2. Riegel nicht 180-200€ ausgeben möchte.
 
  • Gefällt mir
Reaktionen: rongetu
Jack3ss schrieb:
bei wie viel Spielen ist man im echten Leben wirklich im CPU-Limit und nicht im GPU-Limit?
die kann man doch an einer Hand abzählen...
niemand spielt 2026 mit 720p...
niemand testet 2026 ein CPU Benchmark in 2160p...

1770578502548.png


0,8% die müssten ja alle gleich gut sein? oder?





oder?










ooooooooder? :freak:
 
  • Gefällt mir
Reaktionen: cvzone, pabu.roar und //differentRob
Zwirbelkatz schrieb:
Die RTX 5090 ist keine Kaufempfehlung, sondern Maßnahme
Naja bei einem RAM Test wäre es aber logisch gewesen eine GPU mit nur 8GB VRAM zu benutzen um einen noch realistischeren Wert ab zu bilden am besten eine mit hoher Bandbreite also RX9060 XT ;)
 
alkaAdeluxx schrieb:
niemand testet 2026 ein CPU Benchmark in 2160p...

Anhang anzeigen 1704642

0,8% die müssten ja alle gleich gut sein? oder?





oder?










ooooooooder? :freak:

genau meine Rede...
bis auf ein paar sehr schwache und alte CPU´s machts keinen Unterschied.

natürlich kann ich alles theoretisch testen, aber was hat man in der echten Welt davon, dass der CPU theoretisch schneller ist?
PRAKTISCH gar nix
 
  • Gefällt mir
Reaktionen: pabu.roar
ich lass es sein, bringt nichts, hab mir auch deine anderen Kommentare zu diesem Thema angeschaut.... :streicheln:
 
  • Gefällt mir
Reaktionen: Taxxor
Zurück
Oben