Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

🙄 habe deine mates noch ‘ne TĂŒte deutsch ĂŒbrig?
 
  • GefĂ€llt mir
Reaktionen: Lutscher, eyedexe und Mcr-King
Der Paule schrieb:
Beschwer Dich dann allerdings nicht, falls 2022 plötzlich ein neues Assassins Creed auf der Matte steht, wo Du dann mit einem Sechskerner die Probleme erdulden musst, die 2017 die 4Core+HT Fraktion (mich eingeschlossen) betraf.

Ich könnte jetzt sagen, was interessiert mich die Welt von morgen, das wĂ€re vielleicht etwas ĂŒbertrieben, ist in diesem Markt aber fast schon so. Stand hier und jetzt gibt es einen Sechskerner vergleichsweise gĂŒnstig zu kaufen, Stand 2022 wird es eine komplett neue Architektur mit DDR5 und vielleicht sogar PCIe 5.0 geben, wĂ€re ich dann mit meinen "zukunftssicheren" 8-10 Kernen glĂŒcklicher? Wohl kaum!
 
xexex schrieb:
Stand 2022 wird es eine komplett neue Architektur mit DDR5 und vielleicht sogar PCIe 5.0 geben, wĂ€re ich dann mit meinen "zukunftssicheren" 8-10 Kernen glĂŒcklicher? Wohl kaum!

Was bringt dir DDR 5 und PCiE 5.0 bis dahin, denk mal nach.

Der 8 bis 10 Kerner wird mehr Leistung bringen, die zwei anderen Sachen sind am Anfang total egal da DDR 5 am Anfang kein hohen Takt hat und PCie wird auch erst auf Jahre genutzt.

Du redest also dummes Zeugs
 
  • GefĂ€llt mir
Reaktionen: Mcr-King
Halbgott schrieb:
Was bringt dir DDR 5 und PCiE 5.0 bis dahin, denk mal nach.

Bis dahin? Nichts!

Dann allerdings bekommst du einen Achtkerner mit neuen Architektur, neuen Schnittstellen und der UnterstĂŒtzung von neuem Speicher ebenfalls zu einem gĂŒnstigeren Preis und zwar vorausgesetzt, dass du bis dahin ĂŒberhaupt eine schnellere CPU ĂŒberhaupt brauchst.

Dann denk du mal nach, was dir in ein paar Jahren ein 10900K bringen wird.

Es wird hier auch immer wieder gerne hervorgebracht man hĂ€tte "damals" mit einer grĂ¶ĂŸeren Anschaffung fĂŒr die Zukunft gekauft. Blöd nur das ein Board von "damals" heute weder M.2 SteckplĂ€tze hat, noch USB-C und mit etwas Pech nicht einmal ein anstĂ€ndiges UEFI. CPU Leistung ist eines, die Plattform drumherum das andere.

Halbgott schrieb:
da DDR 5 am Anfang kein hohen Takt hat

Auch dem Finger saugen kann ich mir Argumente auch, nur ist diese Behauptung schlichtweg blödsinnig.
Hoch gerechnet auf DDR5 sollte deshalb DDR5-8400 auch funktionieren. Der Start wird vermutlich mit DDR5-4800 bis ungefĂ€hr DDR5-5200 und DDR5-5400 erfolgen, ehe ĂŒber die kommenden Monate und Jahre der Takt stetig erhöht wird, Micron nannte beispielsweise schon DDR5-6400.
https://www.computerbase.de/2020-04/ddr5-sdram-takt-kapazitaet/

JEDEC wohlgemerkt.
 
Zuletzt bearbeitet:
alman

ich sprechen von games ok?

was bringen dir express in 2 jahre

nix

was bringen ddr5 zu start

nix

was bringt dir 8 kerne bis start von deine wunsch

super performance

du anders machen ok

fail
 
Mal ne Frage, kann man eigentlich zB bei einem i5 10400F den RAM ĂŒbertakten auf 4000MHz+und die Timings tunen mit einem Z Board? Kann man auch den Cachetakt etwas anheben? (denke zwar nicht, aber kp)
Taktet zwar nur allcore @ 4GHz, könnte mir aber vorstellen, dass das Teil mit RAM Tuning brutal wird.
 
Duvar schrieb:
Mal ne Frage, kann man eigentlich zB bei einem i5 10400F den RAM ĂŒbertakten auf 4000MHz+und die Timings tunen mit einem Z Board? Kann man auch den Cachetakt etwas anheben? (denke zwar nicht, aber kp)
Taktet zwar nur allcore @ 4GHz, könnte mir aber vorstellen, dass das Teil mit RAM Tuning brutal wird.

Nee ohne Z490 nicht und beim i5_10400f kannst du nix OCen leider hat da Intel die Daumen Schrauben Ă€hm Kunden Freundlichkeit ausgebaut. 😉
 
  • GefĂ€llt mir
Reaktionen: Duvar
Meine ja mit Z490, RAM OC sollte doch eigentlich möglich sein oder?
 
  • GefĂ€llt mir
Reaktionen: Luxmanl525
Pisaro schrieb:
nur das mein Post inhaltlich natĂŒrlich korrekt ist

Eigentlich redest du dich nur sinnlos heraus.
Er hat doch völlig Recht, du kannst heute auch noch mit Ă€lteren CPUs sehr gut zocken, bestĂ€tigt auch der Benchmark in diesem Test ausdrĂŒcklich, einfach mal mit + die anderen Modelle dazu schalten.

Ich weiß auch von einem Kollegen der noch einen FX betreibt und die sind heute viel schneller als damals, oft auf i7 Niveau, ist halt wegen der 8 Threads.

Ist doch ein aktuelles Video aus 2019 verlinkt und du postest den Test von vor wie vielen Jahren? Ist das fĂŒr dich seriös oder spiegelt das die Situation??

Zum Test:
Die großen Modelle sind total unattraktiv, gerade als Gamer bringt einem das auch nichts, außer man zockt wirklich die 2-3 ST limitierten Games, aber dafĂŒr hat noch keiner einen High-End PC gebraucht.
Die Sache mit 4k oder vielen Hz wird viel zu hoch gehĂ€ngt (eher eine Ausrede) es reicht bei Hz locker 144, die Modelle mit mehr kann doch keiner mehr sehen, hat auch anderswo einer gepostet den Vergleich der Reaktionszeitunterschiede, bis 144 ist das noch deutlich spĂŒrbar, danach ein Witz.
4k gibts keine gescheiten Grafikkarten außer ein paar ĂŒberteuerte Nvidia, was will man also mit so einem Intel? Gaming CPU? FĂ€llt euch denn gar nichts anderes mehr ein?
 
wenn man auf uhd spielt, hat sich doch jede diskussion (3700x aufwÀrts) um den prozzi oder welchen erledigt.
ErgÀnzung ()

zitat: der paule: Mein 3770K hat volle 6 Jahre gehalten (bis 2019). Ein 3570K wÀre 2015 schon am Ende gewesen und eine FuryX oder 980TI hÀtte mir dann auch nichts gebracht.
mein 3570 (4200mhz oc) hatte ich bis februar 2020 mit einer geforce 1070. alles lief wunderbar und ich spielte auf 1400p. 7 jahre wahre freude.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: jabba.
Hab mir die meisten Kommentare hier durchgelesen, da bald ein neuer PC ansteht,
aber der einzige Mehrwert fĂŒr die zukĂŒnftige Kaufentscheidung war der Hinweis auf den YouTube Chanel
Testing Games

Ryzen 3700x oder eine Àhnliche Zen3 CPU
16 GB Ram möglichst hoher Takt
billige SSD reicht
mit dem gesparten Geld eine ~GTX 3080ti kaufen :daumen:
(und noch paar Monate die GTX1070 OC behalten)
 
  • GefĂ€llt mir
Reaktionen: Der Paule und Slainer
Nolag schrieb:
Es ist der gleiche Grund warum ein 3100 bei Games deutlich langsamer ist als ein 3300X. Das wird z.B. ausfĂŒhrlich im Computerbase Test des 3100 und 3300X erklĂ€rt.
Der 3300X besteht aus einem CCX, bei dem alle 4 Cores aktiviert sind. Ist eine AMD CPU aus mehreren CCX aufgebaut, arbeitet sie ineffizienter, wenn viele Informationen zwischen den CCX ĂŒber die relativ langsame IF synchronisiert werden mĂŒssen. Das ist bei vielen Game Engines, bei denen hĂ€ufig Daten ĂŒber mehrere Threads voneinander abhĂ€ngig sind, der Fall. Ein 3600X ist eben auch eine Dual-CCX CPU wie der 3100, wobei allerdings nur ein Core pro CCX deaktiviert ist.
Aus diesem Grund wird auch sehnsĂŒchtig Zen 3 erwartet, wo ein CCX wahrscheinlich aus 8 Cores besteht. Mit einer 8 Core CPU aus einem CCX bei zusĂ€tzlich verbesserter IPC mĂŒsste AMD eigentlich locker den 10900k als schnellste Gaming CPU vom Thron stoßen können.

Dann mal die doof Frage, wo kann man das nachlesen, welche CPU aus wie vielen Teil CPUs zusammengestellt ist?
Ich habe mir einen Ryzen 7 3700 X bestellt. Der besteht eh aus 2 Teilen?
 
Tonks schrieb:
Ich habe dir gezeigt, das du mit deiner Aussage im Verbrauch falsch liegst. Und jetzt bist du von "das schafft keiner" auf "Intel kann das auch"?

Da gibt es ein schönen Englischen Spruch fĂŒr:

Moving the goalposts.

Und das deine CPU nur 1°C ĂŒber deiner Raumtemperatur liegt kannst du auch keinem erzĂ€hlen. Aber warum zugeben das man falsch lag, wenn man auch simple Physik anzweifelen kann? Ist viel einfacher, ne?

Selten so etwas realititÀtsfremdes gelesen.
Kannste leider in anderen Tests genauso sehen.
Und leider ist auch du derjenige der hier die "Goalposts moved". Aber das habe ich ja auch wieder irgendwie erwartet, wenn man euren Heiligen Gral kritisiert.... Wie vor 20 Jahren..............
ErgÀnzung ()

Nolag schrieb:
Es liegt nicht an der CPU, sondern am Chipsatz. Roman hat ein Video dazu gemacht: X570 Leistungsaufnahme gemessen - Was ist hier passiert?
Vielleicht lohnt sich das Warten auf die B550 Boards, die weniger Stromaufnahme haben sollen und auch ohne LĂŒfter auskommen.
Ändert nichts an meiner Aussage. Ich wĂŒnschte auch, dass der Motor in meinem Auto leichter wĂ€re und ich dann schneller beschleunigen könnte. :rolleyes:
ErgÀnzung ()

immortuos schrieb:
CB misst deiner Meinung nach also falsch? ;)
Es geht nicht um beladene Boards, das X470 Crosshair Hero ist auch beladen und die CPU zieht dort laut CB trotzdem 10W weniger.
Es ist kein MĂ€rchen, sowohl mein R5 2600 als auch mein R5 3600 zieht im B450M Mortar Max ~4W mehr als mein 6600K auf dem Maximus VIII Impact an der Steckdose. ~40W Idle vs ~44W Idle.
Erste Quelle:

Zweite Quelle:

Dritte Quelle:

Vierte Quelle:

FĂŒnfte Quelle:

Sechste Quelle:

Letzte Quelle:


Also ausschließlich X570 Boards, die eine deutlich erhöhte Idle Leistungsaufnahme mit sich bringen.
Leider nur Ausreden, selbst hier bestĂ€tigen den Mehrverbrauch einige. Ich habe meine Situation geschildert und warum der Mehrverbrauch ein Problem fĂŒr mich ist. Warum mĂŒsst ihr immer Fanboy Stereotypen so bestĂ€tigen?
ErgÀnzung ()

Rockstar85 schrieb:
x470 Chip mit 3600: 9-15W im Idle..
Es liegt am I/O, weil der keinen Stromsparmode kennt.

Real hat Intel derzeit 5-9W Vorteil.. Das ist eigentlich vernachlÀssigbar.
Eben nicht in meinem Fall, da der Rechner 8 bis 16 Stunden am Tag lÀuft und dann die meiste Zeit im Idle.
Ich verstehe nicht wieso ihr immer so austicken mĂŒsst. Ich habe meinen Fall beschrieben, wie diese Situation fĂŒr mich wĂ€re und ich deswegen keinen AMD kaufe. Und ihr versucht mich mit irrelevantem Zeug zu bekehren... Wie gesagt, genau so wie ich AMD Fanboys in Erinnerung habe...

Dieses Drama bestĂ€tigt mich nur wieder darin extrem vorsichtig zu sein, falls ich wirklich einen AMD kaufen werde, denn wer weiß was sonst noch so wieder klein gehalten wird...
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Luxmanl525
flug_rosetto schrieb:
wenn man auf uhd spielt, hat sich doch jede diskussion (3700x aufwÀrts) um den prozzi oder welchen erledigt.

ist das so?

Cities_2020_05_21_14_55_50_369.jpg
 
Ich wĂŒrde ja Mal gerne wissen, ob das totale ausreizen der Plattform auch die Haltbarkeit beeinflusst. Also ob mir in zwei Jahren die CPU durchgelutscht ist. FĂŒr die anderen Komponenten gilt das gleiche: sorgt nicht die höhere energiedurchfuhr und auch die höheren Temperaturen fĂŒr eine stĂ€rkere Abnutzung der Bauteile?
 
Ich weiß garnicht warum der 10900K so schlecht geredet wird? Guckt Euch mal Igor`s Test an.
DafĂŒr das er noch immer in 14nm gefertigt wird und ja sooo ausgelutscht ist macht er AMD gut druck.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: sebbolein und KlaraElfer
Jake Grafton schrieb:
Aber das habe ich ja auch wieder irgendwie erwartet, wenn man euren Heiligen Gral kritisiert.... Wie vor 20 Jahren..............

Heiligen Gral?

Ich bitte dich. Ich mag einfach keine Misinformationen.

Jake Grafton schrieb:
Und leider ist auch du derjenige der hier die "Goalposts moved".

Mitnichten. Hier ist die exakte Reihenfolge der Diskussion:

Jake Grafton schrieb:
Und da sind AMD CPUs leider mies. Die verbrauchen deutlich mehr im Idle als irgend ein Intel und laufen auch deutlich wÀrmer. Nicht selten sind die Idle Temperaturen mehr als doppelt so hoch wie von nem Intel.

Dein erster Post behauptet AMD hat einen deutlich höheren Verbrauch im Idle und oft hat es doppelt so hohe Temperaturen.

Mein Post widerlegt deine mit meinen Erfahrungswerten bei Verbrauch und Temperaturen:
(Noch ohne Screenshot, aber der kommt dann bei der nÀchsten Antwort.)

Tonks schrieb:
20-25W und 35-45°C im Idle mit Firefox und Spotify. (<13W wenn alles geschlossen ist, aber ich denke mal wenige benutzen den PC nur um auf ein leeren Desktop zu gucken.)

Jake Grafton schrieb:
Wie hast du das geschafft?
Schafft sonst keiner. In keinem Test. Immer ca. 10-15W mehr als ein Intel. Und du hast nichtmal 15W Verbrauch?
Aber wenigstens deine Temperatur stimmt. Mehr als doppelt so hoch wie ein Intel. Kann also nicht sein mit dem Verbrauch.

Hier bezweifelst du meine Verbrauchswerte, aber bezeichnest meine Temperaturen von 35°C - 45°C "mehr also doppelt so hoch wie ein Intel".

Anders ausgredrĂŒckt: Intel hat 17,5°C - 22,5°C Idle Temperaturen. Warum das Quatsch ist sollte ich dir eigentlich nicht erklĂ€ren mĂŒssen.

Hier erklÀre - und beweise! - ich mit einem Screenshot wie meine Werte sind (nicht mitzitiert, einfach das Zitat klicken und man kommt du dem Post selber).

Tonks schrieb:
Wenn du noch 2-3W sparen willst, dann kannst du den SoC-Verbrauch mit manuell gesetzten Spannungen verringern. Hab das im Rahmen vom RAM OC gemacht, also war das ein netter Bonus.

PS: Du hast die HĂ€lfte meiner Temps mit Intel? Also 17,5°C - 22,5°C? Respekt, wusste nicht das Intel so gut sind, dass die deine CPU unter die Raumtemperatur kĂŒhlen können.

Daraufhin Ă€nderst du dein Argument anstatt zuzugeben das du falsch lagst (Moving the Goalposts). Du gehst auch ĂŒberhaupt nicht auf deine Idle Temperaturen ein, das einzige was du uns sagst ist deine Raumtemperatur - aber was sind deine Idle Temps?

Wo sind deine Screenshots? Deine Beweise?

Jake Grafton schrieb:
Achjso, also Maßnahmen die man auch bei nem Intel durchfĂŒhren kann.
Meine GĂŒte...
Und ja, Raumtemperatur ist bei mir 20 bis 21°C. Ist nun wirklich nichts neues dass Intels da sehr kĂŒhl sind. Auch hier in einigen Tests gezeigt.

Hier erwÀhne ich es nochmal, aber auch bist jetzt haste null Beweise gebracht. Nur vage Verweise auf "andere Tests".

Tonks schrieb:
Und das deine CPU nur 1°C ĂŒber deiner Raumtemperatur liegt kannst du auch keinem erzĂ€hlen. Aber warum zugeben das man falsch lag, wenn man auch simple Physik anzweifelen kann? Ist viel einfacher, ne?

Also nochmal:

Wo sind deine Werte? Deine Beweise das AMD keine geringe Verbrauche haben kann. Bei 13W Verbrauch und deiner Aussage das AMD immer 10-15W höher liegt mĂŒsstest du mir also einen Screenshot zeigen wo der Intel 3W Verbrauch hat. Bin ja mal gespannt. Und wo sind deine Idle Temps, die unter deiner Raumtemperatur von 21°C liegen?

Bis jetzt habe ich nichts davon gesehen, und wenn man der Tendenz folgt dann wirst du im nĂ€chsten Post behaupten das Intel nicht nur deinen Raum kĂŒhlt, sondern mit dessem negativen Verbrauch sogar deinen PC mit Strom versorgt.

Gekrönt wird das dann noch mit irgendwelchen Unterstellungen mein sei ein Fan von einem gewissen Hersteller. Ist ja immer einfacher als sich auf die Argumente zu beziehen oder Belege zu liefern, ne?
 
  • GefĂ€llt mir
Reaktionen: catch 22
Jake Grafton schrieb:
Eben nicht in meinem Fall, da der Rechner 8 bis 16 Stunden am Tag lÀuft und dann die meiste Zeit im Idle.
Ich verstehe nicht wieso ihr immer so austicken mĂŒsst. Ich habe meinen Fall beschrieben, wie diese Situation fĂŒr mich wĂ€re und ich deswegen keinen AMD kaufe. Und ihr versucht mich mit irrelevantem Zeug zu bekehren... Wie gesagt, genau so wie ich AMD Fanboys in Erinnerung habe...

Mein lieber, hier hat dich KEINER angegangen. Also wenn du meinst 9W sind bei einem betrieb von 16 std Relevant sage ich dir folgendes. Mit LED Lampen im Haus spartst du 90% mehr Stromkosten als wenn du deinen PC tĂ€glich (spielzyklus) mit 150W laufen lassen wĂŒrdest. Sorry aber du hast vermutlich keine Ahnung von der Materie. 9W sind unerheblich, selbst im 24Std Betrieb.
Und andere als Fanboys zu bezeichnen ist frech. Und hier wirst du widerlegt, weil deine Aussage schlichtweg falsch ist. Nennt man Meinungsfreiheit.

Ach und im Teillastbereich ist AMD Intel ebenbrĂŒtig..
 
  • GefĂ€llt mir
Reaktionen: Mcr-King und Tonks
ZurĂŒck
Oben