Test Intel Core i3-7350K im Test: Übertaktet auf 5,1 GHz im Duell mit echten Vier-Kern-CPUs

Abgesehen davon, dass der Preis die CPU sowieso komplett unattraktiv macht, kommen da ja auch noch zusätzliche Kosten dazu. Z270 Board, 30-40€ für einen Kühler wenn man denn auch wirklich noch paar MHz rausholen will. Dafür bekomm ich dann auch schon einen i5 mit b250 Board, der wohl für 95% die bessere Wahl ist.
 
nebulein schrieb:
... Entpackt ihr wirklich gleichzeitig mit Winrar Dateien und encodet einen Film? Würde mich mal interessieren ob sowas wirklich praxisrelevante Szenarien sind.

WinRAR eher seltenst, aber nebenbei Zocken und Videos encoden stellt bei mir den Alltag dar.
Aber dafür ist mein System auch gedacht und gebaut.
 
@nebulein: anders als in "sterilen" benchmarktests kommt es in der praxis durchaus vor, dass man neben dem spiel noch andere anwendungen mitlaufen lässt. seis teamspeak, antivirensoftware, den browser, ect. pp. multicore hat schon so seine vorteile. hab mal irgendwo nen test dazu gesehen, wo diverse cpus vom i3 über i5, X6, FX6, i7 bis FX8 verglichen wurden und man mal mit und mal ohne zusätzliche anwendungen gebencht hatte. da hing der i3 ziemlich schnell in der uhr weil seine beiden kerne mit zu vielen aufgaben ausgelastet waren. je mehr threads der cpu zur verfügung standen, des so später kam der einbruch.
es ist halt immer ne frage was man will und was man sich leisten kann, aber grundsätzlich ist ein teurerer mehrkerner schon besser wenn er im budget liegt und vor allem wenn die ansprüche hoch sind. bei niedrigen ansprüchen tuts auch der i3 vollkommen, aber er ist halt nicht gleichgut.
 
nebulein schrieb:
Trotzdem irgendwie ernüchternd das er overall immer noch im Jahre 2017 einigermaßen gut mit den 4 Kernern mithalten kann, besonders wenn man jetzt mal nur den Bereich Gaming betrachtet und die Übertaktbarkeit. Wirklich abgestunken ist er bei Szenarien, wo ich mich frage ob die in der Praxis jemand so hat? Entpackt ihr wirklich gleichzeitig mit Winrar Dateien und encodet einen Film? Würde mich mal interessieren ob sowas wirklich praxisrelevante Szenarien sind.

ich mach sowas auch ...Film encoden und nebenbei am Rechner Winamp laufen lassen..dann noch offener Browser..dann downloaden..,Skype usw...dann noch Totalcommander nebenbei laufen lassen und Daten auf externe Platten kopieren..und das alles mit meinen (alten) i3 :D
 
Coca_Cola schrieb:
Interessant zu sehen das ein i3 immernoch recht gut mitspielen kann, obwohl ja viele Hater schon bei der 1.Generation (i3 5xx) gesagt haben das dieser nicht reicht und für die Zukunft nicht geeignet ist.
Bei dem satten Preis kann man aber gleich zu nem i5 greifen.

Das stimmt ja auch.
Ein alter i5 5xx Dual Core reicht auch heute nicht mehr, außer für einfachstes Office. Spiel mal BFBC2 mit dem... Macht kein Spaß.

Zudem war damals die Situation anders. Ein i5 750 hatte recht wenig Takt und die i7 waren sehr teuer. Mit Sandy Bridge hat sich das dann geändert.
 
berkeley schrieb:
5,1 Ghz bei 1,44v und vermutlichen 90°... Wie praxisrelevant ist denn das?
Eigentlich genau so wenig wie die i3 CPU selbst (2 Kerne:lol:)... zu diesem Preis...

Oder ist das eher eine "Machbarkeitsstudie" gegen ältere K CPUs ohne OC?

Sinnvolles Übertakten wäre das Belassen auf 5,0 Ghz bei rund 10°C weniger gewesen. 100 Mhz durch +10°C und höhere Spannung erkauft, autsch...
 
D708 schrieb:
........
@Baal Netbeck
Ich finde den Ansatz richtig und er spiegelt zumindestens auch meine Bedenken wieder. Zumindestens würde ich mir wünschen, dass CB dazu Stellung bezieht.

Aber ich vermute, dass es ähnlich der Probleme CPU Benchmarks vs Games gelagert ist. Die Benchmarks sind besser zwecks Vergleichbarkeit, haben aber nicht mit der tatsächlichen Leistung in einem Game gemeinsam. Wissenschaftliche Vergleiche sind es nur, solange nur eine Komponente getauscht wird und der Rest gleich bleibt.
Bleibt das Problem mit der Aussage, Witcher 3 Profitiert nicht von besseren CPUs...
Danke für die Unterstützung. Der Vergleich mit einem Benchmark ist gut gewählt. Da es in einem CPU Test Artikel schon vor Benchmarks wimmelt wäre es zu begrüßen, bei den Spielen praxisrelevantere Szenarien zu wählen. Oder zumindest nicht noch extra im Text zu sagen, dass die CPU irrelevant wäre.
 
D708 schrieb:
...
Bleibt das Problem mit der Aussage, Witcher 3 Profitiert nicht von besseren CPUs...
Natürlich profitiert Witcher 3 von "besseren" CPUs. Aber vor allem beim Takt. Und den hat der i3 ja wohl. Es sind aber 2016 eine Reihe Spiele erschienen, die viel stärker als Witcher 3 mit den Kernen skalieren.
Man muss sich nur die entsprechenden Spiele heraussuchen und eine in schwindelerregende Höhen getaktete 2K/4T CPU wird zum Frames-Monster.

Und ich bleibe dabei. Um hier einen echten Trend zu weniger Kernen in aktuellen PC-Spielen zu erkennen, fehlt mir die Grundlage. Dieser Test ist einfach nicht ausreichend, um sinvolle Schlüsse daraus zu ziehen.
 
Zuletzt bearbeitet:
deo schrieb:
Die CPU ist für Anwendungen und Spiele von Gestern.

So ist es. Wem damals die Leistung gefehtl hat, bekommt sie jetzt.
Ich denke, dass der Preis noch fallen wird. Erst dann, wird die CPU gekauft werden (Zweit-PC...).
 
Die richtige CPU für Minecraft / FTB ist das!
Ich würde den nächsten Rechner direkt auf Core I3 aufbauen.
Das Setup wäre dann: I3-7350K@5Ghz, 16GB RAM, Geforce 1060, SSD, Wakü mit 1x120mm Radiator
 
neofelis schrieb:
Natürlich profitiert Witcher 3 von "besseren" CPUs. Aber vor allem beim Takt. Und den hat der i3 ja wohl. Es sind aber 2016 eine Reihe Spiele erschienen, die viel stärker als Witcher 3 mit den Kernen skalieren.
Das mit dem Takt sehe ich nicht so. Natürlich ist Takt nie verkehrt und bringt viele fps. Aber bei The Witcher 3 habe ich das Gefühl, dass es vor allem Ram Zugriffe oder sowas sind, die in Dörfern und Städten ein hackeliges Spielgefühl machen. Wie in meine Post #64 geschrieben ist die Problematik mit viel weniger Takt aber dafür HT(Notebook) weniger ausgeprägt als hoher Takt ohne HT. Und dieser Test:
http://www.eurogamer.net/articles/d...it-finally-time-to-upgrade-your-core-i5-2500k
zeigt auch eine gute Skallierung mit schnellerem Ram. Meinem Verständnis nach hilft HT hier den Ramzugriff schon einzuleiten bevor die Daten benötigt werden. Natürlich hilft viel Singlecoreleistung bei einer schnelleren Verarbeitung, aber mehr Kerne oder HT sind für das Spielgefühl bedeutender.
 
Simanova schrieb:
Die richtige CPU für Minecraft / FTB ist das!
Ich würde den nächsten Rechner direkt auf Core I3 aufbauen.
Das Setup wäre dann: I3-7350K@5Ghz, 16GB RAM, Geforce 1060, SSD, Wakü mit 1x120mm Radiator
Hm ich hatte jetzt nicht das Gefühl das ich bei FTB mit meiner CPU im Limit hänge. Mit der Fury statt ner 390 habe ich auch zusätzliche FPS rausgeholt. Mir sind vorallem die FPS abgeschmiert als ich auf einem Externen Server mit Freunden gespielt habe. Singleplayer 120FPS, gleiche Map auf dem Server 40FPS. Dazu lief der Server, nen dicker E5 auch nicht im Limit(SingleCore versteht sich)
Ich glaube, Java Gelumpe macht mehr Probleme als ein hochgezüchteter I3 ausgleichen könnte.
 
Kein ECC mehr bei den Einstiegsprozessoren...

Nun, nicht unbedingt erfreulich. Gerade im Kleinunternehmen wird gern auf Celerons und Pentium in Servern für AD und File gesetzt.


Ich hatte eigentlich mal die Hoffnung das weniger Speed aber dafür vielleicht mal ECC non-reg verpflichtend wird für Client...
 
D708 schrieb:
Der L4 Cache hat es einfach raus. Die Broadwell Desktop CPUs sind mit Edram gekommen(eigentlich als VRAM für die APU) aber die CPU kann diesen als L4 Cache adressieren. Muss also nicht deutlich weniger mit dem "langsamen" Arbeitsspeicher kommunizieren. Das führt zu einer wahren Beschleunigung.
Intel hats gemerkt und drauf den "L4" Cache aus dem Desktop verbannt.
Tatsächlich, ist mir beim Vergleich entgangen, da in der Specs-Liste der L4-Cache nicht hinter'm L3-Cache stand. Aber Broadwell mit Iris Pro iGPU scheint tatsächlich die einzige CPU-Generation zu sein, die jemals L4-Cache hatte. Schade, dass Intel den wieder rausgenommen hat, war vermutlich zu Preis-ineffizient. Bis zu den Ryzen-APUs dauert's ja noch, solange nicht mal die normalen Ryzen releast wurden kann man da vieles erwarten.

@Topic:
Wenn der i3 noch ein bisschen billiger wird sehe ich gar so schwarz für den wie manch anderer hier. Denn dann gliedert er sich gut in das Intel-Produktsortiment ein, nimmt einen bis dato leeren Platz ein und ist somit auch kaufenswert. Ich muss allerdings schon zugeben: Bei den jetzigen Preisen wäre er wohl nur in seltenen Fällen interessant, das gilt m.E. aber aktuell für alle i3 CPUs (besonders in Anbetracht des neuen Pentiums): Der 7100 sollte 100€ kosten, der 7300 120€, der 7320 140€ und der neue 7350K 160€. Dann käme der i5 6400 für seine 180€. Nun noch die beiden teureren Pentium G (90 und 100€) 15-20€ billiger und man hätte vom Pentium bis zum i5 schon mal ein rundes Angebot.
 
Grundkurs schrieb:
der neuste i7 ist gerade mal 25 % schneller als mein 5 Jahre alter i5-2500K...traurig.

Stimmt ja nicht. Leistungszuwachs oft 40-50% oder mehr gegenüber dem i5-2500K, je nach Spiel. Und die Minimum FPS sind mittlerweile auch deutlich höher als beim 2500K, bis zu 80%.
Ergänzung ()

Brötchenesser schrieb:
Film encoden und nebenbei am Rechner Winamp laufen lassen..dann noch offener Browser..dann downloaden..,Skype usw...dann noch Totalcommander nebenbei laufen lassen und Daten auf externe Platten kopieren..und das alles mit meinen (alten) i3

Kann man alles mit einem uralten AMD X2 4200+ ebenfalls, ob so etwas (zeitlich) sinnvoll ist, ist eine andere Sache ;-)
 
Beitrag schrieb:
Tatsächlich, ist mir beim Vergleich entgangen, da in der Specs-Liste der L4-Cache nicht hinter'm L3-Cache stand.
Naja ist auch richtig. Es gibt keine CPU im x86 Markt mit L4 Cache. Der Edram der Broadwell Mainstreamer kann nur als solche angesprochen werden. Der eigentlich Sinn des Edram war es eine Leistungsvorsprung vor den AMD APUs zu kreieren. Im Benchmark hat der Broadwell die APUs von AMD vernichtet, trotz deutlich weniger Shadern.
Intel hats aber anscheinend nicht vernünftig hinbekommen, dass der EDram vernünftig mit dem Arbeitsspeicher harmoniert(auf GPU Seite) dadurch gab es ne Menge Grafiktreiberprobleme.
 
Ich weiß nicht, ob ich irgendwas wichtiges in Richtung Benchmarks verpasst habe, aber wieso werden die ganzen Tabellen nur in Prozent angegeben?

10% mehr kann 10 Sekunden oder 100 Sekunden geringere Rechendauer bedeuten, Beispielhaft.
 
Tuetensuppe schrieb:
Stimmt ja nicht. Leistungszuwachs oft 40-50% oder mehr gegenüber dem i5-2500K, je nach Spiel. Und die Minimum FPS sind mittlerweile auch deutlich höher als beim 2500K, bis zu 80%.

Ich weiß zwar jetzt nicht, woher deine Zahlen stammen, ich habe aber dennoch ebenfalls das Gefühl, dass die Leute die möglichen Leistungszuwächse mit neueren CPUs (und natürlich variieren diese, je nach Anwendungsfall) tendenziell stark unterschätzen. Klar, der i5 2500K war eine tolle CPU und mit OC ist sie, vom veralteten Feature-Set der Plattform abgesehen, wohl noch immer solide Mittelklasse. Auch ist es sicher wahr, dass kein einzelner Architektur-Wechsel jemals wieder einen so großen Leistungssprung gebracht hat wie der auf Sandy Bridge.

Dennoch, es hat Fortschritte gegeben. Neue Befehlssätze, höhere IPC, bessere Effizienz etc. Ich habe meinen Sandy Bridge-Rechner geliebt, aber man kann nicht behaupten, dass diese Plattform ihr Alter nicht an manchen Stellen zeigt, selbst, wenn sie sich sicher historisch gut gehalten hat.
 
bensel32 schrieb:
Langsam sollte man aber mal auf aktuelle Software zurück greifen
und außerdem (er)klären, ob das hier
Übertaktet wirkt sich die deutlich ansteigende Leistungsaufnahme auf die Temperatur aus.
Schnell werden dann über 90 Grad erreicht, die Kühlung ist gefordert. Und in diesem Fall kam
bereits eine All-in-One-Wasserkühlung zum Einsatz.
am AVX Bug (Multi =0) liegt oder wirklich nur am OC. Oder hab ich das im Test überlesen?

Obgleich die Werte für die reine Leistung auf den ersten Blick schockierend aussehen für
jemand der eine i7 CPU ums doppelte Geld kauft, aber wenn ich mir Temperatur und den
Stroomverbrauch in Relation zur Leistung sehe, bin ich trotzdem sicher, dass sich die 50€
Aufpreis für meinen 7600 doch gelohnt haben, zumal ich kein Extra Geld für einen dicken
Kühler abzweigen muss. Spätestens dann rechnet sich der i3 nämlich nicht mehr. Von der
zusätzlichen Abwärme und extra Stromkosten mal ganz abgesehen.
 
Lübke schrieb:
@nebulein: anders als in "sterilen" benchmarktests kommt es in der praxis durchaus vor, dass man neben dem spiel noch andere anwendungen mitlaufen lässt. seis teamspeak, antivirensoftware, den browser, ect. pp. multicore hat schon so seine vorteile. hab mal irgendwo nen test dazu gesehen, wo diverse cpus vom i3 über i5, X6, FX6, i7 bis FX8 verglichen wurden und man mal mit und mal ohne zusätzliche anwendungen gebencht hatte. da hing der i3 ziemlich schnell in der uhr weil seine beiden kerne mit zu vielen aufgaben ausgelastet waren. je mehr threads der cpu zur verfügung standen, des so später kam der einbruch.
es ist halt immer ne frage was man will und was man sich leisten kann, aber grundsätzlich ist ein teurerer mehrkerner schon besser wenn er im budget liegt und vor allem wenn die ansprüche hoch sind. bei niedrigen ansprüchen tuts auch der i3 vollkommen, aber er ist halt nicht gleichgut.

@Lübke solche Anwendungen waren mir klar, aber die benötigen ja im Normalfall so gut wie keine CPU Last und höchstens bisschen Ram. Mir ging es wirklich darum wer nen Film encodet, gleichzeitig noch Winrar nutzt oder zockt. Ich denke das machen einfach die wenigsten, es sind halt extreme Szenarien, die in der Praxis kaum vorkommen und darum ging es mir nur.

Die Frage ist auch wann ist ein 2 Kerner bei dem Test eingeknickt, wann ein 4 Kerner, sprich wie viele Browser tabs mussten z.B. dafür geöffnet werden. Wenn der dann 40 Tabs oder sowas auf hat und dazu noch 20 Programme am laufen, tja dann is das vielleicht auch nicht das surfverhalten eines normalen Nutzers.

Ich selbst würde mir jetzt auch keinen 2 Kerner mehr einbauen, hab ja wie gesagt schon 2011 auf den I7 2600k gewechselt. Nur hatte ich auf der Arbeit lange einen I3 und selbst mit diversen Grafikprogrammen, Browsertabs etc. ging der nicht in die Knie und das war ein Haswell I3.
 
Zurück
Oben