Test CPU-Aufrüsten: Sandy Bridge bis Coffee Lake mit Overclocking im Vergleich

Hito360 schrieb:
so un nun bitte alle AMD-Kontrahenten dem Test hinzufügen - oszusagen als krönenden Abschluss 2017 oder heissen Start in 2018

Da ist halt der Ryzen 1800X max. auf Niveau eines 6700K. Rest kann man sich denken....
 
Kurze Frage zu dem Veracrypt Benchmark. Die Einheit der Angaben ist Mb/s und einer der Werte z.B. 12.800. Das hieße ja 12.800 Mb/s de/encrypten, oder? Also 12,5 Gb/s. Was mir recht viel vorkommt.
Ich wollte mein System eigentlich immer schon komplett verschlüsseln, hatte aber Angst vor zu großen Geschwindigkeitseinbußen. Aber bei den Werten sollte das doch nicht viel ausmachen, oder?
 
Ich bin zunächst mal dankbar für diesen umfangreichen Test, das ist echt klasse mal sämtliche CPU-Generationen im Quervergleich mit aktuellen Spielen und Anwendungen zu sehen.

Mich würde aber wie einige andere auch interessieren, ob die CPUs sich bei gleichen Taktraten und Threads groß unterscheiden, gerade in Spielen und Anwendungen, die nicht unbedingt die neuen Befehlssätze beherrschen. Also vielleicht nicht alle, aber vllt. den ältesten (2600k) vs neuesten (8700k) @4Ghz/4C/8T und möglichst ähnlichen RAM-settings wäre sehr interessant.

Davon abgesehen finde ich, dass jeder selbst abwägen muss ob und ab wann er aufrüsten muss. Spielt man keine/wenige aktuelle Spiele oder knallt alle Regler auf Anschlag, wird sich ne stärkere CPU nicht so stark bemerkbar machen. Wer top Frametimes und viele FPS will, kauft sich halt schon eher ne neue Plattform mit schnellem RAM.
 
immortuos schrieb:
Die Leistungsaufnahme des 8700k @5 GHz im Vergleich zum 7700k @4,8 GHz ist jenseits von Gut und Böse.

Milchmädchenrechnung:

7700K 190Watt / 8 = 23,75Watt pro Thread geteilt durch 4,8GHz = 4,95
8700K 290Watt / 12 = 24,16Watt pro Thread geteilt durch 5,0 GHz = 4,83
 
ro///M3o schrieb:
@CB:

wie ich bereits vorher schon angeboten habe, würde ich meinen I7 5775C für weitere Tests zur Verfügung stellen.
Der EDRAM wäre in dieser CPU sehr interessant. Vor allem in Spiele und somit wäre auch der Test mit einem Broadwell komplett. Dann passt das auch mit der Überschrift "CPU-Aufrüsten: Sandy Bridge bis Coffee Lake" :).

oldmanhunting schrieb:
Finde ich Klasse von Euch diesen Vergleichstest der Intel i7 CPU's auszubauen! Fehlt eigentlich nur noch der 3770K oder habe ich etwas vergessen?

Vote ++++

Gerade weil auch der 3770k PCIE3.0 unterstützt, das wird zwar nicht viel ausmachen, aber möglicherweise bei den Frametimes.

@CB: Die zwei CPUs könntet ihr doch noch nachreichen. Damit wären alle Generationen vertreten.
 
Schön zu sehen das OC des i7 8700K ziemlich fürn Arsch ist, minimale Leistungssteigerung bei maximalen Verbrauch.
 
DerBaya schrieb:
Milchmädchenrechnung:

7700K 190Watt / 8 = 23,75Watt pro Thread geteilt durch 4,8GHz = 4,95
8700K 290Watt / 12 = 24,16Watt pro Thread geteilt durch 5,0 GHz = 4,83

Gratuliere. Du bist nun der König der Milchmädchenrechnung.

Ryzen 1600X 258W
Ryzen 1700X 271W

Laut deiner super Berechnung müsste der 1700X aber 344W max. benötigen. :D
Was nun?

Der 8700K ist und bleibt eine TDP-Mogelpackung. Der holt die Leistung auch nicht aus Luft und Liebe.
 
Vanilla2001 schrieb:
Vote ++++

Gerade weil auch der 3770k PCIE3.0 unterstützt, das wird zwar nicht viel ausmachen, aber möglicherweise bei den Frametimes.

@CB: Die zwei CPUs könntet ihr doch noch nachreichen. Damit wären alle Generationen vertreten.

Warum der Ivy nicht gebenched wurde, ist mir ein Rätsel.

CB erklärt das folgendermaßen:

....während Ivy Bridge im Jahre 2012 nur die Sandy-Bridge-Architektur von 32 nm auf 22 nm schrumpfen ließ, ohne dabei eine erhöhte Leistung abzuliefern – die Energieaufnahme stand seinerzeit im Fokus, gleichzeitig wurde die Ausstattung und Anschlussvielfalt der Plattform ausgebaut (PCIe 3.0 und USB 3).

Ich wusste zB. nicht dass Ivy Bridge erst PCIe 3 fähig ist.

Umso interessanter wären da die Frametimes.

Schließlich sind die Stockwerte zwischen einem Sandy und Haswell im Average auf den Takt zurückzuführen (~15%)
Der Unterschied in den Frametimes hingegen in UHD aber plötzlich 40 % Unterschied bei der Percentile????

Da limitiert definitiv das Interface vom PCI Anschluss.

Beim Ivy würde man wahrscheinlich 20% bessere Frametimes gegenüber einem Sandy sehen.... aber so werden wir das nie erfahren... Wenn sich die Redaktion zu so etwas nicht äußert.
Früher hätte man so etwas prinzipiell der Vollständigkeit halber in den Artikel eingebracht.

So macht es den Eindruck, dass Ivy Besitzer auch aufrüsten sollen, weil es nur ein Sandy Shrink ist.. und Sandy ja jetzt schon schlechte Frametimes ohne OC in 4K hat.
 
Zuletzt bearbeitet:
Schöner Test, sehe aber keinen Grund, meinen 4770k @ 4,2 und DDR3 2400er RAM zu tauschen, spiele in 3440x1440. Nächstes Jahr hole ich lieber eine neue Ampere GPU. Ryzen durfte sich irgendwo zwischen Haswell und Skylake einpendeln, zumindest @ 3,8 und DDR4 3000er.
 
MartinFerber schrieb:
wer braucht schon 1440p und 140fps, das ist doch nix weiter als Rekordjagd. 1080p und >30FPS reichen zum spielen völlig aus... alles nur theoretische Werte; meine 3570k und eine Gtx 980 reichen völlig. Klar, die 8700 ist schneller, effizienter... aber was hab ich denn davon? Ivy liefert genug Leistung, ein neues System aufzusetzen ist schlicht zu teuer, solange das alte noch ausreichend leistet.

ich spiel derzeit viel quake champions, da sind wenig fps unspielbar. (man sieht und merkt den unterschied beim input)
dort sind 140-200fps an der tagesordnung, unter 100/120fps möchte ich ungern spielen.
 
Danke CB, genau das hatte ich vermutet. Übertaktet (wofür die "K's" ja vorgesehen sind) sieht es schon wieder ganz anders aus. Solange Spiele nicht von 6 oder mehr Kernen profitieren, würde ich in dem Fall auch nicht aufrüsten (wenns nur ums Spielen geht).
In Anwedungen 100% mehr Leistung mit 50% mehr Kernen ist aber schon nicht schlecht.

MartinFerber schrieb:
1080p und >30FPS reichen zum spielen völlig aus... alles nur theoretische Werte...

Ich kann es auch immer nicht nachvollziehen. Hab neulich gelesen "Das "geschulte" Auge eines Gamers ist dazu in der Lage".
Ich spiele jetzt 20 Jahre lang alles mögliche und habe nie mehr wie 30 FPS gebraucht. Entweder sehen die, die das behaupten mehr Bilder/Sekunde, oder es ist Einbildung.
 
Zuletzt bearbeitet von einem Moderator:
Sly123 schrieb:
Gratuliere. Du bist nun der König der Milchmädchenrechnung.

Ryzen 1600X 258W
Ryzen 1700X 271W

Laut deiner super Berechnung müsste der 1700X aber 344W max. benötigen. :D
Was nun?

Ryzen 1600X 258Watt / 12 = 21,5W pro Thread durch 3,6GHz = 5,97
Ryzen 1700X 271Watt / 16 = 16,94W pro Thread durch 3,4GHz = 4,98

Wo ist dein Problem? Wie kommst du auf 344W?

Es ging darum, die Aussage zu wiederlegen, dass der 8700K@5,0GHz ja soooo viel mehr Leistung braucht als der 7700K@4,8GHz. Und das hab ich damit. Bezogen auf Kerne / Threads und den Takt, steht er sogar besser da.

Sly123 schrieb:
Der 8700K ist und bleibt eine TDP-Mogelpackung. Der holt die Leistung auch nicht aus Luft und Liebe.

Was hat die TDP mit der Leistungsaufnahme zu tun?
 
Zuletzt bearbeitet:
CS74ES schrieb:
Ich kann es auch immer nicht nachvollziehen. Hab neulich gelesen "Das "geschulte" Auge eines Gamers ist dazu in der Lage".
Ich spiele jetzt 20 Jahre lang alles mögliche und habe nie mehr wie 30 FPS gebraucht. Entweder sehen die, die das behaupten mehr Bilder/Sekunde, oder es ist Einbildung.

Du siehst weniger als die anderen ;)

Wenn du nicht mehr als 30fps benötigt hast, hattest du vielleicht auch nie mehr als 30fps.
Ergo kannst du nichts empfehlen was du nicht besser kennst....
 
Viele Nutzer mögen derzeit evtl eine Intel-CPU besitzen und womöglich auch aufrüstwillig sein...
Aber wer sagt, denn dass man 2018 bei Intel bleiben muss... ich finde es schade, dass in der Übersicht der eine oder andere RYZEN fehlt...
;)
 
Unlimited1980 schrieb:
Viele Nutzer mögen derzeit evtl eine Intel-CPU besitzen und womöglich auch aufrüstwillig sein...
Aber wer sagt, denn dass man 2018 bei Intel bleiben muss... ich finde es schade, dass in der Übersicht der eine oder andere RYZEN fehlt...
;)

Und inwiefern soll da ein Ryzen, der in den Benches ganz unten steht, was ändern?
Die Benches bestätigen eine alte und immernoch gültige Aussage: Takt > Kerne.


(Hierbei gilt: Für den 08/15 User reicht selbst ein 6700k für alle Anwendungen super aus und ein Ryzen eignet sich auch für ein Budget Gaming System.)
 
DerBaya schrieb:
Es ging darum, die Aussage zu wiederlegen, dass der 8700K@5,0GHz ja soooo viel mehr Leistung braucht als der 7700K@4,8GHz. Und das hab ich damit. Bezogen auf Kerne / Threads und den Takt, steht er sogar besser da.

Nein tut er nicht, Prime kannst du dafür kaum als Maßstab nehmen, da drosselt alles bis auf Sandy.
Schau mal bei Anwendungslast, 62% mehr Leistungsaufnahme für 49% Mehrleistung.
 
tek9 schrieb:
Du siehst weniger als die anderen ;)

Wenn du nicht mehr als 30fps benötigt hast, hattest du vielleicht auch nie mehr als 30fps.
Ergo kannst du nichts empfehlen was du nicht besser kennst....

Lol, natürlich habe ich in vielen Spielen mehr als 30 FPS und mein Monitor hat 60 Hz, also müsste ich auch die berüchtigten "Microruckler" sehen, tue ich aber nicht.
Theoretisch müssten 30 Hz/FPS ruckelfrei sein, weil das normale Auge/Gehirn nicht mehr wie 24 Bilder/Sekunde wahrnimmt, genau wie man keine höheren Töne wie 20 KHz hört.
Vielleicht bist DU ja eine Fliege ;) Fliegen sollen 100 Bilder/Sekunde wahrnehmen können.
Wie mir scheint sind auch viele "anders", man müsste dazu mal eine Studie machen, warum die einen es sehen und die anderen nicht.
 
Zuletzt bearbeitet von einem Moderator:
CS74ES schrieb:
Ich kann es auch immer nicht nachvollziehen. Hab neulich gelesen "Das "geschulte" Auge eines Gamers ist dazu in der Lage".
Ich spiele jetzt 20 Jahre lang alles mögliche und habe nie mehr wie 30 FPS gebraucht. Entweder sehen die, die das behaupten mehr Bilder/Sekunde, oder es ist Einbildung.

Dann hast du noch nie mehr als 30 FPS in deinem Leben gehabt, ich empfinde unter 40 FPS als nicht spielbar, vlt. sind meine Augen und Hirn schneller in der Bildverarbeitung.
Bitte nicht als Beleidigung betrachten , ich kann nur deine Aussage absolut nicht aus meiner Sicht und meinem Empfinden nachvollziehen.
 
CS74ES schrieb:
Theoretisch müssten 30 Hz/FPS ruckelfrei sein, weil das normale Auge/Gehirn nicht mehr wie 24 Bilder/Sekunde wahrnimmt, genau wie man keine höheren Töne wie 20 KHz hört.

Die Aussage ist sowas von falsch... leider hält sie sich immer noch. Die 24 FPS sind das Minimum das man benötigt damit man es überhaupt als Bewegung und nicht als Einzelbilder erkennt. Es ist bei weitem aber nicht das Maximum was man mit dem Auge erkennen kann.
 
Zurück
Oben