Test Spielen in Ultra HD/4K im Test: High-End-GPUs sind Pflicht, schnelle CPUs aber auch

Heschel schrieb:
Abwarten. Wenn das Ding draußen ist und etwas optimiert wurde, dann kann man erst solche Aussagen treffen ;)
Aus dem verlinktem Test
Bildschirmfoto_2017-06-16_21-30-10.png
Und dann mit OC (was schon recht ordentlich ist für 10 Kerne)
Still, a stable 4.7GHz across 10 cores at 1.25V is an impressive feat and we suspect enthusiasts are going to enjoy tinkering on X299. Revealing how power thirsty the chip can be, the Core i9 platform pulled just over 350 watts from the wall with the overclock in action. Good news for cooler manufacturers.

Was sich zudem leider bewahrheitet hat, ist
Could frequencies go higher with more voltage? Probably, but putting 1.3V through the Core i9-7900X veins resulted in temperature soaring beyond 100ºC and automatic throttling. We swapped out our favoured Noctua NH-D15S in favour of an EVGA CLC 280 liquid cooler but even that couldn't cope with the increase in voltage.
 
Bamheadshot18 schrieb:
Toll wäre es auch, wenn der I7 nicht übertaktet getestet wird. Was soll das? Die anderen Prozessoren wurden auch unangetastet gelassen

Na damit auf Biegen und Brechen ja ein Intel CPU ganz Oben steht ;)

mfg
 
Ich muss jedoch sagen, dass der Test bei genauer Betrachtung eigentlich Schwachsinn ist. Es wird in einer hohen Auflösung getestet, wo die CPU ohnehin nur eine geringe Rolle spielt. Erwartungsgemäß kommen da Unterschiede zu Stande die unter Messtoleranz fallen. Super. :freak:
 
UND deshalb wird bei INTEL auch der RAM höher als offiziell getaktet und bei AMD nicht, oder was?! :freak:
 
@Ichotolot:

Du hast endlich den Sinn vom UHD Test verstanden, er soll zeigen welche CPU's dafür ausreichen und am besten geeignet sind 4k zu verwirklichen. Die AMD's haben durch mehr Kerne meist bessere Frametimes mit den gleichen GPU's.

Der R5 1600/x ist halt perfekt, mehr Kerne, bessere Frametimes, günstiger Preis, mehr Kohle die man in die GPU stecken kann.
 
IchoTolot schrieb:
Ich muss jedoch sagen, dass der Test bei genauer Betrachtung eigentlich Schwachsinn ist. Es wird in einer hohen Auflösung getestet, wo die CPU ohnehin nur eine geringe Rolle spielt. Erwartungsgemäß kommen da Unterschiede zu Stande die unter Messtoleranz fallen. Super. :freak:

Mit welcher Aufloesung soll man sonst UHD Testen - ausser mit UHD?
 
EchoeZ schrieb:
Und dann mit OC (was schon recht ordentlich ist für 10 Kerne)

Mit 4,7 GHz auf allen Kernen? Ist doch kein Wunder, dass dieser glüht und haufen Strom frisst. Außerdem hat dieser auch nur die Wärmeleitpaste unter der Haube. Keine Ahnung was Intel sich dabei gedacht hat.
 
Vielen Dank für diesen Test. Bin nun restlos von meinem neuen System überzeugt.

Grüsse
 
@IchoTolot

Hast du den Test gelesen? Wenn ja wüsstest du, warum CB diesen Test durchgeführt hat. Steht schließlich im Text.

Den Leuten hier kann man es nie recht machen. Testet CB die CPUs im CPU-Limit (wo man sie meiner Meinung nach auch testen sollte), kommen einige aus ihren Löchern gekrochen und meinen, dass es doch total schwachsinnig sei. Schließlich spiele niemand in solch niedrigen Auflösungen und man soll doch mal in UHD testen.
Also kommt CB dem Wunsch vieler User nach und bringt einen Test in UHD, schon meckern die anderen, wie sinnlos es doch sei.

@ComputerBase

Der Test ist sehr aufschlussreich. Vielen Dank für die Mühe! Ich freue mich schon sehr auf euren Test zu Skylake-X!
 
Wie wäre es mal mit 3440x1440 Benchmarks, sollten für Gamer doch relevanter als die 60Hz 4k Monitore sein.
 
Ich bin kein Fan des 99th Percentile.
Es sagt nichts über die wirklich blöden Drops aus, sondern nur ganz abstrakt über die Häufigkeit "nicht so guter Phasen".
Dabei gibt es keine wirkliche Aussage darüber, wie schlecht denn nun diese Phasen sind.
Richtige Worst-Cases wie harte Drops sind dabei nicht mehr aussagekräftig abgedeckt.
Ich würde schon gerne wissen, ob ein 8-Kerner z.B. mal wenigstens in ganz blöden Situationen in Richtung der 100% mehr FPS gegenüber einem 4-Kerner kommt.
Mit den maximal 29% mehr im 99th Percentile (BF1 1500X vs 1800X) kann ich nicht viel anfangen.
Was unterhalb der 99% passiert ist völlig offen. Stürzen vielleicht beide regelmäßig unter 30 FPS? Oder tuckern sie beide bei ihren ~45 bzw ~60 FPS umher?
Was sind schon 99%? Wenn man Sekunden als Maßstab nimmt, dann kann da von 100s Gameplay eine Sekunde ein komplettes Standbild sein und das 99th Percentile trotzdem bei 90 FPS stehen. Nimmt man eine realistischere Zeiteinheit wie vllt 100-200ms, dann kann ich nach dem 99th Percentile immer noch alle ~15 Sekunden ziemlich unangenehme Drops haben, die in dieser Angabe auch nicht zu sehen sind. Dennoch wären beide Rechenbeispiele richtig ätzende Verhältnisse zum Spielen.

Klar kann man anhand der Angabe grob schätzen, aber manche Dinge kriegt man auch einfach nicht geschätzt. Z.B können Framedrops von mir aus auch mal am RAM liegen. Da wäre ein 1800X vermutlich genauso schnell/langsam wie ein 1500X. Das kann auch wie oben erklärt alle paar Sekunden passieren, einem bei beiden CPUs das Spielerlebnis ruinieren, aber man selbst steht dann da und fragt sich, warum das denn trotz des guten 99th Percentile passiert. Genauso kann es sein, dass ein 1800X z.B. in sehr CPU-lastigen Momenten nicht unter 50 FPS bricht, ein 1500X es aber nur auf 25 FPS schafft. Aber woher soll ich das wissen, wenn diese Momente selten genug sind, dass das 99th Percentile sie nicht reflektiert?

Ich persönlich hätte gern wieder Min-FPS oder ein 99,9(9)th Percentile oder halt Frametime-Diagramme.
 
Zuletzt bearbeitet:
i5-3570k @ 4,1 ghz - mit 1080 ti -- lohnt sich das? was meint ihr?
 
Hopsekäse schrieb:
Ich bin kein Fan des 99th Percentile.
Wenn die Differenz zu den herkommlichen Durchschnitts-Fps groß ist, kommen diese 'Phasen' logischweise häufer vor. So einfach ist das.
Die Bedingungen des Tests und die Messungen sind für alle Testkandidaten gleich. Wenn dann eine Kandidat schlechter abschneidet als der Andere, ist das eben so ;)
Bei GPU Test gilt das gleiche. Wenn die überwiegende Anzahl der getesteten Spiele Gameworkstitel sind bei denen AMD schlechter abschneidet, muss man auch damit leben. Solange die Bedingungen und Testmethodik identisch sind, kann man nichts einwenden.
 
CHaos.Gentle schrieb:
Toll wäre, wenn man jetzt noch eine ältere CPU mit in den Test einbezogen hätte.

Einen uralten 2500k (ganz uneigennützig) z.B., um wirklich zu sehen, ob man für 4k eine neue CPU braucht oder nicht.

eben da werden nur die neuen cpus aufgelistet.. soll " heißen AMD Ryzen 5 1600X Intel Core i7-7700K am besten neu kaufen.. na und am besten noch gleich en 1080ti. da kann man super in 4k zocken.. lol. braucht wer??
High-End-GPUs sind Pflicht, schnelle CPUs aber auch :rolleyes: jaja die Leute werden somit in die richtung geschickt sich unbedingt neue hardware zu kaufen--zu müssen!!
 
Wo ist dein Problem? Man kann recht genau in anderen Tests ablesen wieviel schwächer ein i5 2500k gegenüber einem i5 7600k ist, ein i7 2600k gegenüber einem 7700k. Ein bisschen interpolieren und du kannst dir selbst denken wie das Ergebnis aussehen würde. Ein 2600k ist bei gleichem Takt knapp ~20% langsamer als ein 7700k. Wurde zuletzt jedenfalls in vielen Threads hier geschrieben.
 
ja und 15 Prozent schneller wird der coffee Lake haben auf den 7700k und 2018 kommt wieder ein neuer der wieder 12% schneller ist und dann kommt wieder einer.. der 16 % schneller ist.. und den brauch en euen cpu der dann Nanopixel befeuern kann. :)
 
Na du musst ja mal sehen wieviel Arbeit in so einem Benchmark steckt, da kann nicht jede CPU auf ewig berücksichtigt werden. Natürlich sieht man gerne die CPU's im Test die man selbst benutzt, aber Sandy Bridge hat halt auch ein gewisses Alter mittlerweile, da versucht man natürlich möglichst neue CPU's in den Test zu schieben.
 
Zurück
Oben