Test Fortnite, LOL, PUBG & Co.: Bis zu 26 Prozent schneller mit neuen Ryzen-2000-CPUs

Ja der IceLake wird in 10nm kommen, aber wie schon von Intel bestätigt, beginnt die Massenproduktion erst 2019 und wann 2019 (H1 oder H2) wollte man sich nicht festlegen, insoweit ist es durchaus wahrscheinlich, das ZEN 2 vorher gelauncht wird, laut AMD Roadmap, Anfang 2019.

Auch zu berücksichtigen ist, dass Intel einen mehrfach optimierten 14nm Prozess hat (14nm +++), insoweit wird der Sprung auf 10nm etwas kleiner ausfallen, als der von Ryzen auf 7nm und laut seriösen Quellen, sollen beide Prozesse (10nm Intel und 7nm GF) ziemlich auf Augenhöhe sein.
Insoweit spannende Zeiten, die uns erwarten und im Moment sieht es so aus, als wenn AMD mit ZEn2 einen Vorteil erlangen könnte!
Mehr Optimierungspotential an der sehr neuen Architektur plus 7nm Prozess früher fertig als der 10nm Prozess bei Intel.
 
Ich rede auch nicht vom Übertrag Spiel A auf Spiel B sondern von dem unentwegt vorkommenden Szenario, dass mir die FPS bei Programm XY nicht ausreichen, ich gerne mehr hätte, aber nicht weiss, was der limitierende Faktor ist (man nimmt grundsätzlich erstmal die Grafikkarte an).

Wenn ich einen 1080P Monitor habe und den mit 144Hz betreibe und dann kommt die neue Grafikkarte XY und ich steige auf einen 4K Bildschirm um, dann weiss ich, dass wenn die CPU die 144Hz auf dem 1080P Bildschirm gebracht hat, die Wahrscheinlichkeit sehr hoch ist, dass ich diese dann mit der neuen, deutlich leistungsfähigeren Grafikkarte auch in 4K erhalte (ein bißchen Schwund ist immer drin).

Genau da hilft dir aber der 720p Test auf einem völlig anderen System aber auch nur bedingt bis kaum weiter.

Das was bei HisN oder bei dir bei dem 720p Test als "CPU"-Limit bezeichnet wird hat eben leider IN DER REGEL nichts mit dem Limit der CPU zu tun...sondern ist meist einfach ein I/O, RAM, HDD, oder simpel, "Coding" limit....
Deswegen hat der 720p Test auch so wenig mehr Aussagekraft wie ein 1080p Test.

Betrachte es mal anders rum so wie es HisN darstellt....du testest nicht wie stark deine CPU ist damit - sondern du schaltest "nur" die GPU aus als Limitierenden Faktor. Was aber nun genau das Limit darstellt testest du weder mit 1080p noch mit 720p. Einzig und allein muss "sichergestellt" sein dass die GPU nicht annähernd im Limit ist in dem Testsetting. Heutzutage reicht es dazu mit 1080p zu testen (in der Regel) da eine 1080 Ti eben in 1080p schon ziemlich NICHT-limitierend ist.

Musst malt mal deine CPU-Last und GPU-Last mit loggen (wie bei GameGPU) und sehen was passiert CPU-seitig @720p und @1080p...wollen wir wetten dass die CPU-Last in beiden Fällen sich nicht merklich ändert ?
Nach deiner Theorie müsste doch aber die CPU deutlich ausgelasteter sein wenn du in 720p testest als in 1080p (mit einer top-GPU wie einer 1080 Ti). Ist es aber in der Regel nicht.

Und deswegen ist es ein Trugschluss dass du meinst mit 720p irgendeine Aussage über eine vermeintliche CPU-limitierung treffen zu können. Und noch viel trügerischer ist es daraus jedwede Prognose für irgendwas abzuleiten für die "Zukunft" oder gar zu verallgemeinern von Game A auf Game B etc.
 
@IBISXI :)

Danke genialer Test von CB:

Anno2205:

720p = 129.8 FPS
1080p = 125.7 FPS

JA hier sehe ich das 720p EINDEUTIG zeigt wieviel potential noch geht...1080p ist in seiner Aussagekraft völlig unbrauchbar...

BF1: 6900K mit 8C16T vor 6950X mit 10C20T...offenbar kann das game mit mehr als 16T nicht arbeiten bzw. hängt irgendwo anders fest.

denn 6900K hat 720p 143.8FPS und 1080p "nur" 136.5. Hat jetzt echt ein Riesen-Unterschied gemacht dass man 720p genommen hat.
Aber der 6950X liegt nur bei 129.6 bzw. 127.1 FPS in dem Fall....

Usw.

Danke IBISXI :)
 
Was bei Anno auch völlig logisch ist, geht extrem auf den Prozessor. Man setzt die Auflösung zum benchen eines Prozessors im Normalfall auf so niedrig wie es geht um den GPU Limit zu entkommen.

Sind wir erstmal bei einem 4k Standard mit leistungsfähigen Grafikkarten angekommen, reicht vermutlich Full HD generell um den Prozessor zu testen.
 
Was mir beim ersten link Ryzen Test auffällt, sind die hervorragenden Frametimes des 2700X.

Wo kommen die denn her?

Nach vorherrschender Meinung kann es ja nicht an Takt, IPC, oder Latenz liegen.
Ist ja bei Intel angeblich alles besser. (mit Blick auf 7700k und i5 8400)

Der 2600X hat schon schlechtere Frametimes, trotz mindestens so hoher Taktraten wie der 2700X.

Woher sonst, wenn nicht von mehr freien Ressourcen kommen denn die besseren Frametimes?

Man sieht auch bei manchen Spielen das der i5 8400 schon abzusacken beginnt.


Im zweiten Link aus 2017, sieht man das mehr Kerne sehr wohl jetzt schon Vorteile beim Gaming bringen.

Bei 4 zu 6 Kernen natürlich strärker als bei 6 zu 8 Kernen.

Intel Core i7-6900K (8/16)
v.s.
Intel Core i7-6850K (6/12)

Auch hier ist der 6900k vorne, trotz niedrigerem Werks - Turbotakt
 
Zuletzt bearbeitet:
@Ibisixi

Das sind Messtollerranzen.
Eine Mehr Kern CPU kann nur schneller sein, wenn auch mehr Kerne unterstützt werden, das ist eine technische Gewissheit.

Mit den Frametimes müsset noch untersucht werden, möglichweise hat es was mit der API zu tun ...
 
Sein Video zeigt schön was ich auch beobachtet habe.
https://www.youtube.com/watch?v=PHBsR1Y68G8

Hat man schon einen ausgereizten Ryzen1700-1800X mit 3466CL14, bringt der 2700X mit 3466CL14 kaum einen Leistungszugewinn.
Hier kommt noch hinzu dass nicht jeder 2700X 4,2 Ghz schafft. Auch ist 3466CL14 nicht garantiert.

Fazit. Wer bei Ryzen 1 nen guten Chip erwischt hat, sollte sich nicht auf sein Glück mit Ryzen+ verlassen :-D
 
Iscaran schrieb:
Das was bei HisN oder bei dir bei dem 720p Test als "CPU"-Limit bezeichnet wird hat eben leider IN DER REGEL nichts mit dem Limit der CPU zu tun...sondern ist meist einfach ein I/O, RAM, HDD, oder simpel, "Coding" limit....
Deswegen hat der 720p Test auch so wenig mehr Aussagekraft wie ein 1080p Test.

Wie oft muss ich denn noch sagen, dass der Test mit 720P nur den Faktor GPU mit einer größeren Sicherheit aus dem Spiel nimmt, als mit 1080P?
Du schreibst genau das gleiche wie ich, offenbar sind wir uns einig..

Und Ihr bringt das Beispiel dafür selbst:

Anno2205:

720p = 129.8 FPS
1080p = 125.7 FPS

In 720P sehe ich das Potenzial und kann damit auf die höhere Auflösung umrechnen. Sie kann in 1080P also maximal nur annähernd so schnell wie bei 720P sein. Alle Beispiele auch Battlefield 1 belegen dies zusätzlich. Und das gerade ist der Sinn dieses Tests.

@Pisaro
Genau so sieht es aus...

@IBISXI
Dein erster Link bestätigt mich wieder. Die CPU mit 6 Threads liegt hier gleich auf mit der CPU mit 16 Threads. Mehr Kerne/Threads automatisch bessere Frametimes ist also schon einmal nicht zutreffend.

Auch der zweite Link bestätigt nur eine extrem schlechte Skalierung zu mehr Kernen hin, obwohl betont wird, dass man den Test mit neuen Multicore- Ausnutzenden Spielen macht.

Der Grenznutzen sinkt mit der Anzahl der Kerne....

Betrachte es mal anders rum so wie es HisN darstellt....du testest nicht wie stark deine CPU ist damit - sondern du schaltest "nur" die GPU aus als Limitierenden Faktor.
Das schreibe ich die ganze Zeit.

Was aber nun genau das Limit darstellt testest du weder mit 1080p noch mit 720p. Einzig und allein muss "sichergestellt" sein dass die GPU nicht annähernd im Limit ist in dem Testsetting.
Genau- Man testet das gesamte System/die Plattform und nicht nur die CPU, stellt aber sicher, dass die GPU als Störfaktor nicht reinfunkt.

Heutzutage reicht es dazu mit 1080p zu testen (in der Regel) da eine 1080 Ti eben in 1080p schon ziemlich NICHT-limitierend ist.
Das bezweifle ich, weil die Grafikakrtenleistung vornehmlich weniger durch große Auflösung als durch Shadercode und Postprocessing beansprucht wird.

Musst malt mal deine CPU-Last und GPU-Last mit loggen (wie bei GameGPU) und sehen was passiert CPU-seitig @720p und @1080p...wollen wir wetten dass die CPU-Last in beiden Fällen sich nicht merklich ändert ?
Genau- Mach das mal... Du wirst feststellen, dass die CPU in aller Regel bei 720P mit steigender Framezahl (bei gleichbleibenden Quality- Settings) im Renderthread stärker ausgelastet wird, weil die Framezahl und dadurch die Drawcallast auf den Renderthread steigt.
Und meist limitiert dann eben dieser! Die anderen Threads können durch das Limit nicht schneller, auch wenn man 100 davon hätte.

Also nicht auf irgendwelche Durchschnittswerte einer 16 Thread CPU schauen.

Nach deiner Theorie müsste doch aber die CPU deutlich ausgelasteter sein wenn du in 720p testest als in 1080p (mit einer top-GPU wie einer 1080 Ti). Ist es aber in der Regel nicht.
Doch- Der Renderthread eben schon.

für die "Zukunft" oder gar zu verallgemeinern von Game A auf Game B etc.
Wie oft denn noch- Ich vergleiche nicht Game A und B. Sondern Game A mit Game A mit der Absicht mehr FPS durch Grafikkartenaufrüstung rauszuholen.
Diesbezüglich lässt sich dann eben auch auf die Zukunft schließen bzw. das Verhalten, dass das System voraussichtlich nach Aufrüstung bei dieser einen zu bewertenden Software XY zeigen wird.

Grüße
Zero
 
Zuletzt bearbeitet:
Anno2205:

720p = 129.8 FPS
1080p = 125.7 FPS
In 720P sehe ich das Potenzial und kann damit auf die höhere Auflösung umrechnen

Wegen 4 FPS Differenz (das sind gerade mal 3%) - was gut in gerne beinahe in der Messtoleranz bei solchen Tests verschwindet machst du ein Fass auf und redest davon dass man mit 720p DEUTLICH mehr sieht als mit 1080p.

Und das ist schon DIE TOP CPU die nur 4FPS Toleranz hat...wie oft den noch du misst Ausschliesslich die Abwesenheit des GPU-Limits, aber nicht ob es ein CPU-Limit ist.
Dieses Limit dass du hier siehst kann von allem möglichen herrühren. Vermutlich am ehesten aus der Software und der API selbst...DX9-11 haben eben ein ziemlich deutliches DrawCall Limit was im wesentlichen mit der Geschwindigkeit und der Latenz des RAMs korreliert und nicht wirklich mit dem DURCHSATZ und der Leistung der CPU selbst.

Was glaubst du warum die low-latency Intel Ringbus-Architektur so stark in dem Fall abschneidet. Und warum auch die Intel Arch eine messbare Steigerung in low-Res tests hat wenn man den RAM-Takt und vor allem die Latenz senkt...

Aber die CPU wird kaum 1% mehr belastet !
Genau das zeigen die Tests.

Wenn du es verstanden hättest dann hättest du als Beleg dafür dass ein 720p Test deutliche Differenzen zeigen kann auch gemerkt dass dies z.B. für andere Games aus dem Test eher gilt als für genau die 2 Beispiele die ich ausgewählt hatte.

sieh dir AoTS an...720p >100FPS 1080p fast 15% weniger (ca 88FPS)...
JA DA sieht man ein "bisschen" das die CPU mehr liefert da weniger belastet @720p.

Bei Anno sieht man das nicht ! Und das hast du immer noch nicht kapiert und bringst es als Beleg dafür dass du recht hast.

LOL.
 
@Iscaran
Achgott-Ich glaube jetzt rieche ich den Braten. Es geht um Begrifflichkeiten.
Gut- Es ist nicht in allen Fällen ein CPU Limit, sondern ein Systemlimit.

Wobei ich das allerdings auch oben immer wieder betont habe, dass nicht die CPU allein die Musik macht.

Dann reden wir halt vom Potenzial einer Gesamtarchitektur, was in der Praxis aufgrund festgelegter Leistungswerte, Taktzahlen der Peripherie in der Praxis zu vernachlässigen ist.

sieh dir AoTS an...720p >100FPS 1080p fast 15% weniger (ca 88FPS)...
JA DA sieht man ein "bisschen" das die CPU mehr liefert da weniger belastet @720p.

Eine im bei 720P im Systemlimit operierende CPU wird in 1080P keine höheren Framezahlen erbringen können.
Somit kann ich durch die FPS Begrenzung auf 720p darauf schließen, dass egal welche Grafikkarte ich nachrüste bei 1080P nicht mehr FPS erreicht werden, als unter 720P.

DX9-11 haben eben ein ziemlich deutliches DrawCall Limit was im wesentlichen mit der Geschwindigkeit und der Latenz des RAMs korreliert und nicht wirklich mit dem DURCHSATZ und der Leistung der CPU selbst.
Das ist so nicht ganz richtig- Du läufst auch bei Erhöhung des RAM- Takts und des Ringbus- Takts irgendwann in einer Wall, die Du nur wieder auflösen kannst, wenn Du den CPU Takt erhöhst. Drawcalls kosten massiv Rechenzeit. Zudem ist der CPU Takt mit mit dem L1 und dem L2 Cache gekoppelt, der sonst irgendwann nicht mehr schnell genug gefüllt wird. Dann ists wieder Essig mit den Drawcall- Werten...

Meine Erkenntnisse und Erfahrung in Optimierung des Zusammenspiels der einzelnen Punkte kannst Du ja auch im Benchmark- Thread auf CB nachlesen- Da stehen die von mir erreichten Werte z.B. im Superposition- Benchmark oder dem 3Dmark API Overhead- Test.

Anhand der Werte sollte man sehr schnell sehen, dass ich mich mit dem Thema in der Praxis ausführlichst beschäftigt habe und weiss, wovon ich rede.
https://www.computerbase.de/forum/threads/unigine-superposition-erste-ergebnisse-zum-neuen-grafikkarten-benchmark.1674357/page-7#post-19980526

https://www.computerbase.de/forum/threads/futuremark-3dmark-vulkan-ersetzt-mantle-im-api-overhead-test.1669390/page-4#post-20806132

Grüße
Zero
 
Zuletzt bearbeitet:
Kann auch von der API liegen. Kann auch an den Lanes liegen. Kann auch an der Bandbreite liegen. Verstehst du wieso es nicht möglich ist? Wenn weder CPU noch GPU limitieren sieht man das nicht sofort weil es keine klare Zahl dafür gibt ob die Bandbreite der Hauptschuldige ist. Du hast keine Zahl für eine API die nicht mehr leisten kann als zu diesem Zeitpunkt.
Die 4 FPS Differenz siehst du weil auch einfach die Programmierer geschlampt haben können und ein Bug mehr Draw-Calls erzeugt als nötig oder üblich. Das wird dazu führen, dass ALLE bottlenecken weil es nicht an der Hardware liegt sondern Software/API.
Das sieht man von außen nicht, weil niemand den Sourcecode hat und niemand die Zeit und Lust hätte mögliche Fehlerquellen auszumerzen wenn sie nicht deutlich sichtbar sind.

Außerdem: Wenn die CPU nicht alleine für die Musik sorgt, wieso diskutierst du dann die ganze Zeit wegen den 720p/1080p Tests? Dann KANN man doch gar nicht erkennen ob ein CPU-Limit oder sonst ein Limit bremst. Genau das versuchen wir doch die ganze Zeit zu vermitteln. Es gibt viel zu viele Faktoren in diesen Tests und aus diesen die CPU-Power für die Zukunft abzulesen ist Kaffeesatzleserei/Glaskugel...
 
Ja Begrifflichkeiten sind nunmal nicht unwichtig. Es ist halt was fundamental anderes als ein echtes CPU-Limit...sieht man ja gut an der "Auslastung" der CPUs bei 720p...ist mitnichten 100%. Selbst oft nichtmal auf einem Thread.

Eine im bei 720P im Systemlimit operierende CPU wird in 1080P keine höheren Framezahlen erbringen können.
Somit kann ich durch die FPS Begrenzung auf 720p darauf schließen, dass egal welche Grafikkarte ich nachrüste bei 1080P nicht mehr FPS erreicht werden, als unter 720P.

Und genau das kannst du nicht - da unter 1080p das Systemlimit ein anderes sein kann als in 720p. In der Regel sinds die DrawCalls und in der Regel ist das limit in 720p das gleiche wie in 1080p. Da es oft das Drawcall limit der Software ist....damit einhergehend die Abhängigkeit von RAM, Latenz, HDD-Speed und schliesslich auch dem CPU-Cache speed und auch natürlich dem CPU-Takt.

Nur in wenigen Fällen ist heute aber unter 1080p eine GPU wie die 1080 Ti noch limitiert - (wo es deshalb SINN machen würde auf eine noch niedrigere Auflösung auszuweichen). Weswegen es eben sehr wohl reicht in 1080p zu benchen - zumal man die Ergebnisse in jedem Fall auch noch auf die über-nächste Mid-Range GPU in 5 Jahren übertragen kann - denn die ist bestenfalls genausoschnell wie heute die 1080 Ti.

NACHTRAG: Und das "Systemlimit" ist eben von sovielen Faktoren abhängig dass man eben nicht "einfach" so die Messwerte von z.B. CB auf das eigene System übertragen kann nur weil zufällig dieselbe CPU drin ist.
 
Zuletzt bearbeitet:
Ich hab mal eine Frage:
Wenn diese Liste nicht Aktuell ist, Wo wäre Threadripper und Ryzen 2000-Serie denn dort einzusetzen?


intel-i9.PNG
 
@Iscaran
Und genau das kannst du nicht - da unter 1080p das Systemlimit ein anderes sein kann als in 720p
und genau welche praxisrelevante Faktor bei dem wir hier nicht von Schwankungen von 1% oder 2% reden soll das sein, wenn man die gleiche Software als Maßstab zu Grunde legt?

Und wegen einer solch minimal möglichen Ungenauigkeit dann den allgemeingültigen Trend abzusprechen....

Nur in wenigen Fällen ist heute aber unter 1080p eine GPU wie die 1080 Ti noch limitiert - (wo es deshalb SINN machen würde auf eine noch niedrigere Auflösung auszuweichen). Weswegen es eben sehr wohl reicht in 1080p zu benchen - zumal man die Ergebnisse in jedem Fall auch noch auf die über-nächste Mid-Range GPU in 5 Jahren übertragen kann - denn die ist bestenfalls genausoschnell wie heute die 1080 Ti.

Wieso sollte man das "Risiko" eingehen nicht vielleicht doch in Spitzen in ein GPU Limit zu laufen?

Mag wie oben erwähnt sein, dass die Zeiten kommen, wo 4K das alte 720P ist. Ob jetzt der richtige Zeitpunkt dazu ist, bezweifle ich.

NACHTRAG: Und das "Systemlimit" ist eben von sovielen Faktoren abhängig dass man eben nicht "einfach" so die Messwerte von z.B. CB auf das eigene System übertragen kann nur weil zufällig dieselbe CPU drin ist.

Deswegen ist es ja auch so wichtig, dass die Systemkonfiguration detailiert aufgeführt wird, mit welchen ein Test gemacht wurde, um zu prüfen, ob der Test für das eigene System aussagekräftig sein kann.

Fazit- Es gibt Leute, die mit den 720P Tests nicht anfangen können. Andere können daraus jedoch für sich relevante Informationen gewinnen. An alle 720P Test- Gegner:Einfach den Test überspringen...

Grüße
Zero
 
Zuletzt bearbeitet:
@ZeroZerp:

Und alle, die keine Ergebnisse über Prozessoren in üblichen Spielen in üblichen 1080p und in vollen Grafiksettings sehen wollen können diesen Test ebenfalls überspringen. Dieser Test hat mir mehr über die reale Spieleleistung ausgesagt als irgendein 360p/480p/720p Test es jemals könnte. Für alle die WIRKLICH wissen wollen wieviel Rohleistung der jeweilige Prozessor hat, können die theoretischen Tests im Bereich der Anwendungen prüfen. Da gibt es genügend Informationen um Trends, Prognosen und dergleichen abzulesen wie es beim 720p Test gewünscht wird. Hier geht es einfach um ein ganz normales Setting wie es vermutlich viele gestern, heute und morgen spielen. Das ist doch DAS Argument wenn Intels in den üblichen Spielen deutlicher vorne liegen.

Mal so nebenbei. Das wichtigste sind die Minimal-FPS und das wird sich nicht ändern auch wenn es manche behaupten. NUR DA kann man sehen wie gut die Systemzusammenstellung ist. Wenn 99% aller Bilder mindestens diese Zahl haben kann ich mir sicher sein/daraus ablesen ob das Gesamtkonzept die mindestens XY FPS zu erreichen. AVG-FPS sind nett aber bringen überhaupt nichts wenn man nicht weiß wie die Frametimes waren. Bei 99 Percentile kann ich zumindestens wissen das es fast immer und fast komplett darüber liegt
 
Iscaran schrieb:
Das was bei HisN oder bei dir bei dem 720p Test als "CPU"-Limit bezeichnet wird hat eben leider IN DER REGEL nichts mit dem Limit der CPU zu tun...sondern ist meist einfach ein I/O, RAM, HDD, oder simpel, "Coding" limit....
Deswegen hat der 720p Test auch so wenig mehr Aussagekraft wie ein 1080p Test

Das ist aber jetz schon eine totale Spekulation von dir und hat ja wenig technischen Hintergrund.
HDD? In Zeiten von SSDs?, also hier gibt es in Spielen keinen Flaschenhals nicht mal mit lahmen HDD´s und da auch nur sehr selten.
Wenn du in einem harten CPU Bottleneck bist, dann bleiben die FPS in egal ob 1080p oder 720p gleich, oder sogar in 4K, wenn die Grafikkarte stark genug ist. Nehmen wir Assassins Creed in WQHD, ich hab da mit meiner RX580 auf Mittel genausoviel FPS wie in 720p, weil dort der Prozessor limitiert.

Und um zu sehen dass der Prozessor limitiert erhöhst du dann den Takt und wenn die Leistung steigt dann ist der Prozessor das Limit.
Wenn nicht dann ist es eventuell der RAM, aber das mach ja nix, schließlich vergleichst du sowieso Plattform A mit Plattform B außerhalb des Grafikkartenlimits.

Was aber nun genau das Limit darstellt testest du weder mit 1080p noch mit 720p. Einzig und allein muss "sichergestellt" sein dass die GPU nicht annähernd im Limit ist in dem Testsetting. Heutzutage reicht es dazu mit 1080p zu testen (in der Regel) da eine 1080 Ti eben in 1080p schon ziemlich NICHT-limitierend ist.

Man will aber keine Annäherungswerte, sondern Werte ohne Messungenauigkeit, also ohne GPU Einfluss.
Was ist denn daran so schwer zu verstehn? Akzeptier es doch bitte endlich mal dass außerhalb eines GPU Einflusses die Intel Prozessoren halt nach wie vor schneller sind und um die CPU zu testen verringert man eben GPU Einfluss. Ganz einfach.

Musst malt mal deine CPU-Last und GPU-Last mit loggen (wie bei GameGPU) und sehen was passiert CPU-seitig @720p und @1080p...wollen wir wetten dass die CPU-Last in beiden Fällen sich nicht merklich ändert ?

Nimmst du diesen Test her, dann ändert sie sich zu 100% in fast der Hälfte der Spiele, weil die Hälfte in ein Limit rennt, das nicht die CPU´s bilden.

Nach deiner Theorie müsste doch aber die CPU deutlich ausgelasteter sein wenn du in 720p testest als in 1080p (mit einer top-GPU wie einer 1080 Ti). Ist es aber in der Regel nicht.

Beweis durch Behauptung? Wenn die CPU mehr zu arbeiten hat, da sie nicht durch die GPU gebremst wird, wird die Auslastung der einzelnen Threads hochgehen, so einfach und so logisch und so einfach das daheim am eigenen System auszuprobiern, was du ganz bestimmt nie getan hast, weil dus sonst besser wissen würdest.

Und deswegen ist es ein Trugschluss dass du meinst mit 720p irgendeine Aussage über eine vermeintliche CPU-limitierung treffen zu können.

Ich finds schon wahnsinn was man sich alles einreden kann. Verringerte Auflösung 720p dreht in den Fällen wo in 1080p noch die GPU Einfluss auf die FPS hat, den Einfluss deutlich runter, genauso wie eine schnellere Grafikkarte in 1080p dasselbe übernimmt.
Und da die CPU nicht für die Berechnung der Auflösung zuständig is is deine ganz Argumentation Banane.

Und noch viel trügerischer ist es daraus jedwede Prognose für irgendwas abzuleiten für die "Zukunft" oder gar zu verallgemeinern von Game A auf Game B etc.

Noch trügerischer ist es wenn alle CPU´s gleichschnell sind, weil sie durch die GPU limitiert werden.
Du setzt deine Argumente völlig falsch ein und ziehst die falschen Rückschlüsse.
Teste bitte deine CPU´s in 4K, das wäre dann noch untrügerischer, spinnt man deine Theorien weiter.:D

Pisaro schrieb:
Sind wir erstmal bei einem 4k Standard mit leistungsfähigen Grafikkarten angekommen, reicht vermutlich Full HD generell um den Prozessor zu testen.

Ganz genau, in dem Falle muss man sicher nimmer auf 720p runter.

Iscaran schrieb:
Ja Begrifflichkeiten sind nunmal nicht unwichtig. Es ist halt was fundamental anderes als ein echtes CPU-Limit...sieht man ja gut an der "Auslastung" der CPUs bei 720p...ist mitnichten 100%. Selbst oft nichtmal auf einem Thread

In Spielen hast du oft keine 100% Auslastung auf einem Thread, in Anwendungen übrigens oft auch nicht.
Ist dein Argument gegen 720P Auflösung, dass es kein 100% echtes CPU Limit ist, weil RAM und ne gammlige HDD und vielleicht die API in dem das ganze läuft auch irgendwie mit reinspielt?

Ja dann Welcome to Reality. Die Frage ist nur wieso dein Herumreiten auf diesen Spitzfindigkeiten wichtiger sein soll als die GPU aus der Rechnung zu nehmen, die halt einfach mal in 99,99% der Fälle einen CPU Test stört.
Bei dir liegt ein tiefes Verständnisproblem vor, das wohl niemand so einfach auflösen kann, deswegn geb ichs an dieser Stelle auf.

Du sagst dasselbe wie ZeroZerp aber kommst dann wieso auch immer zu völlig anderen Rückschlüssen.
 
Zuletzt bearbeitet:
Beyazid schrieb:
@ZeroZerp:

Und alle, die keine Ergebnisse über Prozessoren in üblichen Spielen in üblichen 1080p und in vollen Grafiksettings sehen wollen können diesen Test ebenfalls überspringen.
Exakt- Wobei das die meisten hier auch interessieren dürfte, da dort auch der mögliche Flaschenhals GPU evtl. mitgeprüft wird.

Für alle die WIRKLICH wissen wollen wieviel Rohleistung der jeweilige Prozessor hat, können die theoretischen Tests im Bereich der Anwendungen prüfen.
Das ist ja leider das Problem, dass das eben nicht so ist (zumindest, wenn es um Spiele geht), weil da ein Zusammenspiel von Bereichen des Systems zum Tragen kommt, welches im realen Anwendungsfall kaum auftritt. Bei CAD Anwendungen ist z.B. die min/fps völlig egal (Viewportarbeiten/Prerender) und am Schluss wird sowieso durchgerendert.

Auch gibt es genug synthetische Benchmarks, die theoretisch riesige Rechenleistung bescheinigen. In der Anwendungsleistung selbst bleibt dann kaum etwas davon übrig.

Deine Einstellung zu den 99tel Perzentilen teile ich...

Grüße
Zero
 
Zuletzt bearbeitet:
donend schrieb:
Mir fehlen Testergebnisse in 720p bei hohen Details und in Paarung mit AMD Karten, alles andere zeigt nur wie gut Nvidia seinen Treiber mittlerweile auf Multicore optimiert. Eigentlich ein Null-Verdienst für AMD.

Das der 1800x langsamer als ein 2700x ist und sein Geld absolut nicht wert war, was die Spielperformance angeht, wissen wir nun schon länger. Wenn man ihn auch zum decodieren und dergleichen nutzt sieht das anders aus. Eine reinen Spiele CPU ist Ryzen damit immer noch nicht, ist immer noch zu teuer, ein 8400+Mainbord kostet deutlich weniger als AMDs neue Zen Serie und dessen Plattform, zudem brauchen die CPU teuren RAM mit niedrigen Latenzen und werden im schlimmsten Fall von einem 8400 geschlagen.

Alles beim alten...

Da scheint aber jemand echt sauer gewesen zu sein, dass sein 1800x nur 4 GHz gepackt hat und er beim Board und Speicher auch ins Klo gegriffen hat. :D:king: Jetzt sieht er die krassen Real-Word Benches der 2600er und des 2700x (besonders die mit Speicher OC und Timings von Hand) und beißt sich doppelt in den Hintern auf einer toten, nicht aufrüstbaren Skylake-Plattform.

Sonst kann man sich diese absolute Faktenverdrehung die du von dir gibst nicht nachvollziehen :D
Ergänzung ()

donend schrieb:
Wieso denn das, sogar AMD empfiehlt hoch offiziell SMT auszuschalten wenn es um Spiele geht. Hier einen 2600 zu bejubeln ist dann genauso höchste AMD Propaganda. Ab 1440p limitert die GPU merklich, da reicht dann auch ein Sandy mit hohem Takt.

Was du in 2 Jahren kaufen kannst, ist wieder eine andere Geschichte, wenn es aber einen Wechselintervall gibt (2 Jahre) investiert man nicht maximale Anschaffungskosten in Mainstreamperformance.

Nein, Alter, was ein Quatsch. Mein neuer 2600x beschert mit gegen meinen alten i5-2500k@4,5Ghz so viel mehr MinFPS in jedem Spiel, dass es wirklich ein Segen ist.

Woher du den Quatsch mit HT/SMT ausschalten hast, ist mir ebenfalls ein Rätsel. Das ist alten Geschwäsch von vor Jahren. Heute gibt es diese klare Empfehlung nicht mehr.
Ergänzung ()

SKu schrieb:
1. Der Test wurde mit einer 1080ti gemacht und dann gibt es hier Leute, die mit einem i5-8400 argumentieren? Die Käuferschicht, die sich für eine 1080ti interessieren, geben in der Regel auch mehr für die CPU aus.
2. Der Test wurde nach offiziell freigegebenen Spezifikationen durchgeführt. Heißt, Intel läuft mit 2666er RAM, AMD mit 2933er. Wir wissen aber, dass gerade Ryzen, da IF an RAM-Takt gebunden, mehr von höheren RAM-Frequenzen profitiert als Intel. Nichtsdestotrotz laufen die AMD-CPUs in manchen Spielen bereits besser als der 8700K - Fortnite, RB6S, Dota2 z.B. Da sie bereits jetzt vorne liegen, würde das mit schnellerem RAM nur weiter zunehmen, da Intel nicht derart stark davon profitiert.

So ist es. PUBG rennt auf dem 2600x ja jetzt schon schneller. Ich habe persönlich diesen Prozessor mit schnellem Ram kombiniert (2x8GB SamsungBDie @3466MHz 14-14-14-30 plus optimiete Subtimings) und in ein paar Benchmarks die Unterschiede gemessen. Bringt nochmal ein bischen mehr als im CB Haupttest - Kapitel "Ryzen auf Steroiden", wo sie 16 GB @3466 14-15-15-XX genommen hatten.

Ich würde sagen zum spielen und mit vereinzelter Multithread-Anwendungsleistung ist der 2600x der Prozessor der Wahl in Kombination mit z.B. güstigen G.Skill Flare X 3200CL1 plus an die Timings Hand anlegen. Das ganze noch an ner Arctic Liquid 240 AiO und die "Auto-OC"-Taktung des Ryzens macht den Rest. Wer paar Kröten mehr ausgeben will nimmt den 2700x.

Der große Vorteil ist und bleibt der günstige und arbeitsunaufwändige Umstieg auf Zen2/Ryzen3XXX.
 
Leute 10% auf oder ab sind hypothetisch... schauen wir uns mal eine Realsituation an:

ffxv.jpg

Das ist 4k (mit 4k Assets) mit fast allein Einstellungen auf hoch (2 der 4 NVidia Optionen und AA sind aus). Die GPU (NVidia 1070) rennt auf 100% und packt gerade mal 40fps die CPU idled gemütlich bei 20% herum.
Mit einer 1080Ti kratze ich bei so einer Config an der 60fps Marke und die CPU wäre grad mal bei 30-40%.

4k mag nicht jedermanns Möglichkeit derzeit sein, aber es zeigt wo der Zug hingeht. Die Spiele werden zumindest die Zahl der Kerne der Konsolenversion nutzen und die Last auf die Kerne aufteilen wo es geht und 4k Gaming wird auch immer mehr zur Realität womit wir dann die nächste Generation Grafikkarten brauchen weil die derzeitige am Limit sein wird.

Bei diesem Spiel wäre es ziemlich egal welchen Prozessor ich drinnen habe sobald er mindestens 6c/12t hat. Mit einem Core i5 4c/4t wär ich sogar bei 5.2GHz Hochtaktung hier am Ende und ein 4c/8t Prozessor würde vmtl bei 5GHz mit 70-90% belastet, würde ich dem Teil dann eine 1080erTI unterjubeln dann würde die CPU es vmtl bei 5GHz unter 100% packen.
 
Zuletzt bearbeitet:
Zurück
Oben