Ryzen 3900X oder auf 3950X warten? Und welches Board?

ich hab keine probleme mit meinen FPS, der Monitor geht bis 180 Hz. Wenn ich drüber komme ist G-Sync aus, bei drunter klarer weise an. Zum anderen hab ich gerade in Overwatch gemerkt dass es besser ist gerade nicht zu cappen. Bin ohne stream bei 400FPS (normal sind 300, config bearbeitet) und mit stream bei 200.

Für andere Games mag das passen, doch bei Overwatch bleibt ich uncap solange es mein PC händeln kann. Zum anderen streamt mein PC während ich spiele, ganz selten spiele ich mal games und streame nicht
 
Esenel schrieb:
Darum verwendet man nen FPS Limiter.
Nur müsste man einen FPS Limiter präsentieren, der nicht wie Rivatuner unendlich viel Inputlag aufschlägt. Deshalb für mich ein Nogo solange es nicht im Spiel implementiert ist. :)

810106


Quelle: Battle(non)sense

Das Gefühl beim Spielen ohne irgendwelche laufender Sensorik oder OSD Tools konnte ich zwar nicht messen, aber gefühlt läuft es ohne solche Tools imho flüssiger.
 
  • Gefällt mir
Reaktionen: t3chn0 und Esenel
Hab damals auch viel rumgetestet, bin jetzt seit über 2 Jahren bei G-Sync mit ingame aktivierten V-Sync bei 165Hz geblieben. Reicht mir und ist deutlich besser, als alles was ich davor je rumprobiert habe mit meinen alten 60Hz Monitor. ^^
 
@OZZHI
Deine Aussage stimmt nicht ganz. :-)
Battlenonse empfiehlt sogar RTSS in seinem Video.
Natürlich nur für den Fall, wenn Ingame kein Limiter vorhanden ist.
Deswegen ist bei RTSS auf 163 und in Division auf 160 ;-)

So kann ich beide im anlassen.

BF V kann mans ja nicht gscheid setzen.
Oder gehts per Config File?
 
  • Gefällt mir
Reaktionen: OZZHI
t3chn0 schrieb:
so nah war AMD in den letzten 15 Jahren nie an Intel dran.

Ungefähr ein halbes Jahr lang schon ;) Lynnfield ist später als der Phenom II erschienen, und mit den Core2Quads konnte der gut mithalten.

Ich muss mir irgendwann mal so eine Lagmesskonstruktion basteln, allerdings ohne teure Hochgeschwindigkeitskamera. Ich dachte da an einen Fototransistor mit Lochmaske, und die Soundhardware als Aufzeichnungsgerät, so dass ich in Audacity die Zeit vom Mausklick bis zur Bildänderung abzählen kann. Im Prinzip könnte ich mir sogar den Mausumbau sparen, weil ich einfach den Klick mit dem Mikrofon aufnehmen kann :cool_alt:
 
Das hier musste ich gerade mal mit dem Handy aufnehmen. Genau das gibt es beim 9900K nicht.

Ständig gibt es diese Spikes, vor allem bei Explosionen. Auch wenn ein Artillerie Strike kommt, hat man dass permanent dass es einfach ruckelt und die FPS massiv droppen. Endlich kann ich das mal visualisieren :).

Die CPU hat zwar viele Kerne, aber einfach zu wenig Dampf unter der Haube.
 

Anhänge

  • IMG_20190812_215703.jpg
    IMG_20190812_215703.jpg
    5,1 MB · Aufrufe: 302
  • IMG_20190812_215123.jpg
    IMG_20190812_215123.jpg
    3,1 MB · Aufrufe: 295
  • IMG_20190812_221641.jpg
    IMG_20190812_221641.jpg
    2,4 MB · Aufrufe: 286
  • Gefällt mir
Reaktionen: ExploRichie
HisN schrieb:
Ich hoffe ich hab nix falsch eingestellt. Hier der 5960X mit 4.4Ghz im Vergleich. HT ist gerade abgeschaltet.
Anhang anzeigen 807776

Wie kann man sich die Auslastung in Balkenform anzeigen lassen im OSD? Ich habe bislang nichts dazu gefunden. ;)
 
  • Gefällt mir
Reaktionen: ExploRichie
Pirolex schrieb:
Also lieber einen 9900KS kaufen wenn man viel spielt?

Wenn Du die 1070 Ti noch lange mitschleppen willst, wird da kein nennenswerter Unterschied sein zwischen 9900K, 9900KS, und bei den meisten Spielen auch 3700X.
 
  • Gefällt mir
Reaktionen: ExploRichie
Naja ewig nicht. Die wird nächstes Jahr gewechselt.
Aber für mich sieht es so aus, dass ich wohl den 9900KS nehme. Am Ende ist der sogar etwas kühler als der 9900K, da er ja selektiert wird um 5Ghz All-Core mit möglichst geringer Spannung zu halten :)
Kühlen werde ich den mit einer H150i Pro mit 3x Noctua AF-12 und der Radiator kommt in die Front des Gehäuse, damit er noch Frischluft bekommt.
Dann sollte Kühlung ausreichend sein, dass er nicht throttelt.
 
Man sollte auch bedenken, dass der 9900K ein gutes Stück mehr kostet als ein 3700X. Genau hier liegt auch der Hund begraben.

Diese Preisdifferenz kommt schon nicht von ungefähr. Du bekommst eigentlich genau das, wofür Du auch bezahlst.

Für 529€ bekommst Du entweder eine top Gaming CPU (9900K), oder eine tolle Multi-Thread CPU (3900X). Mit dem Unterschied, dass man mit der 3900X auch ganz passabel zocken kann und mit dem 9900K ganz passables Multi-Threading hat.

Es kommt also ganz auf den Usecase an.

Das Problem am 9900KS ist der Chipsatz/Plattform. Der Z390 ist super, keine Frage. Aber, Anfang 2020 kommt der Intel 10 Kerner auf den Mark, vermutlich mit Sockel 1200. Wenn Du Dir jetzt den Z390 holst, kannst Du den 10 Kerner vergessen.

Wobei es bei Intel primär (mal wieder) um einen neuen Sockel geht.

PCIe 4.0 wird auch dieser nicht können, was ziemlich schwach ist.

Die Frage ist dann natürlich, was bringt mir PCIe 4.0 (welches ich zumindest mit der NVMe derzeit "nutze), wenn die Performance dennoch eher "befriedigend" ist.
 
t3chn0 schrieb:
Die CPU hat zwar viele Kerne, aber einfach zu wenig Dampf unter der Haube.
Ich würde ja eher behaupten, dass es daran liegt, dass die aktuellen Spieleengines mehrheitlich auf die aktuelle Intel Architektur optimiert sind, was ja auch verständlich ist, wenn man die Marktlage der letzten 10 Jahre betrachtet. Und daran wird sich auch nichts über Nacht ändern.
 
So, jetzt mal mit anderen Settings getestet. G-Sync on, Vsync im Game off, im Treiber on. Dazu der CPU eins auf die Mütze gegeben und schön mit 1.49V und Ultimative Leistung als Profil 60 Minuten lang mit 4.4Ghz Allcore gespielt bei 67°C MaxTemp im Core.

Bald kommt die 420er WaKü und ich versuche es mit 1.45V . Das sollte kein Problem sein. Mit 4.4Ghz Allcore fühlt es sich erheblich besser an. Absolut krank, dass die Kiste ab Werk nur mit 3.9Ghz Allcore rennt. Der Möhre fehlt einfach nur Takt. Gib dem Teil mal 4.7Ghz Allcore und Intel kann lange dafür Stricken...

Nur, 4.4Ghz mit Dauerfeuer im Voltage Höllenfeuer kanns auch nicht sein. Ab 4.3Ghz Allcore erwacht die Kiste.

Deshalb kloppen die den jetzt auch als Pretestet mit 4.3Ghz Allcore für 619 Flocken bei Caseking raus. Bei 1.4V. Das schafft meiner auch. Also, wer will ihn kaufen? =D

https://www.caseking.de/der8auer-ry...30-ghz-mit-wraith-prism-kuehler-hpam-180.html
 
Zuletzt bearbeitet:
Ich bin grad ein bischen platt, dass die da pretestest CPUs mit 4,2.........4,25 und 4,3 GHz verkaufen. o_O
Glaub, wenn ich einen erwische, der mit meinem 420er Radiator keine 4,2 GHz allcore macht gucke ich blöd aus der Wäsche.
Dann wär er aus, der Traum. lol
 
SKu schrieb:
Wie kann man sich die Auslastung in Balkenform anzeigen lassen im OSD? Ich habe bislang nichts dazu gefunden. ;)
Das ist der Modern Web Style
afterburner_stryle_edxccnq.jpg
 
@Esenel
Er empfiehlt es ja nur, weil es keine Alternativen gibt. Fragt sich nur, ob ich diesen zusätzlichen Lag überhaupt spüre oder ob alles nur Einbildung ist, weil ich gesehen habe, dass ein zusätzlicher Input Lag existiert. ;)

In BF wäre ein FPS Limit mit dem Befehl gametime.maxvariablefps 160 möglich, den du auch in den Origin Spieloptionen hinterlegen oder in einer user.cfg im Spielpfad abspeichern kannst.

@t3chn0
Also demnach Back to Intel, sobald der 10 Kerner erschienen ist. :p
 
  • Gefällt mir
Reaktionen: Esenel
t3chn0 schrieb:
Bald kommt die 420er WaKü und ich versuche es mit 1.45V . Das sollte kein Problem sein. Mit 4.4Ghz Allcore fühlt es sich erheblich besser an. Absolut krank, dass die Kiste ab Werk nur mit 3.9Ghz Allcore rennt. Der Möhre fehlt einfach nur Takt. Gib dem Teil mal 4.7Ghz Allcore und Intel kann lange dafür Stricken...

In den Ryzen 3000 Tests hat man ja immer den Vergleich mit Intel gezogen. Und dort wurde auch gezeigt, dass AMD nicht ganz auf Intel-Niveau ist, aber weil es nur wenige %-Punkte Unterschied sind, aber der Redakteur jeweils ein Auge zugedrückt und festgehalten, dass "AMD hat nun zu Intel beim Gaming aufgeschlossen". Bei Anwendungsworkload war AMD bereits mit Ryzen 1000 bzw. spätestens Ryzen 2000 Intel enteilt. Auch wenn ich selbst keinen Ryzen bisher im System hatte, würde ich (eigentlich) den Redakteuren soweit zustimmen.

Und jetzt kommt Du, als Hardcore-Gamer, der tatsächlich mit > 144 Hz spielt und insbesondere Wert auf die Min-FPS bzw. "no drops and stutters" Wert legt - und schlägst quasi genau in diese Lücke, die man kennt, aber alle ein Auge zugedrückt haben. Du bist das ... wie soll ich sagen... 0,1%-Quantil der Gamer :D Ich kenn die Problematik ja selbst von BF 4, das bei den großen Conquest Large Maps auf vollbesetzten 64 Player Servern die eigene Kiste in die Knie zwingen. Da braucht man tatsächlich mindestens 8 Threads, besser 12, damit es rennt und viel GHz auf allen Kernen.

Du solltest Dich von Intel sponsern lassen :) Haben die sich noch nicht bei Dir gemeldet? ;)
 
Das Problem ist einfach, dass ich meine Meinung komplett ungefiltert sage. Ich haue nun seit gut 20 Jahren+ ordentlich Pesetas in dieses Hobby.

Wie soll ich mir eine Meinung zu etwas bilden, dass ich nicht kenne? Mit Intel war ich quasi "fertig", weil es nichts mehr zu optimieren gab. Es lief einfach perfekt. Ich habe aber diesen Basteltrieb in mir.

Ich bin da nicht repräsentativ, kann aber durchaus Schwächen durch diesen Umstand aufzeigen. Wenn jemand mit einer 2080 in WQHD Ultra/High und 120Hz spielt, wird er vermutlich eher nah am GPU Limit sein.

Ich spiele jedoch in 2560x1080P bei 160Hz und auf Ultra/Medium/Low Settings. Meine GPU wird da zu 50-60% ausgelastet. Es macht nahezu alles die CPU. Genau das sorgt aber dafür, dass hier so oft über "Hochfrequenz Kerne" gelacht wird.

Wenn ich mit 60 oder 100Hz Assassins Creed zocke(was ich nich tue), dann wird man fast unmöglich diese Nachteile bemerken. Gleiches gilt für Formel 1 , Tomb Raider etc., diese Spiele sind nicht competitive und der Spieler würde das niemals bemerken.

Bei Shootern sieht die Sache ganz anders aus, wobei Shooter sich auch wieder je nach Engine anders verhalten. Overwatch reagiert total anders als CS Go. Faktisch gibt es aber keinen Shooter der so am System nagt, wie Battlefield. Da hier komplexe Dinge wie die Physik, Spieler etc. auf der CPU berechnet werden, geht bei vielen Explosionen der Punk ab. Hier kann man gnadenlos Schwächen aufdecken. Das mache ich und das gefällt vielen nicht.

Es gibt keinen korrekten Benchmark Parcours, man stellt jedoch schnell fest wie responsive etwas ist, wie die Frametimes und Drops sind.

Den allseits beliebten R5 2600 finde ich z.B unerträglich für BF5. Ich lasse die Settings ja immer gleich. Der 2600 liegt bei mir bei ca. 100 FPS mit Drops auf 56... , der 3600X macht da mal eben 150 FPS mit Drops auf 120 draus. Der Unterschied ist gewaltig! Der Preis ist für mich sekundär. Ich will Leistung und Fortschritt. Für alle!
 
  • Gefällt mir
Reaktionen: 0-8-15 User, OZZHI, NerdmitHerz und 3 andere
Warum ist der Ryzen 9 3900X eigentlich immer noch nirgends lagernd? Und sollte nicht schon der 16 Kerner inzwischen released sein? 🤨
 
Zurück
Oben