Test Core i9-9900K & i7-9700K im Test: Sehr schnell. Sehr durstig. Extrem teuer.

Status
Für weitere Antworten geschlossen.
cool and silent schrieb:
Interessant. Wie hast Du das Problem mit diesem "Usecase" denn bis letzte Woche gelöst?

Welches Problem genau meinst Du? Bis letzte Woche hatte ich einen 8700K @ 5Ghz. Leider fehlen dem 2 Kerne um die Drops auf 112 FPS in BF1 zu verhindern. Das wird jetzt der 9900K übernehmen.
 
cool and silent schrieb:
Das war ein Fehler. Ich habe nicht studiert, muß nicht hart arbeiten und verdiene auch gut. Gleiches Ergebnis bei weniger Aufwand ;-)

Studieren und hart arbeiten kann auch nicht stimmen - da muss ein Fehler vorliegen. :D

NurDownloadWill schrieb:
Oder bin ich vielleicht hinterher? Zu was verdammt nochmal braucht ihr denn die 8 Kerne? Videos rendern und gleichzeitig Spiele auf Twitch/Younow streamen? Wie tickt der normale 8 Kern-User?

Frag doch einen Besitzer @t3chn0
 
  • Gefällt mir
Reaktionen: sethdiabolos, oldgirl65, SVΞN und eine weitere Person
t3chn0 schrieb:
Leider fehlen dem 2 Kerne um die Drops auf 112 FPS in BF1 zu verhindern.

Weil 112 FPS auch so schlecht sind :freak:
 
  • Gefällt mir
Reaktionen: cvzone und nazgul77
t3chn0 schrieb:
Welches Problem genau meinst Du? Bis letzte Woche hatte ich einen 8700K @ 5Ghz. Leider fehlen dem 2 Kerne um die Drops auf 112 FPS in BF1 zu verhindern. Das wird jetzt der 9900K übernehmen.

Ich meinte Deinen Usecase. Okay, meine Frage ist beantwortet aber sorry - die Antwort ist absurd. Dein Usecase ist BF1 spielen, Ob nun 60 FPS oder 112 oder 150 FPS, das Spiel ist immer das selbe.

Das ist kein Usecase, sondern eine Geschichte um sich den Kauf der überteuerten Hardware schönzureden
 
  • Gefällt mir
Reaktionen: cvzone, nazgul77, Relict und 4 andere
Also wenn bei BF1 die FPS auf 112 droppen, kommt das wohl eher von der GPU als von der CPU. Dazu hatte PCGH einen netten Test zu BF1. Dort erreichte ein R7 1700 @3.9 schon 156 Min FPS mit 168,5 Avg FPS mit langsamen Ram Modulen.

Also keine Ahnung wie bei BF1 mit einem deutlich schnelleren 8700k die FPS auf 112 droppen sollen ! ;)

bf1.png
 
  • Gefällt mir
Reaktionen: Heinrich Harrer, kidlon, Seskahin und 10 andere
Hallo

Hat sich die "Leistung pro Takt" von der 8000er Serie zur 9000 Serie geändert beziehungsweise gesteigert?

Danke für die Antwort.
MfG
 
13579 schrieb:
Hat sich die "Leistung pro Takt" von der 8000er Serie zur 9000 Serie geändert beziehungsweise gesteigert?

Schaut nicht so aus, wenn man Cinebench R15 Scores zwischen 8700K OC und 9900K vergleicht.
Ergänzung ()

smart- schrieb:
Außerdem musst du bedenken, der Winter kommt und der Vorteil dürfte doch sehr hoch sein gegenüber Leuten ohne Hochfrequenzkerne.

Wegen der Heizleistung?
 
  • Gefällt mir
Reaktionen: nazgul77 und smart-
Leute, ihr versteht t3chn0 einfach nicht. Er gehört zu der Gruppe Hardc0r3-3d3lgam3 der Trotz G-Sync Monitor Drops auf mickrige 112 fps im kleinen Zeh spürt. Auch wenn er seine Tütensuppe in der Sperrmüllküche kocht und auf ner Luftmatratze pennt... für's Online-Image ist kein Cent zuviel ausgegeben. Habt doch mal ein wenig mehr Respekt.. :D
 
  • Gefällt mir
Reaktionen: Smartbomb, BorstiNumberOne, michimii und 13 andere
Cool, wie hier wieder keinem was gegönnt wird.......unglaublich.
Da haben einige aber einen seeeehr hohen Tellerrand. Es ist doch vollkommen legitim, wenn man jedes Jahr die schnellste Hardware kauft. Ist doch bei Autos (Ja, diesmal passt der Vergleich sogar) auch nix anderes. Da wird man auch nicht so kritisiert, weil man sich für den "falschen" Hersteller entscheidet.

Wenn man mit so einer Einstellung alles und jeden im Leben bewertet, hat man ganz schnell keine Freunde mehr.

Stromverbrauchstabellen können viele hier offensichtlich auch nicht lesen, aber das scheint bei CB ne Volkskrankheit zu sein:D .
Zu den AVX Werten fehlt mir halt immer noch die Vergleichbarkeit. Sozusagen dumm gelaufen für Intel, wenn man die schnelleren Einheiten verbaut, keiner merkts und hinterher wird sich über den Stromverbrauch aufgeregt.
 
  • Gefällt mir
Reaktionen: NeMeSiS_tm, Rush, der_Schmutzige und 2 andere
Oneplusfan schrieb:
Es ist doch vollkommen legitim, wenn man jedes Jahr die schnellste Hardware kauft. Ist doch bei Autos (Ja, diesmal passt der Vergleich sogar) auch nix anderes.

Ich hasse diese Auto-Vergleiche.
Ein Fiat und ein Porsche unterscheiden sich nicht nur bei den PS!
Das ist wie immer eine Milchmädchenrechnung.

Eine CPU ist eine CPU. Mit dem Ryzen kann ich genau das gleiche machen, nur ein paar FPS weniger wenn ich das CPU-Limit erzwinge. Merkste was!?
Und das mit dem Stromverbrauch wurde hier in den Kommentaren mehr als durchgekaut was das Problem bei dieser CPU ist und warum Intel das gemacht hat. So etwas kann man nicht gut heißen!

Oneplusfan schrieb:
Da wird man auch nicht so kritisiert, weil man sich für den "falschen" Hersteller entscheidet.

Ähm... da gibt es genug Leute. Gerade heute in Zeiten des Umweltschutzes und der Grünen.
Kann das auch nicht ab wenn man mit einem SUV in der Stadt fährt, muss wirklich nicht sein...
 
  • Gefällt mir
Reaktionen: rg88, SVΞN, cookie_dent und 3 andere
smart- schrieb:
Ein Fiat und ein Porsche unterscheiden sich nicht nur bei den PS!

Deswegen habe ich auch bewusst keine Hersteller/Modelle genannt. Aber wenn du das auch brauchst:
C-Klasse vs 3er BMW. Beides gute Autos, können auch das gleiche. Trotzdem wird das eine am Ende mehr kosten als das andere. Ist es jetzt ein Fehler, wenn man das teurere kauft, oder das Modell, was 5 kmh schneller ist oder irgendein für den Außenstehenden nicht begreifliches Feature hat?

Klar kann ich mit dem Ryzen das gleiche machen, aber so kann man nicht argumentieren, wenns um das schnellste im Consumerbereich geht. Sonst kann ich mir gleich nen R5 oder I5 kaufen.

smart- schrieb:
Kann das auch nicht ab wenn man mit einem SUV in der Stadt fährt, muss wirklich nicht sein...

Soll sich jetzt jeder, der berechtigterweise SUV fährt, ein Stadtauto zulegen?

Was genau, außer dem Preis, ist jetzt eigentlich schlecht am i9? Ehrlich, ich kann nichts finden.

@NurDownloadWill ja dann viel Spaß mit deiner Konsole. Du wirst schnell merken, dass man am besten zweigleisig fährt. Niemand zwingt dich Nvidia oder Intel zu kaufen, da gibts auch noch nen dritten Hersteller....
Mal ehrlich, kommt man nicht günstiger weg, wenn man den (bei dir scheinbar) eh vorhandenen PC einfach ein bisschen aufrüstet? Ich habe mir letztens hier nen Ryzen 1600 für 85€ geschossen, der ist zig mal schneller als der alte Jaguar Schrott in den Konsolen.
Dass Intel und NV der Grund sind, dass du dem PC den Rücken kehrst, nehm ich dir so nicht ab
 
Aldaric87 schrieb:
Also wenn bei BF1 die FPS auf 112 droppen, kommt das wohl eher von der GPU als von der CPU. Dazu hatte PCGH einen netten Test zu BF1. Dort erreichte ein R7 1700 @3.9 schon 156 Min FPS mit 168,5 Avg FPS mit langsamen Ram Modulen.

Also keine Ahnung wie bei BF1 mit einem deutlich schnelleren 8700k die FPS auf 112 droppen sollen ! ;)

Das kann ich bestätigen. Oftmals ist es die GPU, die in einem Bruchteil einer Sekunde derart hoch belastet wird, dass die FPS in dem Moment in den Keller gehen. Diesen Umstand habe ich schon bei mehreren Spielen beobachtet.

Ich nehme mal Warhammer Vermintide 2 und Assassins Creed Odyssey als Beispiele.
In beiden Spielen gibt es Situationen wo die GPU über ihre Leistungsgrenze hinaus getrieben wird, obwohl die FPS ansonsten ausreichend hoch sind. Es gibt Effekte, die wenn sie zum Einsatz kommen, die GPUs überstrapazieren.

Ganz im Gegenteil verhält sich das neue Tomb Raider dazu. Dort hat man völlig unabhängig vom Ort nahezu immer die gleiche Performance.

Die Entwicklerstudios sollen endlich mal anfangen DX12 massiv zu unterstützen und zu nutzen und mit Vegas Primitive Shader und nun auch mit Turings Mesh-Shading gibt es neue Möglichkeiten die Leistung zu steigern, wenn sie denn genutzt werden würden.
 
  • Gefällt mir
Reaktionen: TheBear1517 und CyberdyneSystem
M1ximili1n schrieb:
Starke CPU am Limit,bin gespannt ob AMD demnächst kontern kann.

Ist schon sehr sehr lange her als AMD nicht mehr über Kerne gekontert hat, ich bin mal gespannt wie es bei Ryzen 3 aussieht.

Aktuell gehe ich noch von aus dass es auch da mehr Kerne sein müssen.
 
Krautmaster schrieb:
Aktuell gehe ich noch von aus dass es auch da mehr Kerne sein müssen.

Müssen?

Vielleicht ein 3800X - aber bei anderen wohl nicht. Und kontern könnte AMD sehr gut, ohne mehr Kerne oder 5,2 GHz mit Brechstange: PCIE 4.0. Dieser wird schon jetzt in Epyc "Rome" mit dabei sein. Wenn AMD auf dem CPU-Markt kontern will, sollte es damit (jetzt wo die Preise bei m.2 PCIE SSDs nicht so astronomisch sind) tun.

Ein AMD 3800X mit 12 Kernen und PCIE 4.0 bei 4,8 GHz allcore,
Best Option: 3700X 8k/16t und PCIE 4.0 bei 4,8 GHz allcore. :cheerlead:
 
Moriendor schrieb:
Zu Elite Dangerous: Sooo CPU-lastig kann das eigentlich nicht sein, denn ich bekomme mit meinem "Uralt" i5-2500K@4,2GHz, 32GB RAM und GTX 1080 in dem Spiel immer flüssige Frameraten von ca. 50fps.

Das Ganze in 1440p und mit allem auf max. Einstellungen bzw. sogar noch etwas mehr als max., da ich per Fan-Tool "ED Profiler" die Qualität noch einen Tick erhöht habe.

Bei Planetenlandungen oder innerhalb von Stationen mögen die fps schon mal kurz auf etwas über 40fps einbrechen, aber im Schnitt ist das absolut flüssig und ich liege so bei gut 45fps bis 55fps mit meiner alten Sim-PC-Möhre :) .

Es ist ja auch ein Spiel, wo es auf den letzten frame nicht ankommt, wenn man PvE/Solo unterwegs ist, was bei mir der Fall ist.
40-50fps würde ich nicht wirklich als Flüssig bezeichnen, aber ich zocke ED schließlich in VR da brauch ich mind. 80fps
und bei 4k res schaffe ich das nur mit Mittleren Details und ohne MSAA, kann aber gut sein das ich mich mit ED und CPU Lastig etwas zuweit aus dem Fenster gelehnt habe.

Off-topic:

ZeroZerp schrieb:
Nein- Ich meine Du kannst eine 1440er Auflösung (https://www.tweaktown.com/reviews/8766/nvidia-geforce-rtx-2070-review-perfect-card-1440p/index.html) die z.B. durch DLSS sogar auf 4K gerechnet wird dann per DSR wieder auf 1080P skalieren.
Dann hast Du weit besseres AA, als auch dickes Supersampling und hast die Einheiten zur Beschleunigung einer 2070 und 2080 genutzt, ohne irgendwas nativ in 4K berechnet zu haben.

Mal abgesehen von den berechnungen durch DLSS, war meine frage eigentlich ganz allgemein auf die native Auflösung eines Monitors
bezogen... wie man bei Prad.de oft lesen kann verliert der Monitor seine schnellen Reaktionszeiten sobald man mit einer anderen Auflösung betrieben wird.

Aber trifft das dann auch auf das Upskalling mit DSR zu oder bezieht sich das nur auf eine niedrigere Auflösung (nicht native) bei den Windows Einstellungen?

Krautmaster schrieb:
Bei DLSS heißt 4K ja eben genau das, dass in 1080p gerechnet wird und via Deep Leaning + Tensor Kern beschleunigt auf 4K upsampled wird. Intern wird aber wie gesagt mit deutlich kleinerer Auflösung gerechnet, deswegen ist die Sache ja schneller als in native 4k.

Da will ich dir auch gar nicht wiedersprechen, ich glaub wir reden da auch aneinander vorbei.

Mein Punkt bezog sich eher darauf das es sich nicht lohnt eine 2070 oder 2080 für einen richtigen 4k Monitor zu benutzen, sobald ja ein Spiel kein DLSS unterstützt, wird man probleme mit der Performance bekommen.
Ergänzung ()

Krautmaster schrieb:
Ist schon sehr sehr lange her als AMD nicht mehr über Kerne gekontert hat, ich bin mal gespannt wie es bei Ryzen 3 aussieht.

Aktuell gehe ich noch von aus dass es auch da mehr Kerne sein müssen.

Ich bin ja wirklich kein Fan von diesen fake Kernen (SMT oder HT), mein i7-6700k war mein erster i7 und wird hoffentlich auch mein letzter HT sein. Zum Rendern und irgendwelche Anwendungen schön und gut aber zum zocken braucht man richtige Kerne und eigentlich sind dort 6 Kerne Topnotch... und der i7-9700k der ja in wirklichkeit ein i5 ist wäre für mich das höchste aller gefühle.

Aber wenn Intel extrem hartes binning für ihre 9900k zu machen und den billig silikonschrott in den 9700k zu stopfen, kommt mir alles hoch. Sieht aus als hätte Intel aus ihren Fehlern gelernt als sie vor einem Jahr mit den i5-8600k sich selbst konkurrenz gemacht haben in dem man den i5 höher als den i7 Takten konnte.

Ich würde es begrüßen wenn AMD mit Ryzen3 einen echten 8 Kern Prozessor ohne zusätzlichen Virtuellen Kernen auf den Markt schmeißt und die Leistung in höhere Taktraten investiert.
 
Zuletzt bearbeitet von einem Moderator:
Naja war ja klar, dass Intel den Fans wieder mit Freunde das Geld aus den Taschen zieht, und diese dafür auch noch jubeln.
 
@m.Kobold

Du kannst HT und SMT Deaktivieren
 
Für den Preis bekommt man bei AMD mehr.
Klar, Intel ist beim Gamen besser aber bei 4K relativiert sich das ganze wieder. Ich bin gespannt auf Game Tests die sich mit MIN FPS beschäftigen, hier wird AMD denke ich auf Augenhöhe sein, wenn die Redaktionen gleiche Bedingungen schaffen.
Also gleicher Kühler, gleich getakteter RAM und gutes Board.
 
  • Gefällt mir
Reaktionen: Gortha
Hier ist mal Schluss.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ExtremBenutzer, BorstiNumberOne, Almalexia und 22 andere
Status
Für weitere Antworten geschlossen.
Zurück
Oben