News Intel Core i9-10850K: Mainboardhersteller führen „günstigen“ Zehn-Kerner

Kvnn. schrieb:
Warum? Sind durchweg schneller in Games und teilweise sogar mit besserem P/L, weniger Stromverbrauch... (10400F)

Genau die Krücke genommen...... :daumen:
Ein 10400F ist nur in Verbindung mit einem Z-Board (RAM-OC) schnell. Damit ist aber das P/L-Verhältnis wieder hin. Ein B450/B350/B550 Board hat aber diese Beschränkung nicht und somit ist der 3600 die bessere Wahl - bezüglich Schnelligkeit in Games und P/L.


Kvnn. schrieb:
Aber immer wieder schön zu sehen wie viele Likes es gibt wenn man ein bisschen Unwahrheiten über Intel raushaut.

Sieht man, dass man beim 10400 ständig die Fakten ignorieren muss, um diese CPU überhaupt schmackhaft zu machen.
 
  • Gefällt mir
Reaktionen: DrSeltsam95, aldaric, Mcr-King und 3 andere
Tzk schrieb:
Ja, natürlich. Lies doch bitte nochmal den ersten Satz meines Posts. Es ging um die absolute Aussage das Intel immer schneller ist und die Aussage ist schlichtweg falsch. Natürlich gibt es genügen Spiele in denen die Intels gewinnen und das habe ich auch nie bestritten ;)
Und kommende Spiele werden sicherlich auch zunehmend Vorteile aus mehr als 4 oder 6 Kernen ziehen können, besonders wenn die neuen Konsolen die Entwicklungsbasis darstellen. Die max. FPS werden auch bei 4 oder 6 Threads noch gut genug sein, zu "flüssig" gehören eben auch die Frametimes und wie konstant die sind. Um da noch mal ein weiteres Death Stranding Beispiel zu bringen, hier ist schon ein massiver Unterschied bei den Frametimes zwischen 4 Threads (roter Graph) und 24 Threads (grüner Graph) zu sehen: https://twitter.com/CapFrameX/status/1283461780719771650
 
Kvnn. schrieb:
Warum? Sind durchweg schneller in Games und teilweise sogar mit besserem P/L, weniger Stromverbrauch... (10400F)
Den Trollcommi des Tages kann man sich auch einfach sparen :-) Aber immer wieder schön zu sehen wie viele Likes es gibt wenn man ein bisschen Unwahrheiten über Intel raushaut.

Der 10900K/10850K ist Intels Versuch über den Takt die 2 Kerne des 3900X(T) auszugleichen.
Wenn es Intel nur ums Gaming gegangen wäre hätten sie auch bei 8 Kernen bleiben können, denn im Gaming sind sie nach wie vor schneller als AMD dank dem Taktvorteil .
In allem anderen Dingen werden sie von den 3900X(T) und 3950X deutlich geschlagen, trotz massivem mehr an Takt und Stromverbrauch.

Wenn man die blaue Brille absetzt kann man das ziemlich schnell erkennen ;)
 
  • Gefällt mir
Reaktionen: Mcr-King und Heschel
Die haben es einfach nicht geschafft eine genügend hohe Stückzahl vom 10900 herzustellen, da sie mit dem 14nm-Prozeß am äußersten Limit sind.
Was macht man in solch einem Moment ? Intel kreiert einfach ein "neues" Modell 10850 mit garantierten 100 MHz weniger und schon passen die lieferbaren Stückzahlen wieder. Zudem läßt sich noch am Preis etwas machen, um den Preis vom 10900 nicht zu gefährden und um etwas näher an die AMD-Chips zu rücken.
 
  • Gefällt mir
Reaktionen: Mcr-King
Jetzt auch in der Sisoftware Datenbank erste Benchmarks
1595937774908.png
 
PPPP schrieb:
Was du betreibst nennt sich Cherry Picking :rolleyes: Für jemanden, der nur Death Stranding spielt mag das relevant sein.

Im Schnitt über mehrere aktuelle Spiele hinweg sieht es anderst aus (siehe 10400F Test):

Anhang anzeigen 948981

Anhang anzeigen 948980

Ob nun FPS oder Frametimes - der 10400F ist laut CB Test von der Leistung vor einem 3600X (196,46€), bei günstigerem Preis (152,90€) als ein 3600 ohne X (169,50€). Dazu ist er effizienter und kühler, siehe Test.

Als Extrembeispiel wie du es mit Death Stranding machst, kann man auch das aktuelle Far Cry nehmen:

Anhang anzeigen 948985

Hat wohl etwas mehr Relevanz als Death Stranding, wäre dennoch Cherry Picking.
Ergänzung ()



Für 4-Kerner mag das in einigen Spielen zutreffen, wie du selbst erfahren durftest. Bei 6-Kernern gibt es so gut wie keine nennenswerte Beispiele, was sich an den Frametimes des Ryzen 3600 verglichen mit dem 3900XT in deinem „Beweisbild“ unschwer erkennen lässt. „Völlig überlastet“ sieht anderst aus. Sich an einem relativ wenig relevanten Spiel als Positivbeispiel aufzuhängen ist aber wie gesagt wenig zielführend ... Aber gut, irgendwie muss man sich seine zusätzlichen 2 Kerne ja zurechtreden wenn man diese lediglich für Gaming gekauft hat :rolleyes:

PS. Habe selbst mehr als 6 Kerne, käme aber nie auf die Idee zu behaupten, dass es für den Einsatzzweck Gaming einen Vorteil bringen würde ...

Zum Thema Cheery-Picking:
Klar sucht sich jeder seine eigenen Vergleiche und Statistiken zusammen, um seine Meinung udn seinen Glauben für sich selbst zu untermauern, damit er sich selbst weiterhin Glauben schenken kann.
Wird in jeder Religion und überall in der Politik auch so gemacht.
Was man bei dem ganzen hin und her zwsichen den eingefahrenen Lagern der Wenig- oder Mehrkernern wichtig ist zu beachten: wer redet über was genau?
Die Vertreter aus dem Wenigkernerlager reden eigentlich ununterbrochen von Spielen, die hier udn jetzt in deren Sichtweise flüssig genug laufen.
Die Mehrkernverteter hingegen reden imemr von den Spielen, die jetzt schon im kleinen Rahmen (unter Umständen) etwas bringen können.
Es geht ihnen aber hauptsähclich um die Zukunftstauglichkeit.
Und da sind solche Ausnahmebeispiele natürlich gute Andeutungen, dass man sehr wohl mit anspruchsvolleren Titeln bald rechnen können wird und muss.
Eigentlich stellt sich nur die Frage, wie zufrieden ist man mit seinem PC derzeit?
Wie leidensfähig ist man, falsl man wenig Kerne, oder eine alte CPu verwendet?
Was sollte man kaufen, wenn man nicht nur jetzt Spaß mit einem bestimmten Spiel haben möchte, sondern auch noch in 2 Jahren, oder gar in 5 Jahren?
Dann komtm noch hinzu, ob man in 1080p mit 144hz zockt, oder aber in 4K mit 60hz, das ist auch ein großer Unterschied.
Aber es ist nunmal definitiv so, das man bei einem Neukauf generell besser als die Konsolen kaufen sollte, damit man auch deren Spieleportierungen oder Parallelveröffentlichungen ebenfalls ohne Einschränkungen zocken kann.
Alles, was weit darüber liegt, ist reine Zukunftssicherheit, oder für Fälle, wo man es (nebenher) benötigt, falls man also z.B. gleichzeitig streamen oder aufnehmen möchte, Bowser geöffnet hat, etc.
Fakt ist auch, Intels reiner 6Kerner der 9ten generation ist auch bereits durch Spiele ans absolute Limit zu bringen, so etwas sollte sich niemand mehr kaufen, wenn es jetzt schon altes Geld ist.
6/12 Kerner sidn derzeit der Sweet-Spot, was Preis-leistung angeht, aber wie gesagt, mit den neuen Konsolen wird man sich in 1-2 Jahren dann ärgern, dann dann hat man das gleiche Problem, was 4/8 Kerner derzeit genießen.
Da sind die letzten 50-100 Euro bei einem größeren PC-Upgrade für 2 weitere Kerne absolut anzuraten, denn wer zuviel spart, zahlt später nach.
 
schade das es erst hieß, dass die Dinger nur für OEMs sein würden. Intel hätte es damit sicher geschafft mir noch mehr Geld aus der Tasche zu ziehen als Zwischen- und Ablösung meines steinalten Z77er 3770K Systems.
Ich freu mich sehr auf den baldigen Schlagabtausch ZEN3 vs."Keine Ahnung was" Lake, denn PCIE4 ist damn sexy.
 
BxBender schrieb:
Zum Thema Cheery-Picking:

...

Naja, es ist ein Unterschied, ob man ein einzelnes Spiel nimmt und behaupten will mit mehr Kernen wären bessere Frametimes möglich oder ob man einen Schnitt aus mehreren aktuellen Spielen nimmt. Lediglich Ersteres ist Cherry Picking. In der Regel sind schnellere Kerne mehr Kernen vorzuziehen, sofern min. 6 vorhanden sind und man mit dreistelligen Bildraten spielen möchte - die Auflösung spielt dann eine untergeordnete Rolle, da man dann meistens im CPU Limit steckt.

Oder man holt sich jetzt einen 6 Kerner und rüstet später auf, wenn es notwendig wird. Aktuell hat man mit 12 Threads wie du sagst überhaupt keine Probleme. Über 4 Kerne bzw. 6 Kerne ohne HT muss man ja nicht diskutieren, denke das ist hinreichend bekannt, der Preis für diese ist nicht umsonst so niedrig.

Ob nun Intel oder AMD, zwischen einem 6 und 8 Kerner liegen 100€. Wer jetzt einen Gaming PC & Alltags PC (kein Rendering, keine Cinebench Rekorde, keine sonstige Nischenanwendungen etc.) zusammenstellt, ist mit einem aktuellen 6 Kerner von Intel oder AMD gut bedient. Da lässt sich auch locker (!) ein Browser im Hintergrund oder Spotify, Discord etc. ohne Einschränkungen nutzen, keine Ahnung wo plötzlich das Gerücht herkommt, ein 6 Kerner könnte kein Multitasking - lediglich für Streamer wären mehr Kerne zu empfehlen.

Wenn später die Preise gefallen sind, kann man den 6 Kerner immer noch verkaufen und auf dasselbe Mainboard einen 8 Kerner stecken. Hier wird ja teilweise argumentiert, als ob der alte 6 Kerner dann im Müll landet ...

Dass immer mehr Leistung im Sinne von mehr Kernen auf einem PC verglichen mit den Konsolen benötigt wird, lässt sich pauschal so auch nicht sagen, dafür sind die Konsolen den PCs mittlerweile zu ähnlich. Für Grafikkarten mag das zutreffen, aber wenn auf der Konsole auf 8 CPU Kerne optimiert wird, bringen einem auf dem PC mehr Kerne auch keinen Vorteil. Wenn, dann schnellere Kerne, aber nicht mehr davon.

Von heute auf morgen haben sich die Anforderungen bei Spielen noch nie geändert, auch die Grafikpracht wurde seit Crysis nur wenig gesteigert. Es gibt kaum Gründe sich Sorgen zu machen und falls sich doch etwas ändert, kann man, ob nun Intel oder AMD, bei der aktuellen Plattform mehr als ausreichend upgraden.
Eher werden langsam neue Grafikkarten benötigt, da es keine aktuelle Grafikkarte gibt, die 4K@120Hz packt. Neue Prozessoren braucht es dafür im Gegensatz nicht wirklich.
Ergänzung ()

Tyr43l schrieb:
Intel hätte es damit sicher geschafft mir noch mehr Geld aus der Tasche zu ziehen als Zwischen- und Ablösung meines steinalten Z77er 3770K Systems.
...
denn PCIE4 ist damn sexy.

Welche Vorteile erhoffst du dir durch PCIe 4.0?
Für kommende Grafikkarten wird PCIe 4.0 gegenüber PCIe 3.0 keinen Vorteil bringen - eine RTX 2080 Ti nutzt gerade einmal die Bandbreite von PCIe 2.0 (!!!) x16 aus. Bis die doppelte Bandbreite (PCIe 3.0 x16) ausgenutzt wird, werden noch ein paar Jahre vergehen.
Auch eine PCIe 4.0 NVMe läuft lediglich mit PCIe 4.0 x4, was von der Bandbreite nichts anderes ist, als PCIe 3.0 x8 ...

Dazu wird ein 10700K mehr als ausreichend Leistung für die nächsten Jahre bereitstellen, sofern du nicht vor hast spezielle Programme zu nutzen die mehr als 8 Kerne auslasten bzw. anfangen möchtest zu Streamen.

Von 2012 8 Jahre (!!!) bis 2020 gewartet um dann eine CPU als "Zwischenlösung" für 1 Jahr zu holen? Hört sich einfach seltsam an ...
Ergänzung ()

Heschel schrieb:
Genau die Krücke genommen...... :daumen:
Ein 10400F ist nur in Verbindung mit einem Z-Board (RAM-OC) schnell. Damit ist aber das P/L-Verhältnis wieder hin. Ein B450/B350/B550 Board hat aber diese Beschränkung nicht und somit ist der 3600 die bessere Wahl - bezüglich Schnelligkeit in Games und P/L.

Sieht man, dass man beim 10400 ständig die Fakten ignorieren muss, um diese CPU überhaupt schmackhaft zu machen.


Selektive Wahrnehmung vom Feinsten :rolleyes:

Selbst ohne Z-Chipsatz, sprich mit RAM nach Intel Spezifikation, ist der 10400F schneller als der 3600, wie auch 3600X in Spielen, trotz 3200er CL14 RAM beim Ryzen, siehe CB Test:

Screenshot_2020-07-28 Intel Core i5-10400F im Test Benchmarks in Spielen und Anwendungen.png


https://www.computerbase.de/2020-05...schnitt_benchmarks_in_spielen_full_hd_und_uhd

Dabei ist er günstiger, kühler und effizienter.

Mit einem Z-Chipsatz würde sich der Vorsprung durch RAM OC natürlich noch etwas ausbauen (!) lassen, um nicht mehr oder weniger geht es in deinem Video, aber warum dann überhaupt an der CPU sparen und nicht direkt zum 10600K greifen?

Kaum einer wird die Einschränkungen bzgl. RAM unterhalb des Z-Chipsatzes gutheißen, aber dass der 10400F selbst mit langsameren RAM schneller als die Konkurrenz ist, gilt als bewiesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXcanwriterXx
mibbio schrieb:
Naja, oder der 10900K wird dadurch zum Ladenhüter weil die Leute lieber etwas Geld sparen (um den Aufpreis für das notwendige Z-Board etwas auszugleichen) und einfach den 10850K übertakten. Einer von beiden wird am Ende uninteressant werden, weil sich der minimale Unterschied sicherlich durchs Übertakten ausgleichen lässt.

Für mich sind beide uninteressant da mein i9 9900k übertaktet auf @5,0 ghz schneller ist als alle beide :D
 
Zuletzt bearbeitet:
johnieboy schrieb:
Wenn es Intel nur ums Gaming gegangen wäre hätten sie auch bei 8 Kernen bleiben können, denn im Gaming sind sie nach wie vor schneller als AMD dank dem Taktvorteil .

Nicht nur dank des Taktvorteils, sondern auch aufgrund er deutlich geringeren Latenzen von Mesh vs. IF.

Übrigens, egal ob nun AMD oder Intel, beide bewerben die Mainstream Prozessoren hauptsächlich für Gaming und Streaming:

3950X:

"Extreme Leistung für Gamer, Streamer und Entwickler."
"Neu: GameCache auf AMD Ryzen™ Prozessoren der 3. Generation"


https://www.amd.com/

10900K:

"DER INTEL® CORE™ i9-10900K PROZESSOR (10.GENERATION) IST DER SCHNELLSTE GAMING-PROZESSOR DER WELT"
"Und wenn sich das Streamen noch weniger auf die Gaming-Leistung auswirken soll, sorgen die Intel Core i9 Prozessoren für ein noch flüssigeres Erlebnis."

https://www.intel.de/

Für Workstations gibt es wieder andere Prozessoren, aber da gehen wir verhältnismäßig in eine Nische, die mit einer Mainstream Plattform nichts zu tun hat. Anwendungen, die mehr als 8 Kerne nutzen, verwenden nun einmal verhältnismäßig sehr, sehr wenige Nutzer. Deshalb wird bei der Mainstream Plattform auch nicht damit geworben.
 
PPPP schrieb:
und das schließt du woraus? Aus der Leistungsaufnahme in Anwendungen? Dann musst du aber für den Leistungsteil deiner Rechnung auch die Anwendungsleistung nehmen, ansonsten vergleichst du Äpfel und Birnen.
 
@PPPP Das Z77 System war ein später Gebrauchtkauf, welches bislang reichte.
Zwischenlösung deshalb, weil PCIE4 für Grakas und Laufwerke einfach mehr Zukunftsicherheit bietet und ich vermutlich nicht mehr zwischen Anwendungs- bzw. Spieleleistung bei zu diesen Zeitpunkt verfügbaren CPUs wählen muss. Begrüße in jedem Fall die derzeitige Bewegung in allen Segmenten.
 
guggi4 schrieb:
und das schließt du woraus? Aus der Leistungsaufnahme in Anwendungen? Dann musst du aber für den Leistungsteil deiner Rechnung auch die Anwendungsleistung nehmen, ansonsten vergleichst du Äpfel und Birnen.

Ist das Verhältnis der Leistungsaufnahme bei Teillast (60-100%) auf einmal umgedreht im Vergleich zur durchgängigen Volllast? Falls du diese unsinnige Behauptung belegen kannst, gerne her mit der Quelle :rolleyes:

Ansonsten gilt, ja der 10400F ist sowohl bei 100% Auslastung, bei Teillast, als auch im Idle effzienter als ein Ryzen 3600(X):

Screenshot_2020-07-29 Intel Core i5-10400F im Test Leistungsaufnahme, Effizienz, Temperatur un...png


Screenshot_2020-07-29 Intel Core i5-10400F im Test Leistungsaufnahme, Effizienz, Temperatur un...png


Screenshot_2020-07-29 Intel Core i5-10400F im Test Leistungsaufnahme, Effizienz, Temperatur un...png
 
Zuletzt bearbeitet:
Ich bin mit meinem neuen 10600K sehr zufrieden. und ja, ich habe mir einen neuen Gaming-PC zusammengestellt. Über PCIe 4.0 brauchen wir nicht zu diskutieren. Erst Rocket Lake soll das wett machen, und mein neues ASrock Z490 TAICHI wird PCIe 4.0 sogar unterstützen.

Wofür dieses übertriebene Upgrade, wenn man es sowieso nicht ausreizen kann??

Ich fahre derzeit noch eine GTX 1070 Ti Ultra Silent von EVGA. Die Karte macht vorallem optisch was her und ich werde mich nur schwer von ihr trennen können.

Ich liebäugle mit der 3000'er-Reihe von Nvidia Ende des Jahres und hoffe natürlich auch, das richtige Setup ausgewählt zu haben, um für einige Jahre gerüstet zu sein.

Ich habe lange Zeit den i5 4570 auf B85 werkeln lassen und ihn nahezu ausgereizt. Der Sprung mit dem neuen Setup ist für mich persönlich natürlich gewaltig.

Vorallem wollte ich die GTX 1070 Ti mal richtig auslasten, was ich jetzt auch an ihren % Auslastung ablesen kann.

AC Odyssey ist sehr CPU-lastig und da ich einen 32" 60 Hz TFT betreibe, ist mir alles darüber hinaus relativ mumpe. Der kann nur AMD's Freesync und ich sehe immer noch nicht, wo im Nvidia-Treiber die Möglichkeit für Freesync sein soll.

Odyssey war jedenfalls noch nie so flüssig wie jetzt und ich zocke es gerade zum dritten mal durch. Aber jetzt mit dem Buttermesser und der Kerrygold, die auch gekühlt so herrlich streichzart ist. :D

Ich warte dann mal, wenn 2021 vermutlich die ersten Custom-Modelle auf den Markt kommen und hoffe, dass
EVGA was Leckeres bringt.
 
PPPP schrieb:
Ist das Verhältnis der Leistungsaufnahme bei Teillast (60-100%) auf einmal umgedreht im Vergleich zur durchgängigen Volllast? Falls du diese unsinnige Behauptung belegen kannst, gerne her mit der Quelle :rolleyes:

Ansonsten gilt, ja der 10400F ist sowohl bei 100% Auslastung, bei Teillast, als auch im Idle effzienter als ein Ryzen 3600(X):

Anhang anzeigen 949210

Anhang anzeigen 949212

Anhang anzeigen 949213

Bilder ohne weitergehende Informationen haben leider absolut keine Aussagekraft.
Man sieh thier nur Zahlen, aber nicht, wie und unter welchen Umständen diese generiert werden.
Das der 6 Kerner allerdings im Vergleich zu seinen großen Brüdern viel weniger Leistung aufnimmt, das hat auch PCGH schon als seltsames Phänomen festgestellt.
Auf jeden Fall liegt der Vorteil der AMD Prozessoren hauptsähclich bei Anwendungen, dort steigt die Stromaufnahme von Intel stark an, weil dort die Auslastung höher ist udn die Prozessoren dann auch weit über ihren Sweet Spot hinaus gehen müssen.
Im Idle betrieb waren udn sidn NVidia und Intel eigentlich irgendwie schon imemr besser gewwesen.
Mich juckt das jedoch nicht, weil wenn ich den PC abends einfach nur anstellen udn herumstehen lassen wollte, würd eich mit dem Ruhezustand wesentlich mehr Strom sparen können.
Bei einer Teillast ist zumindest die 10er Gen daraufhin wirklich viel besser optimiert worden als die 9er Gen.
In Spielen ist es eigentlich egal, ob man nun Intel oder AMD verwendet, man sollte sich generel nicht wegen 20 Watt hier und da aufregen und das als Kaufgrund vorschieben.
Intels 9er und auch 10 gen ist absolut vergleichbar mit der Vega Grafikkarte.
Richtig eingestellt ist die nicht wirklich leistungshungriger als eine 1070/1080, sogar bei Standardeinstellung konnt edie die sämtliche grüne Riege im 60hz vsync Test schlagen.
Trotzdem meint jeder, es wäre mit Abstand die stromhungrigste Karte aller zeiten.
Stimmt, aber nu in speziellen Vollastbenchmark und mit voll aufgedrehten Treibereinstellungen.
Bei Intel ist das derzeit ähnlich.
Mit einem 10er Gen prozi kann man gut fahren, man mus shalt im Bios unbedingt die Herstelelrlimits wieder herstellen, udn nach Möglichkeit einfach nicht übertakten, die Basisleistung reicht vollkommen.
Wer damit dann Spiele spielt, wo dann in der Regel die Grafik limitiert, oder normale Anwendungen bedient, wird sicher nicht geröstet werden.
Ich würde mir jedoch keinen Prozi von denen holen, weil die teurer sind, kein PCI-E 4.0 bieten und zudem noch immer rund 100 Sicherheitslücken offen im Raum stehen, wo sich derzeit niemand ernsthaft drum kümmert.
Wer sich über Sicherheitslücken in Windows oder einem Browser aufregt, der sollte so etwas dann aber auch beim Kauf beherzigen.
Am Ende möchte ich auch noch betonen, dass Intel sich in den letzten 2 Jahren den eigenen Ruf selber völlig ruiniert hat, indem man mit zweifelhaften Fakenews per Präsentationsfolien, Benchmarks etc., absichtlich die Bevölkerung irre geführt und vollkommen verarscht hat.
So etwas lasse ich natürlich nicht auf mir sitzen udn kaufe deshalb erst recht woanders.
Und ich war die letzten 15 Jahre Kunde bei denen.
 
  • Gefällt mir
Reaktionen: xXcanwriterXx
BxBender schrieb:
Mit einem 10er Gen prozi kann man gut fahren, man mus shalt im Bios unbedingt die Herstelelrlimits wieder herstellen, udn nach Möglichkeit einfach nicht übertakten, die Basisleistung reicht vollkommen.

Genau das!! 5,1 GHz, wie in der Signatur angegeben, fahre ich nicht 24/7. Das ist das mögliche OC, ohne über 70°C zu gehen. Für 'ne Graka okay, aber eine CPU möchte ich so nicht täglich betreiben.

Ich mache genau das. Mein Board fährt den i5 10600K @4,5 Ghz AVX2 und wechselt bei Nichtbelastung @800 Mhz mit 0,451 V im Idle. Bei Last liegen bei den 4,5 GHz 1,21 V an. Das ist guter Durchschnitt mit 9 % OC.

Alles andere ist überdimensioniert und eben nur stromhungrig. Das muss nicht sein.
 
Zurück
Oben