News Intel Comet Lake: 29 Asus-Boards und Leistungsprognose für 10900K

Anoubis schrieb:
Mich wundert es immer wieder, dass es sich für einen Boardhersteller lohnt derart viele Modelle für einen Sockel herauszubringen.
Verwirrungstaktik.
Der entnervte Kunde gibt irgendwann auf und kauft einfach das teuerste, nur um ganz sicher zu gehen. 😆
 
  • Gefällt mir
Reaktionen: Balikon
engineer123 schrieb:
der Beleg liegt schlichtweg darin, dass Intel seit von 10nm im "Versuchsstadium" gesprochen wird, keine 10nm mit mehr als 4 Kernen und mehr als 4 Ghz rausbringt. Möglicherweise schafft man 8-Kerne mit max. 4 Ghz
Wo ist das ein Beleg für viel Ausschuss bei Ice lake U?
Da besteht rein gar kein kausaler Zusammenhang.

Ja er taugt nicht für viel Takt. Das ist belegt, der Ausschuss aus den Fingern gesogen.
 
USB-Kabeljau schrieb:
Verwirrungstaktik.
Wobei Asus da mit Abstand an der Spitze liegt bei allen Mobosorten. Ich verbaue u.a. aus dem Grund keine Bretter mehr von denen, weil es mir irgendwann so auf den Sack gegangen ist die Unterschiede raus zu pfrirmeln.
Und normalerweise sind die anderen - bei Boards mit den gleichen Features - noch ne gute Mark günstiger.
 
  • Gefällt mir
Reaktionen: Smartbomb, USB-Kabeljau und Discovery_1
Martinfrost2003 schrieb:
Frage mich echt, wer jetzt so ein neues Board und eine neue 8-10 Kern Intel CPU kaufen soll?
...
Ich werde jedenfalls nicht vom 8700K zum 10900K wechseln.
Hat hier Jemand so etwas vor? Und kann er auch ernsthaft begründen warum er das macht?
Vom 8700K auf irgendwas zu wechseln, wird aktuell für die wenigsten Leute sinnvoll sein.

Wenn Intel keine Mondpreise verlangt, werde ich aber zum 10900K wechseln ... allerdings von einem antiken i5-4670K.
Das lohnt sich dann richtig.

Wieso nicht Ryzen?
Weil 1-Kern-Performance, Drawcall-Performance, Gaming-Performance für mich sehr wichtig sind, und ich vermute, daß das schneller wieder der Flaschenhals sein wird, als ich die 10/20 Kerne (geschweige denn 12/24 oder 16/32) voll ausnutze.
Mich interessiert auch null, ob irgendein aufwändiger Prozess (Encoding, CFD, etc.) am Ende 10 oder 12 Stunden rechnet. Die Echtzeit-Performance ist für mich viel relevanter.
 
  • Gefällt mir
Reaktionen: Martinfrost2003 und Leon_FR
Mein 7700k (mit dem ich als WQHD Gamer immernoch zufrieden bin) wird wohl wirklich meine letzte Intel CPU gewesen sein.
Ich freue mich echt auf Ryzen 4000 und werde da auch upgraden. Die 3000er gefallen mir schon sehr. Aber ich reise mich zusammen, halte noch bisschen durch und nehm dann bisschen mehr Takt und IPC mit.
Hoffentlich wird die Verfügbarkeit gegeben sein, da mache ich mir echt sorgen.
 
  • Gefällt mir
Reaktionen: Smartbomb
USB-Kabeljau schrieb:
Die Echtzeit-Performance ist für mich viel relevanter
Ist das bei dir dann anwendungsspezifisch? Ich kenn noch viele CAD Progs, die für den alltäglichen Gebrauch auf single-core wesentlich schneller sind - nicht fürs rendern, aber das ist ja eher nicht Tagesprogramm.
Ergänzung ()

BastianDeLarge schrieb:
Hoffentlich wird die Verfügbarkeit gegeben sein, da mache ich mir echt sorgen.
Glaube ich nicht. Ist ja im wesentlichen der gleiche Prozess, nur optimiert.

Mir wäre es eigentlich lieber, wenn sie den AM4 dafür in die Tonne kloppen und nen neuen Sockel bringen würden, aber......das gibt dann Shitstorms, die alle Server abkacken lassen. ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Smartbomb
Ich glaube nicht, daß es in irgendwelchen CAD-Programmen mit den neuen Prozessoren (sei es AMD oder Intel) irgendwelche Probleme geben wird.

Ne ... ich brauche das in aller erster Linie für Gaming.
Dazu zählen auch Emulatoren (wie CEMU) oder Problemkinder wie Fallout 4.

Ryzen wäre ein bisschen interessant für's Streaming ... mit dem 3950X könnte man dann relativ safe mit x264 Slow Encoden. Aber seit Turing sieht NVENC so gut aus, daß Software-Encoding eigentlich nur noch für Berufsstreamer wirklich Sinn macht.
Und da macht's dann eigentlich noch mehr Sinn, sich einen extra PC dafür hinzustellen, weil's einfach noch stabiler ist.
 
  • Gefällt mir
Reaktionen: .Sentinel. und oemmes
USB-Kabeljau schrieb:
Ich glaube nicht, daß es in irgendwelchen CAD-Programmen mit den neuen Prozessoren (sei es AMD oder Intel) irgendwelche Probleme geben wird.
Nee, Probleme wird es nicht geben, aber z.B. Autocad ist ein typisches Single-Thread Programm und da liegt Intel (noch) vorne.
 
  • Gefällt mir
Reaktionen: .Sentinel.
modena.ch schrieb:
Meist dürften es zum 65W 3700X so 7-12% sein, bei zukünftigen Games eher weniger.
In FHD mit ner 2080 TI versteht sich. Mit WQHD und längsämerer Karte läuft das Ganze eh unter WAYNE.
Sonst muss das Game arg übel optimiert sein.
Dabei braucht der 9900ks mindestens 30% mehr Saft.

Selbst in 1440p gibt es genug CPU Limits in denen eine 2080Ti ausgebremst wird.
In ca. 6 Monaten gibt es neue Karten und dort wird die Sache nur noch schlimmer.

Ein 9900K oder KS braucht in Spielen auch ned viel mehr als seine Ryzen pendants.
Jeder nimmt immer die Prime Vollauslastung als Vergleich, was ein totaler Quatsch ist.

Einen 3700/3800/3900X trennen 10-20W in Spielen zu einem 9900K(S).
Also total wurscht, ob man in nem Game nun 80 oder 90W braucht.

Vor allem wenn dann eh noch ne 2080Ti mit 300W drin ist.

modena.ch schrieb:
Ja klar weil bei Intel alles über DDR3000 ja so mega viel bringt. Den grössten Sprung gibts bei CFL von 2133 auf 2800 alles darüber sind nur noch minimini Leistungszuwächse. Über 3200 oder 3600 ist es auch eher Einbildung als Nutzen.

Und mit diesem Satz hast dich eh schon als unwissend geoutet.

Herrscht ein CPU Limit vor, dann skaliert der RAM Takt natürlich nach oben hin weiter und hört nicht bei 3000MHz auf.
Was ein Unfug.

BF V, Rise/Shadow of the Tomb Raider, Anno 1800, Vermintide 2, Forza 4, Star Control, Division 2 und auch Assassin's Creed. Alle skalieren im CPU Limit über den RAM Takt durch einen erhöhten Copy Wert & Latency.
Die Timings machens halt aus.
Wer nur XMP betreibt ist eh falsch beraten mit Kits höher als 3000/3200.
Falsche Zielgruppe einfach.

Ein kleines (altes) Beispiel. Und nur mit nem 6 Kerner.
1440p:
Nimmt man also deine "magische" 3000 MHz XMP Grenze sinds von dort zu 4133 optimiert 14,8% Leistungszuwachs (Geothermal Valley).
Aber klar was ist das schon....
ROTTR_RAM_Stock_vs_OC_1440p_Esenel.png
 
  • Gefällt mir
Reaktionen: Smartbomb, t3chn0, .Sentinel. und 6 andere
GUN2504 schrieb:
Nur mit Wasserkühlung... und 360er Radiator...
Mein DarkPro4 ist schon ein riesengroßer Brocken und der ist bis 250W zertifiziert^^

Also eine CPU für den längsten Balken im Gaming Benchmark...
Ein Normalverbraucher bekommt das Teil nicht gekühlt^^

Habe ebenso den DarkPro4 und meine Erfahrung damit ist das es sich bei der Zertifizierung schon eher um einen Optimalfall handelt. Der Lüfter hat halt nicht viel Reserven weil er keine hohen Drehzahlen beherscht. Wenn du zu wenig Belüftung im Gehäuse hast und die Grafikkarte warme Luft in seine Richtung pustet krepiert der dir da bei 250 Watt. Und wer sich so eine CPU kauft hat in der Regel auch eine sehr starke Grafikkarte. Nicht zu vergessen, wenn das Ding nach einem Jahr so ein wenig Staub angesetzt hat.

250 Watt sind echt nicht lustig. Das kann man bei einer Server CPU machen, wo die Lautstärke egal ist und da einfach ein Industrielüfter draufkommt, aber das kannst du doch nicht der breiten Masse an 0815 Gamern hinwerfen. Intel ist inzwischen wirklich verzweifelt.
 
  • Gefällt mir
Reaktionen: Smartbomb und GUN2504
Wer viel Geld ausgibt kann sich dann auch noch eine ordentliche WaKü kaufen.
Versteh eh nicht warum man sich mit den großen CPU egal welcher Hersteller noch so nen Klotz an Luftkühler einbauen muss^^
Abgesehn davon können die meisten ja lesen und sehen vorher was sie sich da anschaffen.
 
  • Gefällt mir
Reaktionen: Esenel
Das erinnert frappierend daran wie AMD damals seine FX 8000-und 9000-Prozessoren immer höher takten musste, um gegen Sandy Bridge und Co. anzukommen. Der FX 9590 hatte 220 Watt TDP.
 
Teralios schrieb:
Jedes mal, wenn ich deine Beiträge lese, würde ich am liebsten lauthals loslachen, kann aber nur noch weinen, weil sie zeigen, dass du absolut keine Ahnung hast, jedes mal aber hier den gleichen Quark verzapfst.

Ja, der 9900K liegt - da braucht es nicht mal den KS - im Mittel über viele Tests im Schnitt bei FullHD ca. 10% vor einem 3700X und in absolut von der Realität entfernten 720p mögen es sogar noch mehr sein, doch gerade bei neueren Spielen entspricht der "Vorteil" den Intel mit dem 9900K und KS sich erarbeiten kann absolut nur noch dem Taktunterschied.

Je aktueller die Engine, beziehungsweise dessen Version ist, die die Spieleentwickler einsetzten, um so besser kann Ryzen aufholen und sogar bei der IPC überholen, denn man schafft die Leistung eines 9900K und KS mit weniger Takt.

Klar, es gibt Spiele, bei den der 9900K um den Ryzen durchaus Bahnen zieht, gleichzeitig sind das aber entweder vergleichsweise alte Spiele, als Ryzen noch nicht erschienen war, oder es sind Spiele von Entwicklern mit beschränkten Ressourcen.

Dennoch eigenen sich solche Spiele kaum dazu wirklich zu entscheiden, welche CPU in Zukunft besser bei Spielen abschneiden wird, denn auch hier findet aktuell ein Wandel statt und Entwickler fangen an Ryzen ernstzunehmen!

Wenn man überwiegend natürlich GTA 5 spielt und dort in 720p richtig viele FPS will, dann kauft man halt Intel, ist Okay! Aber die "Wahrheit" liegt halt aktuell zwischen den Extremen. Auch Ryzen 3000 hat gegen den 9900K in der Regel das nachsehen, da beide CPUs auf einem ähnlichen IPC-Level stehen, Intel mehr Takt fahren kann, liegen die Intel CPUs noch voraus, brauchen dafür aber eben entsprechende Energie.

Am Ende ist es aber für "Gaming" relativ egal, ob man nun Intel oder AMD kauft, genau so für Anwendungen, da beide CPUs aktuell Vor- und Nachteile haben, die man gegeneinander für sich abwägen kann.



Taktbereinigt bewegen sich die IPC-Unterschiede eher im Bereich der Messtoleranzen. Die Architektur hat sich seit dem nicht wirklich verändert. Ein wenig IPC kam durchaus hinzu, weil man etwas mehr L3-Cache nun bei den 8-Kernern hatte, ebenso weil Caches durch den "Takt" etwas schneller wurden usw. Aber es ist überschaubar.


Es gibt einige, bei denen es durchaus auch mal 30% sein können, wobei es dann um "Avg. FPS" geht und oft sind es dann Spiele, die zwar heute auch noch sehr beliebt sind, aber doch ein gewisses Alter haben. Ebenso geht es oft um Spiele von "kleineren" Entwicklern, die ihre eigene Engine enwicklen und diese primär auf Intel optimieren, weil die Ressourcen fehlen.

Gleichzeitig zeigt sich aber bei den großen Engines und den neueren Versionen, dass zwischen einem 8c AMD und einem 8c Intel oft primär nur noch der Taktunterschied liegt. AMD muss hier noch einiges an Arbeit leisten und auch CPUs verkaufen um sich Marktanteile zurück erobern, sollte der Weg aber so weiter gehen, werden viele Entwickler, die aktuell NOCH einen Bogen um AMD CPUs machen gezwungen, auch auf diesen zu testen und zu optimieren.

Hast du auch mal die „richtigen“ OC Tests gelesen? Oder kannst du dann nicht mehr lauthals loslachen? :D ja klar nimm den CB Test mit 14% mit 2666er Ram. Ich lach mich schlapp, der Vergleich bei CB ist einfach Schwachsinn. Kein Selfbuilder verbaut 2666, 3200 kostet fast nichts mehr. Nur interessiert mich das genauso 0, wenn du aus nem 9900K einfach mal mindestens 30% mit RAM OC in Richtung 4200/4200 raus holen kannst im Vergleich zu Std 3200 CL16...siehe HWL Forum. Und dann noch 300-400 mhz mehr Allcore Takt beim KS...aber ja, bleib in deiner Traumwelt wo jeder nur Spiele zockt mit perfekt parallelisierten Engines wo gerade die gängigen MP Titel drölf Kerne nutzen und man nie im CPU Limit sitzt 😂😂😂😂

Klar, nicht jeder baut sich so ein hochgezüchtetes System mit nem Apex plus selektierter CPU und B Dies, aber die Leute, die halt das letzte da rauspressen und ne Wakü haben die mehr als ne komplette AMD Build kostet, können über die Ryzen Leistung nur müde lächeln ;)
Ergänzung ()


Esenel schrieb:
Selbst in 1440p gibt es genug CPU Limits in denen eine 2080Ti ausgebremst wird.
In ca. 6 Monaten gibt es neue Karten und dort wird die Sache nur noch schlimmer.

Ein 9900K oder KS braucht in Spielen auch ned viel mehr als seine Ryzen pendants.
Jeder nimmt immer die Prime Vollauslastung als Vergleich, was ein totaler Quatsch ist.

Einen 3700/3800/3900X trennen 10-20W in Spielen zu einem 9900K(S).
Also total wurscht, ob man in nem Game nun 80 oder 90W braucht.

Vor allem wenn dann eh noch ne 2080Ti mit 300W drin ist.



Und mit diesem Satz hast dich eh schon als unwissend geoutet.

Herrscht ein CPU Limit vor, dann skaliert der RAM Takt natürlich nach oben hin weiter und hört nicht bei 3000MHz auf.
Was ein Unfug.

BF V, Rise/Shadow of the Tomb Raider, Anno 1800, Vermintide 2, Forza 4, Star Control, Division 2 und auch Assassin's Creed. Alle skalieren im CPU Limit über den RAM Takt durch einen erhöhten Copy Wert & Latency.
Die Timings machens halt aus.
Wer nur XMP betreibt ist eh falsch beraten mit Kits höher als 3000/3200.
Falsche Zielgruppe einfach.

Ein kleines (altes) Beispiel. Und nur mit nem 6 Kerner.
1440p:
Nimmt man also deine "magische" 3000 MHz XMP Grenze sinds von dort zu 4133 optimiert 14,8% Leistungszuwachs (Geothermal Valley).
Aber klar was ist das schon....
Anhang anzeigen 860292

stell dir mal vor CB würde nen Apex mit 4800er Riegeln für den OC Test nehmen 😂😂😂 Was meinst du was hier plötzlich für ein Aufschrei wäre :D Aber hier werden dann lieber Benches genommen wo man dann mit 200 MHZ mit ner billigen Wakü noch 5% rausquetscht, anstatt mal beim RAM anzusetzen, aber ich weiss nicht wieso zum Henker hier kein Ram OC genommen wird, wenn die CPUs doch eh alle über 4000 gehen. Keine Ahnung ob die Angst haben die rote Community zu sehr zu vergraulen. HWL ist einfach hingegangen und hat beide mit 3600er RAM getestet und schon hat man auf einmal 20-30% Unterschiede bei den CPUs. Oh wait, laut diesem Forum und irgendwelchen schlechten Youtube GPU Benchmarks kann das JA GAR NICHT SEIN

Und dann stell ich mir vor wie es bei Tiger Lake aussehen wird :D Dann wird vermutlich drüber hergezogen, dass es ja nur "10nm+" seien, die mindestens mit 7nm TSMC vergleichbar sind :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
gunmarine schrieb:
Klar, nicht jeder baut sich so ein hochgezüchtetes System mit nem Apex plus selektierter CPU und B Dies, aber die Leute, die halt das letzte da rauspressen und ne Wakü haben die mehr als ne komplette AMD Build kostet, können über die Ryzen Leistung nur müde lächeln ;)

Und ich lächle nur müde über Leute, die alleine für die WaKü mehr ausgeben, als für ein gesamtes AMD-System, um ein paar Prozentpunkte vorne zu liegen, und das dann als Beweis dafür sehen, dass Ryzen nichts taugt.

Selbst unter Gamern ist das für 99% der User völlig irrelevant. Die geben für einen Rechner nur ein Drittel davon aus, bekommen dafür immer noch ein aktuelles Highend-System und müssen keine 350W von der CPU wegkühlen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Alphanerd und DonL_
engineer123 schrieb:
Die entscheidende Frage für das 10-Kern Mainstream Flaggschiff von Intel wird sein, ob es im Gaming eine höhere Performance als der 9900K bringt und wenn ja wieviel % das sind. Mein Bauchgefühl sagt mir, dass das eine homäopatische Führung wird von vlt. 3-5% oder so.
Also ein wenig schneller als der 9900KS sollte das 10000er-Flagschiff schon werden, ansonsten wäre CL ja vollkommen für den Popo. Aber so langsam verstehe ich das "Comedy Lake"-Wortspiel.
 
  • Gefällt mir
Reaktionen: Smartbomb
Der i7 10700k soll den höchsten Allcore Boost bekommen und mit 4.8GHz auf allen Kernen Boosten können, das wäre etwas langsamer als der 9900KS. Der i9 10900K taktet Allcore weniger, da er bei 4.8GHz oder mehr Allcore Boost ansonsten viel zu heiß für viele Kühlungen werden würde. Ich erwarte etwa 280 Watt Leistungsaufnahme für den i9 10900K bei 5GHz Allcore OC.
 
  • Gefällt mir
Reaktionen: Mcr-King
gunmarine schrieb:
Klar, nicht jeder baut sich so ein hochgezüchtetes System

Tatsächlich kaufen auch mehr Leute einen. 3600.zum spielen als einen 9900ks, das hat zwei Gründe, erstens ist der bestens verfügbar und zweitens selbst die Differenz zwischen den beiden juckt in der Praxis keine Sau weil niemand von denen sich nicht rühmen will derart viel Geld für ne CPU auszugeben deren Merkmal es ist die meisten FPS in Tetris zu haben
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Mcr-King und marimo111
29 Stück? Das sind mehr als doppelt zu viele Mainboards wie Asus X570 Bretter im Angebot hat. Die Hersteller sind immer noch von Intel geschmiert bis zum abwinken.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben