Bericht 12900K, 12700K & 12600K: Alder Lake läutet als 12. Gen Intel Core die Hybrid-Ära ein

Nein mit Zügel. Ob mit oder ohne ist Spielen total egal, denn Alder Lake verbraucht hier im Schnitt 110 Watt. Ein 5950X braucht 100 Watt. Aber Alder Lake ist nun 10+ Prozent schneller, ergo quasi gleich effizient in Spielen.
 
  • Gefällt mir
Reaktionen: Tzk
Gortha schrieb:
Zen3D wird also mindestens der Gleichstand sein, auch was die Effizienz angeht
Leider zwingt mich AMD zu einer Rückkehr zu Intel. Ich bekomme auf keinen meiner beiden Ryzen-Systeme irgendeine Linux-Distro dauerhaft stabil, auch nicht mit den Standardwerten.
 
Volker schrieb:
Totales Wegputzen aka Gleichstand wieder.
Ich denke schon, dass Zen3D in dem Bereich Gaming wieder die Krone durch die Bank haben wird.

Zen3/Ryzen5000 ist ein Jahr auf dem Markt. Alderlake holt auf und ist hier und da mal etwas flotter.
Das wird sich mit dem Refresh mit V-Chache ändern. Und wenn AMD von durchschnittliche 15% redet, stimmte das in der Zen-Zeit bisher auch.

Trotzdem freue ich mich auf euren Test. Aber nur auf die P-Kerne :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99
Gortha schrieb:
Ja, Alder-Lake ist fast ein schlechter Witz...
Creeping.Death schrieb:
Diese Aussage kann ich nicht nachvollziehen.
sind doch immer diese Superlativen...
letztendlich um in Anwendungen mithalten zu können...
Die bis dato größte Brechstange rausgeholt!
Siehe Power Consumption!
Temperaturen HAMMER!
Das brachte unterm Strich ein Sieg um wenige %.
MSFS sieht man sehr schön was die E-Cores dann doch nicht rausholen können, gegenüber spielen wo sie kaum genutzt werden müssen...
Warten wir mal ab, was Abseits der K und KF CPU´s + MB (zum vernünftigen Preis) dann eine echte Empfehlung werden kann.

MfG
Ergänzung ()

Discovery_1 schrieb:
Leider zwingt mich AMD zu einer Rückkehr zu Intel. Ich bekomme auf keinen meiner beiden Ryzen-Systeme irgendeine Linux-Distro dauerhaft stabil, auch nicht mit den Standardwerten.
das Problem ist woanders als du vermutest! :lol:
Ergänzung ()

Volker schrieb:
Aber Alder Lake ist nun 10+ Prozent schneller, ergo quasi gleich effizient in Spielen.
kann man das so pauschalisieren?
Siehe MS FS...

bin gespannt!
macht es doch nicht so spannend verdammt.
denke jede Redaktion wird Ihre persönliche Meinung haben die Ergebnisse zu bewerten.

Mfg
 
  • Gefällt mir
Reaktionen: Gortha
Matthias80 schrieb:
das Problem ist woanders als du vermutest!
Ich hatte vorher nie Probleme mit Linux/Intel. Erst seitdem ich zu AMD gewechselt bin, habe ich diese Probleme mit Linux.
 
Philste schrieb:
Der 12600K ist doch Bombe. Meilenweit vor nem 5600X, eher auf 5800X Niveau

Sorry, du redest von einem 10 Kerner vs einem 6 und 8 Kerner. Das nenne ich nicht Meilenweit, sondern Äpfel und Birnen. Die E-Kerne ersetzen die Threads die sonst auf SMT/HT zu tragen kämen. Klar haben die nen Vorteil dann. Erst nach dem Thread-Threshold von 6+4=10 Threads kommst Intels HT wieder zum Einsatz.
 
Discovery_1 schrieb:
Ich hatte vorher nie Probleme mit Linux/Intel.
rein von der Logik...
wenn es ein allg. Problem geben würde.
dann wärst du nicht der einzige.
Dann würde das Problem schon aus der Welt geschafft.
k.A. was du machst.

Mfg
 
  • Gefällt mir
Reaktionen: Gortha
Gortha schrieb:
Sorry, du redest von einem 10 Kerner vs einem 6 und 8 Kerner. Das nenne ich nicht Meilenweit, sondern Äpfel und Birnen.
Schau auf den angepeilten Preis des 12600K... ;) 320€ vs. 290€ 5600x vs. 380€ 5800x

Ist mir doch total Hupe wie viel Kerne das Teil hat, wenn der im Preisbereich um 300€ die schnellste Cpu ist.
 
  • Gefällt mir
Reaktionen: Matthias80
Gortha schrieb:
Sorry, du redest von einem 10 Kerner vs einem 6 und 8 Kerner.
Bin ich bei dir...
Aber ein Herstellervergleich ist nicht immer so einfach.
Heute sollte denke, muss man WATT und letztendlich Preis gegeneinander abwägen.
Das Hersteller A zum Preis X 6+4 (+6xHT) Liefert und Hersteller B 6+SMT bringt... kann ja nicht das Unterscheidungsmerkmal sein.
Dann kommt noch das Gesamtpaket zum tragen.
Was nützt mir ein paar % mehr Leistung und ein evtl. niedriger Preis wenn DDR5 und ein halbwegs gutes MB das x fache mehr kosten?!

Mfg
 
  • Gefällt mir
Reaktionen: Gortha und Tzk
  • Gefällt mir
Reaktionen: Dai6oro, Gortha, Tzk und eine weitere Person
Ja, klar. Dennoch ist der 12600K der heimliche Star, tippe ich. Mal gucken wie sich die Preise einpendeln und ob man bei DDR4 bleiben kann, weil das den Preis der Plattform immens drückt. 12600K+Board+DDR5 ist richtig teuer, da lacht AMD mit dem 5900X nur.
 
Discovery_1 schrieb:
Ich hatte vorher nie Probleme mit Linux/Intel. Erst seitdem ich zu AMD gewechselt bin, habe ich diese Probleme mit Linux.
Layer 8 Problem vielleicht? Ich habe einen Day-1 3700X und ein Day-1 X570 Aorus Master und Vollbestückung mit 64GB RAM auf Debian 10 und das System läuft und läuft und läuft. Kein Absturz, die VMs laufen ununterbrochen seit 6 Monaten.
 
Matthias80 schrieb:
sind doch immer diese Superlativen...
letztendlich um in Anwendungen mithalten zu können...
Die bis dato größte Brechstange rausgeholt!
Siehe Power Consumption!
Wenn dein Rechner permanent nahe der Maximallast läuft, dann ist der Verbrauch sicher hoch.

Aber mich (und hoffentlich die Mehrheit) interessiert die durchschnittliche Leistungsaufnahme. Da scheint mir - nach den bisherigen Informationen - der Verbrauch der Performance angemessen.
 
  • Gefällt mir
Reaktionen: Tzk
Tux. schrieb:
Layer 8 Problem vielleicht?
Ich mache nichts anders als vorher unter Intel. Ich installiere ganz normal eine Linux-Distro, aber irgendwann friert das System immer komplett ein. Und nur unter Linux. Also kein Temperaturproblem oder ähnliches - und das mit meinen beiden Ryzen-Systemen, das ist kein Zufall. Ich habe einfach keine Lust mehr, mich damit rumzuärgern (schon zwei Jahre). Deswegen back to Intel, soon. 12400F oder vielleicht sogar der 12600KF. Aber ich muss jetzt erstmal auf die günstigeren "B" Bretter warten, wenn sie denn überhaupt kommen werden.
 
Tzk schrieb:
Ja, klar. Dennoch ist der 12600K der heimliche Star, tippe ich. Mal gucken wie sich die Preise einpendeln und ob man bei DDR4 bleiben kann, weil das den Preis der Plattform immens drückt. 12600K+Board+DDR5 ist richtig teuer, da lacht AMD mit dem 5900X nur.
12600K mit 200€ Board und DDR4 wird sicher super P/L haben, man landet aber trotzdem über dem Preis eines 5800X Setup.
So richtig sehe ich da nicht, wie die kleinen Ryzen obsolet gemacht werden, das ist schon eine Preisklasse höher und die billigeren Boards und CPUs lassen ja noch auf sich warten.
Bin gespannt, ob und wie lange Rocket Lake noch gut und günstig verfügbar bleibt, der 11400F ist der viel größere Konkurrent für den 5600X, aber ob Intel so gern ein 270mm² Monster für ~180€ verkauft?
 
  • Gefällt mir
Reaktionen: Gortha
Tzk schrieb:
Schau auf den angepeilten Preis des 12600K... ;) 320€ vs. 290€ 5600x vs. 380€ 5800x
Warten wir mal die Marktentwicklung ab. Preise sind natürlich entscheidend. Trotzdem ist der Vergleich eines 10 mit 6 oder 8 Kerners nicht wirklich machbar.
 
  • Gefällt mir
Reaktionen: Tzk
Sieht wie 12600>5600 aus und das deutlich.Die neue Empfehlung für den "Einstieg" vermutlich.Insgesamt sehe ich nicht Viel was AMD nervös machen könnte anhand der geleakten Benchmarks was man nicht entgegensteuern könnte,z.B. mit Preissenkungen.Der 12600 sieht aber wirklich rund aus.Bin auf die CB Test gespannt,
 
@Discovery_1
Und Windows läuft normal? Hätte da jetzt im Zweifelsfall mal ein anderes Netzteil getestet. SystemPower ist halt schon die Spar-Variante von Be Quiet. Evtl. läuft bei Linux irgendwas, was kurzfristige Lastspitzen verursacht, die das Netzteil verkraftet?! Einen Versuch wär es ggf. wert.
 
Discovery_1 schrieb:
Aber ich muss jetzt erstmal auf die günstigeren "B" Bretter warten, wenn sie denn überhaupt kommen werden.
Kommen werden sie, Noctua hat erst kürzlich geleaked. Frage ist nur wann sie kommen.
1636022845562.png
 
  • Gefällt mir
Reaktionen: Discovery_1
Creeping.Death schrieb:
interessiert die durchschnittliche Leistungsaufnahme.
Die wird immer Punkt aktuell festgestellt. ;)
Wenn deine neue Grafikkarte die CPU mehr fordert... was passiert? richtig der Leistungsaufnahme steigt.
Von fordernden neueren Spielen ganz zu schweigen... oder vielleicht ändert sich ja auch dein Scenario.
woher weiß man also die durchschnittliche Leistungsaufnahme in ein paar Monaten? :confused_alt:

Aber richtig in Spielen war die krasse Leistungsaufnahme nicht das Problem.
Umso schlimmer den Weg der Intel gegangen ist... Hier so krass am Hahn zu drehen...
180 Max oder so... wäre alles paletti.
Die Anforderungen an MB, die Kühlung und NT wären wohl deutlich chilliger...

hier wird nur Augenwischer betrieben.
Mag sein das Intel die spitze hat.
Das setzt sich in den Köpfen fest und wird verallgemeinert.
Das beste Paket wird aber kein K oder KF werden!
Vielleicht nicht mal ein Intel!

MfG
 
Zurück
Oben