News Mainboard mit Alder Lake-H/-P: 14 hybride Kerne aus dem Notebook im Desktop-PC

.Sentinel. schrieb:
Wie gesagt- Warum sollte eine CPU, die für den klassischen Desktopbetrieb gedacht ist, auch noch mehr Leistungskerne liefern?
Ganz einfach. Wenn ich seh was mein großer alles gleichzeitig macht. Würde er in der alten Welt. Max. 4 kerne. Überhaupt nicht klar kommen.
Klar für die meisten sind mehr als 8 kerne sinnlos. Bei seinem alten System hatten wir smt deaktiviert. 12 echte kerne haben in einigen spielen besser funktioniert.
Genau deswegen wird die nächste Intel gen in spielen kein großen Sprung hinlegen.

Das unterm Strich aber die max. 4 kernegrenze durchbrochen wurde, war aber trotzdem wichtig und ein Segen!

Mfg
 
  • Gefällt mir
Reaktionen: NMA
Matthias80 schrieb:
Würde er in der alten Welt. Max. 4 kerne. Überhaupt nicht klar kommen.
Es kommt nur darauf an, wie stark die 4 Kerne sind. Multicore war immer schon eine reine Notlösung, weil man gemerkt hat, dass man Singlecore keine großen Sprünge mehr hinlegt.
Mit eben entsprechenden Nachteilen. je höher die Kernzahl umso weniger Anwendungssoftware profitiert von der Rechenkraft.
 
Lol bis zu 109 Watt für kurze Zeit in einem Laptop. Also das ist ja beschämend. Sparsam ist das nicht. Das ist ja sogar sehr schwach wie ich finde. Intel soll sich da echt schämen für so einen Stromschlucker. Ich erwarte in Laptops ne pure Stromverbrauch effizients und keinen der innerhalb Sekunden der Saft ausgeht.
Ansonsten finde ich die zusmamen Stellung interessant. Bei spielen gab es bei dem wo ich mich interessiere 5 FPS Unterschied von 8 Kerne ohne ht/smt vs 8 Kerne mit smt/smt gerade Mal diesen Unterschied. Also ja das ist nicht so viel. Bei spielen kann man sagen noch mehr Kerne bringen da wirklich kaum was. Bei Anwendung wo ich sie habe sieht die Sache schon anderst aus.

Interessant finde ich das was auch noch kommen sollte 16 e Kerne ohne p Kerne. Die Leistung dürfte dem eines normalen 16 Kerner der beim Takt gedrosselt ist wohl näher kommen. Oder noch besser einen 16 Kerner auf 3 GHz ohne avx ,ohne hypertrading dann wäre es genau die Leistung die damit dann erreicht werden würde.
Also wenn Intel 16 e Kerne CPU machen würde entspricht dann einem ryzen 9 5950x ohne smt ,auf 3 GHz gesenkter Takt und dazu avx Einheit weggelassen.
Wenn dann der Stromverbrauch nur 80 oder wenn weniger Watt wäre könnte ich damit gut leben.
Ob da auf die 16 e Kerne dann windows 10 laufen wird ,ist ne gute Frage. Und es kommt auf die Kosten drauf an.
Sollten die zu teuer sein ,dann muss halt Intel noch smalere Kerne anbieten. Ich habe damit also kein Problem auf hypertrading zu verzichten und avx1 Einheiten ganz weg zu lassen ebenso nicht. Hm was könnte man noch weg lassen ,auf jedenfall je kleiner desto weniger Transistoren werden für die selbe Leistung benötigt. Was auch dem Stromverbrauch und den Temperaturen zu gute kommt.

Wenn also die Leistung passt dann spielt es keine Rolle das es schmaler ist also ob es dann e oder p Kerne dann sind.
Bis Intel es aber wirklich schafft ohne diesen kurzen Boost ,das dauert noch. Ich will hier mit ner Brechstange die CPU dazu zwingen den Boost der CPU ganz zu unterbinden. Das dieser auch nicht Mal 1 Sekunden nach oben Boostet. Alles zum Wohle des Stromverbrauchs und der Temperatur.

Ich sehe es so in Laptop ist die Nummer eins Temperatur und Stromverbrauch. Sonst ist es nix mobil . Für was festes kauft man sich nen Desktop PC also der wirklich Leistung braucht. Laptops haben mobil zu sein. Leistung ist da eher nebensächlich. Und wenn nicht ist Leistung pro Watt und leistung pro Grad das wichtigste von allen.
Mal sehen ob es Intel nicht verbockt. Mir reicht schon als flopp der i7 4700hq aus. Dieser es zeigt hohen Takt aber ist in Wahrheit gedrosselt weil sobald leichte Last kommt Leistung einrbicht.

Sowas brauche ich also nicht noch Mal. Hoffe wenn Intel es verbockt mit dem ryzen 7 5600h mit seinen 6 Kernen es dann besser macht. Der hat ja nur 25 Watt samt GPU. Das muss Intel erst Mal erreichen. Vorher ist es nur ein flopp. Und Mal sehen ob ich sie mir hole.
17 " ist ne große wo die Temperaturen etwas besser sind.

Beim PC schafft man das nicht. Der gesamte Laptop verbraucht also nur 40 Watt. Beim Desktop schafft man sowas leider nicht. Es sei denn es gibt einen 5 Watt Bildschirm als 24 " Monitor ,6 Kerner auf so ner leistung gedrosselt. Wobei die Leistung dann unter eines 5600h sein wird. GPU Leistung 5 Watt ist ja unmöglich zu schaffen.
Ist also unmöglich zu meistern.
 
.Sentinel. schrieb:
Mit eben entsprechenden Nachteilen. je höher die Kernzahl umso weniger Anwendungssoftware profitiert von der Rechenkraft.
Das Skalierungsproblem hat man aber genauso, wenn man statt 16 P-Cores eben 8P+8E verbaust. So viel Hintergrund-Last hat man bei den meisten Szenarien gar nicht, dass man 8E-Cores bräuchte. Es macht bei Multithreading-Anwendungen, die viele Kerne auslasten können sogar den Scheduler komplexer und auch die Anwendung selbst muss stärker darauf achten, welche Berechnungen sie auf welche Kerne legt.
Für die meisten PCs dürfte wahrscheinlich auch 4P+4E oder sogar nur 4P+2E reichen und für reine Office-PCs würde sogar eine CPU nur mit E-Cores reichen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Mcr-King
.Sentinel. schrieb:
Es kommt nur darauf an, wie stark die 4 Kerne sind.
Schon klar...
Aber trotzdem möchte denke niemand zurück zu 2 oder 4 kernern. Heute hat man halt nicht nur das eine Spiel am laufen. Wenn es auf lange Sicht keine Optimierungen für mehr kerne gibt. Dann wäre das Ende der Fahnenstange ja schon bald in Sicht! Riesige takt Sprünge oder ständig wahnsinnige neue Designs die große Leistungssprünge bringen, werden wir auch nicht sehen. Ist halt Physik. Da sind Fortschritte in der Software wohl sehr wahrscheinlicher!

Mfg
 
Ich muss echt schmunzeln, wie immer alle so tun, als wären die E-Cores keine richtigen Cores. Die E-Cores selbst sind fast so schnell wie ein Skylake Core (z.B. 6700K). Allerdings mit entsprechend weniger Frequenz.

Ich kann Battlefield 2042 mit durchgehend 120-144 FPS spielen mit nur 1x P Core und 8x E-Core. (E-Cores @ 3.9Ghz).

Absolut irrwitzig wie man das mit aller Gewalt versucht schlechtzureden, obwohl die Dinger fast so schnell sind wie ein Kern von ZEN2.
 
  • Gefällt mir
Reaktionen: .Sentinel. und qqALEXpp
t3chn0 schrieb:
Absolut irrwitzig wie man das mit aller Gewalt versucht schlechtzureden, obwohl die Dinger fast so schnell sind wie ein Kern von ZEN2.
Weil die wenigsten auch begreifen, wie der durchschnittliche Computerworkload auf die Cores verteilt ist.

Du brauchst tatsächlich letztendlich in der deutlich, deutlich überwiegenden Anzahl an Anwendungen und Spielen da draußen nur einen starken Core, der die Synchronisation bzw. Steuerung der Worker- Threads auf den kleinen Cores regelt, koordiniert und anschließend "submitted" bzw. den Ist- Zustand auf den Bildschirm bringt.

Die Techniker und das Marketing haben aber für sich entdeckt, dass es ab Punkt XY einfach billiger und wirtschaftlicher ist, einfach mehr Cores arbeiten zu lassen und der unbedarfte User geht mit der einfachen Rechnung: 2 Cores = doppelt so schnell in den Laden und wirft denen das Geld hinterher.

Das hat alles mit 2 Cores noch sehr gut funktioniert, da Computer zwischenzeitlich tatsächlich genug zu tun hatten, um 2 Cores parallel gut auslasten zu können. Aber!- Da laufen die Tasks asynchron.
Sprich der Virenscanner läuft völlig unabhängig vor sich hin, ohne sich mit irgendwelchen anderen Tasks abstimmen zu müssen.

Das geht aber beim großteil von Anwendungssoftware nicht, weil die im großen und ganzen zu einem festen Zeitpunkt XY einen konsistenten Zustand, ein Ergebnis bzw. ein fertiges Frame benötigt.

Deshalb ist es auch egal, ob Du 16 oder 64 gleichwertige cores auf ein Spiel loslässt. Die Wahrscheinlichkeit ist sogar höher, dass ab einer gewissen Corezahl der Verwaltungsoverhead die Performance wieder senkt.

Und wie gesagt- Dass jetzt gerade hier die AMD- Fraktion zu nöhlen anfängt, die hier von Intel in optimierter Form letztendlich das geliefert bekommen, was sie sich ursprünglich bei Zen 1 erhofft hatten (Cores, um die Hintergrundtasks zu erledigen) ist schon etwas schräg.
Die wurde aber inzwischen auch schon mit den Realitäten konfrontiert. Die wenigsten, die sich damals Zen 1 angeschafft haben (begründung war meist, dass viele Kerne zukunftssicher seien und man für die nächsten 5 Jahre plane), haben noch die Ursprungsversion in ihren PCs.
Sie argumentieren hier also in einer Art und Weise durch die sie in der Praxis im Normalfall selbst schon überholt worden sind. Und das ist meines Erachtens ebenso schräg.

Viele interessieren sich nicht mehr dafür, wie Computer in der Basis funktionieren.
Wie Programme aufgebaut sind usw. Deswegen ist auch überhaupt kein greifbares Verständnis mehr dafür da, dass es mathematische Grenzen gibt, harte Grenzen bei der Parallelisierung von Routinen usw. usf.

Anstatt sich dann zu informieren, werden dann in Foren Stammtischparolen geschwungen und zum gemeinschaftlichen Circle- Jerk aufgerufen.

Es ist wirklich schade, dass das seit langem mal wieder wirklich innovativ und praxisnah umgesetzte Big- Little- Prinzip hier auch noch schlechtgeredet wird.

Für mich als Entwickler war das im PC- Sektor schon lange Zeit der einzig intelligente Weg um Workloads effektiv und typgerecht bewältigen zu können. Deswegen begrüße ich auch die kurzzeitig hohen Booststufen, die einige Systeme zur Verfügung stellen.

In diesem Sinne:
Matthias80 schrieb:
Schon klar...
Aber trotzdem möchte denke niemand zurück zu 2 oder 4 kernern.
Doch- Bei gleichbleibender Gesamtrechenleistung hätte ich lieber einen 1-Kern Prozessor als einen 16 Kerner. Der einkern Prozessor bringt seine volle Rechenleistung komplett anwendungsunabhängig auf die Straße und macht ausnahmslos alles schneller.
Die 16 Kerne lasten nur wenige Anwendungen aus und der Rest würde im Extremfall entsprechend lahm dagegen ablaufen knapp 1/16tel so schnell, rein auf die Core Rechenleistung bezogen.

t3chn0 schrieb:
Absolut irrwitzig wie man das mit aller Gewalt versucht schlechtzureden, obwohl die Dinger fast so schnell sind wie ein Kern von ZEN2.
Naja- Ein Beweis dafür, dass es vielen nicht um Technik, sondern den Markenfetisch geht.

So wie AMD mit der Infinity- Fabric und den neuen Cache- Hierarchien- und Ausbaustufen tolle Innovationen in den Markt gebracht haben, hat das jetzt Alder Lake eben auch. Eigentlich müssten alle jubeln...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, Thomaswww, owned139 und eine weitere Person
.Sentinel. schrieb:
Es ist wirklich schade, dass das seit langem mal wieder wirklich innovativ und praxisnah umgesetzte Bug- Little- Prinzip hier auch noch schlechtgeredet wird.

Für mich als Entwickler war das schon lange Zeit der einzig intelligente Weg um Workloads effektiv und typgerecht bewältigen zu können. Deswegen begrüße ich auch die kurzzeitig hohen Booststufen, die einige Systeme zur Verfügung stellen.

.Sentinel. schrieb:
Doch- Bei gleichbleibender Gesamtrechenleistung hätte ich lieber einen 1-Kern Prozessor als einen 16 Kerner. Der einkern Prozessor bringt seine volle Rechenleistung komplett anwendungsunabhängig auf die Straße und macht ausnahmslos alles schneller.
Hab mal jetzt nur die 2 Stellen stellvertretend rausgepickt, um nicht den ganzen Beitrag zu zitierern.
Da kommt es dann auch stärker auf den Entwickler an, dass er die Tasks seiner Software effizient auf die P- & E-Cores verteilt und es dem Scheduler des OS entsprechend mitteilt.
Der Scheduler von Windows 11 kann zwar prinzipiell mit big.little umgehen, seine Entscheidungskriterien, was er auf welchen Kern schiebt, sind aber halt begrenzt und liefern nicht immer das optimale/effizienteste Ergebnis.

So lange die Software also einfach nur X Threads/Tasks in den Scheduler kippt und den dann machen lässt, verpuffen ja unter Umständen die Vorteile von big.little. Eine 8P+8E CPU ist dann zwar immer noch schneller als 10P Kerne auf gleicher Chipfläche aber kann seine Vorteile gegenüber einer CPU mit 16 P-Kernen nur bedingt ausspielen. Bei letzterer wäre ja egal, auf welchen Kernen der Workload landet, da alle gleich effizient/ineffizient sind.
 
mibbio schrieb:
Hab mal jetzt nur die 2 Stellen stellvertretend rausgepickt, um nicht den ganzen Beitrag zu zitierern.
Da kommt es dann auch stärker auf den Entwickler an, dass er die Tasks seiner Software effizient auf die P- & E-Cores verteilt und es dem Scheduler des OS entsprechend mitteilt.
Genau das meine ich. Im Allgmeinen werden die Möglichkeiten in der Parallelisierung von Software von vielen ordentlich überschätzt.
Das hat auch nichts mit der Unfähigkeit oder dem Unwillen von Entwicklern zu tun. Seit knapp 20 Jahren haben wir Multi- CPU- Systeme und es wird immernoch daran festgehalten, dass "die Entwickler", die sich auf alle nur erdenklichen Weisen ein Bein rausreißen um auf Multicore zu optimieren nur wollen müssten und auf magische Art und Weise liesset sich ein Problem dann verteilt auf viele Recheneinheiten lösen.

Das ist ein Irrglaube.

Der Scheduler von Windows 11 kann zwar prinzipiell mit big.little umgehen, seine Entscheidungskriterien, was er auf welchen Kern schiebt, sind aber halt begrenzt und liefern nicht immer das optimale/effizienteste Ergebnis.
Der Hardware- Scheduler macht an sich schon einen mehr als ausreichend guten Job. Die Softwareoptimierung ist nur das I-Tüpfelchen.

So lange die Software also einfach nur X Threads/Tasks in den Scheduler kippt und den dann machen lässt, verpuffen ja unter Umständen die Vorteile von big.little.
Wie gesagt- Alder Lake hat einen Hardware- Algorithmus, der die Workloads sehr zuverlässig zuteilt.

Eine 8P+8E CPU ist dann zwar immer noch schneller als 10P Kerne auf gleicher Chipfläche aber kann seine Vorteile gegenüber einer CPU mit 16 P-Kernen nur bedingt ausspielen. Bei letzterer wäre ja egal, auf welchen Kernen der Workload landet, da alle gleich effizient/ineffizient sind.
Exakt- Deswegen rede ich ja immer von "Gesamtrechenleistung".
Sprich - 16 Kerne gegen 1 Kern. Beide gleicher Cinebench Multithreading- Score.
Da wäre der Griff zum 1- Kerner ein No- Brainer....
 
t3chn0 schrieb:
Absolut irrwitzig wie man das mit aller Gewalt versucht schlechtzureden, obwohl die Dinger fast so schnell sind wie ein Kern von ZEN2.
Puh, naja eigentlich nicht. Die E Cores haben weder die IPC, den Takt, noch den Cache um mit Zen2 mithalten zu können.
Das 1+8 Setup funktioniert nur so gut, weil der Golden Cove Core den Mainthread schultert.
 
@guggi4

Es ist einzig der Takt, der hier dafür sorgt, dass die E-Cores nicht komplett davon ziehen. Die IPC liegt mit Sicherheit auf ZEN2 Niveau. Taktbereinigt sollten ZEN2 und Skylake auf einem ähnlichen Niveau sein:

1648982587206.png
 
t3chn0 schrieb:
Die IPC liegt mit Sicherheit auf ZEN2 Niveau. Taktbereinigt sollten ZEN2 und Skylake auf einem ähnlichen Niveau sein

Das sieht CB anders:

Zen2.jpg
 
  • Gefällt mir
Reaktionen: Matthias80
t3chn0 schrieb:
Es ist einzig der Takt, der hier dafür sorgt, dass die E-Cores nicht komplett davon ziehen. Die IPC liegt mit Sicherheit auf ZEN2 Niveau.
Laut CB hat skylake bei 6% mehr Takt 2% mehr Performance als Zen2 und der E-Core liegt noch einmal 3% hinter Skylake.

Dazu fehlen dann noch ganze 20% Takt, was am Ende wohl in ~25-27% mehr Performance von Zen2 endet.
das ist für mich nicht "fast so schnell wie Zen2"
 
  • Gefällt mir
Reaktionen: c9hris und cookie_dent
Oh man ey, dann ist er eben nur FAST so schnell. Wovon reden wir jetzt hier? Es ist komplett egal.

Es geht darum, dass so getan wird, als wenn die E-Cores komplette Krücken wären und keine vollwertigen Kerne. Selbst wenn sie nur so schnell wären wie ZEN 1, der noch immer von vielen als Heilsbringer gesehen wird, wäre es ordentliche Leistung für "nur" Efficiency Cores.

Von mir aus können die Dinger auch zwischen Zen+ und Zen2 landen.

Es geht doch wieder nur ums Argument, dass man nicht zugeben will, dass die Dinger obwohl sie "Efficiency Cores" sind, so schnell sind, wie viele Kerne von den meisten Usern hier, die auf ZEN XY gesetzt haben und damit scheinbar happy sind.

Die Performance dürfte zumindest auf dem Niveau eines 2600 sein, wenn das glücklicher macht. Soweit ich weiß taktet dieser im Allcore Boost auch in etwa mit 3.9 - 4.0Ghz.

Um Gottes Willen, ich will auf gar keinen Fall den heiligen ZEN2 angreifen und mit dem schlechten Efficient Core von Intel vergleichen.

Es ist schade, dass man die P-Cores nicht komplett abschalten kann. Sonst könnte man das easy testen. Ich könnte höchstens einen PCore mit nur 800Mhz laufen lassen und die E-Cores mit 3.8Ghz. Vielleicht käme das in etwa hin.
 
Ist ein 1700 auch FAST so schnell im Gaming wie ein 7700K? Nein? Denn dort sinds laut CB "nur" 17%. Einen Unterschied von 25% als nicht relevant abzutun ist lächerlich, selbst ein 2700K war "nur" 24% schneller als ein FX8350!
Deine künstliche Aufregung ist hier dezent peinlich, du hast behauptet, die E-Cores wären so schnell wie Zen2, dir wird das Gegenteil aufgezeigt und jetzt wirst du hier polemisch.
 
@.Sentinel.
@ Beitrag 47:

Also ich sehe es zwar ähnlich wie du,es kommt aber auch drauf an wie viele Anwendung man Verwendet.
Ich habe herausgefunden das mein 5950x dank 16 Kerne bei 2 gleich stark auslastete Anwendung die Leistung nicht schlechter wurde.Bei einem 8 Kerner mit seinen e Kernen und so also 12900k stellte ich fest ja da wird die Leistung schlechter mit 2 gleich Anspruchsvollen Anwendung.Aber auch mit jedem anderen 8 Kerner ebenso.Erst ab 12 Kerne war dies nicht mehr der Fall.

Weil mir einer aus der Arbeit weis machen wollte das 2 Anwendung gleichzeitig sich gegenseitig aus bremsen würden. Nun ja trifft halt nur auf einer gewissen CPU dann schon zu,aber nicht bei allen.
Und da ist der Vergleich von 1 Kern zu 16 wirklich ein herber harter Vergleich wie ich finde.
Wenn man es also so wie ich macht,lastet man immer gut eine CPU aus.Und das obwohl ich keinerlei AVX last auf die Kerne lege und nicht mal alle Future der Befehle.Die scheinen wohl keine rolle zu spielen.Diese Unterstützen nur die Auslastung besser um alle Kerne richtig aufzulasten,mehr aber auch nicht.Heißt die Befehlssätze muss man nicht unbedingt nutzen um Kern voll aus zulasten.
Ich dachte früher immer man bräuchte alle Befehlsätze um eine CPU richtig auszulasten. Ich habe mich geirrt gehabt.Man muss halt das gesamte sehen und nicht nur einen Teil des ganzen.
Auch du wirst das ganze auch noch besser verstehen wenn man alles ausprobiert. Ich habe da echt vieles ausprobiert beim Videoumwandeln um das besser zu begreifen. Wenn mehr so wie ich es machen,verstehen gewiss noch mehr auf was es wirklich ankommt.
Ich habe fast alle AMD CPUs aller möglichen Serien und auch ganz viele Intel CPUS getestet.Darum auch ein gutes Gesammtbild dadurch bekommen.
 
  • Gefällt mir
Reaktionen: Matthias80 und .Sentinel.
guggi4 schrieb:
Ist ein 1700 auch FAST so schnell im Gaming wie ein 7700K? Nein? Denn dort sinds laut CB "nur" 17%. Einen Unterschied von 25% als nicht relevant abzutun ist lächerlich, selbst ein 2700K war "nur" 24% schneller als ein FX8350!
Deine künstliche Aufregung ist hier dezent peinlich, du hast behauptet, die E-Cores wären so schnell wie Zen2, dir wird das Gegenteil aufgezeigt und jetzt wirst du hier polemisch.
Ich werde nicht polemisch, sondern Du fühlst Dich auf den Schlipps getreten, mehr nicht.

Du willst scheinbar nicht verstehen, dass es mir nur darum ging aufzuzeigen, dass die E-Cores keine Krücken sind.

Dass die E-Cores jetzt zwischen ZEN+ und ZEN2 gelandet sind, statt eine Punktlandung auf ZEN2 zu machen, ist doch vollkommen egal.

Von mir aus, könnten die auch so schnell wie ein Vishera Core sein.

Mein Punkt ist, dass hier von vielen gesagt wird, dass die E-Cores nichts bringen und keine "echten" Kerne sind.
Wenn es Dir jetzt viel besser geht, dann nehme ich meine Aussage zurück.

Nein, die E-Cores sind nicht ansatzweise so schnell wie ZEN2, sondern liegen nur gleichauf mit ZEN+. So, ich hoffe damit bist Du zufrieden.
 
IMG_20220401_150727.jpg


Wäre wirklich cool für einen kleinen Server. Formfaktor ist allerdings mini-ITX, wodurch das Ganze noch besser wird. Zwei Netzwerkschnittstellen scheinen auch verbaut zu sein. Hier wäre 2x2.5GbE wünschenswert.
 
Dort wo es wirklich auf Effizienz ankommt, Ist Alder Lake allerdings nicht auf Augenhöhe mit Cezanne wie man gut hier rauslesen kann. Nur wenn man viel Energie reinwirft, also ab 45W in dem Fall, kann Alder Lake überzeugen. Gehts darunter, also Richtung 35 oder gar 25W werden die vollen AMD Kerne deutlich überlegen. Mit der Effizienz kann es somit nicht weit her sein, dabei sollte es vom Konzept her ja eigentlich genau anders herum laufen...
Es ist für Intel sicher ein längst überfälliger Schritt um Mobil zumindest wieder auf sowas wie Schlagdistanz zu kommen, daher auch mein Respekt dazu. Aber ein wirklich großer Wurf, speziell in dem erhofften Niedrigwattbereich ist es keineswegs. Schade eigentlich.
Als stationäres Modell wie hier, kommts dann aber sicher nicht auf das letzte Watt Verlustleistung an, daher kanns dann schon passen...
 
latiose88 schrieb:
Also ich sehe es zwar ähnlich wie du,es kommt aber auch drauf an wie viele Anwendung man Verwendet.
Erstens das und zweitens vor allem auch welche.

Auch bei einem 16 Core Ryzen sollte man nicht daran denken nebst CPU Video Converting oder Rendering noch sinnvoll spielen zu wollen.

Bzw. ist es bei jeder CPU schlicht eine Sache der Priorisierung und Organisation. Ich kann jeden Task low priority setzen, so dass der Latenzkritische Haupttask nur wenig angerührt wird.

Ich kann mit Processor- Lasso & Konsorten sogar einzelne Kerne zuweisen/reservieren.

Nur habe ich auch bei einem 5950x das Kunststück nicht hinbekommen, ohne besondere Einstellungen ein Video konvertieren zu lassen oder ein Bild rendern zu lassen oder bei Photoshop batches durchlaufen zu lassen und dann trotzdem noch sinnvoll zocken zu können, wenn es sich um einen modernen Titel handelt.

Somit- Ich spreche keinen Prozessor seine Daseinsberechtigung ab. Ich sage nur, dass Alder- Lake für den Desktop- typischen Einsatz eine sinnvolle Technik etabliert.
Ergänzung ()

peru3232 schrieb:
Dort wo es wirklich auf Effizienz ankommt, Ist Alder Lake allerdings nicht auf Augenhöhe mit Cezanne wie man gut hier rauslesen kann. Nur wenn man viel Energie reinwirft, also ab 45W in dem Fall, kann Alder Lake überzeugen.
Naja- Wenn man liest, dass AMD sich die Zahlen zusammenschummelt, dann seh ich da keinen signifikanten Unterschied...

Ich zitiere:
AMDs extrem hoher Punktewert für den Ryzen 9 6900HS lässt sich zudem nicht mal gemäß Hersteller-eigenen Tests untermauern – der Wert ist für 35 Watt definitiv zu hoch. Der AMD Reviewer's Guide zum Prozessor spricht hier beispielsweise nur von rund 5.050 Punkten in CB20 – angeblich auch bei 35 Watt. Im CB-Test ist das eher die Konfiguration mit 35 Watt Basispower, aber samt Turbo von 45 Watt – der im Asus ROG Zephyrus G14 dauerhaft gehalten wird. Ergebnisse von anderen Tests wie...

Ist aber nicht weiter schlimm, da eben beide Architekturen schön an der Effizienz geschraubt haben.
Ein Hickhack über Kleinstunterschiede, die dann hier in den Foren teilweise zu "Vernichtung" und "Zersägen" hochtstilisiert werden, habe ich sowieso noch nie verstanden.

Zudem sind die Archtiekturen nunmal für unterschiedliche elektrische Sweetspots konstruiert. Wenn Alder- Lake mit etwas mehr Strom in der Spitzenleistung effizienter ist, dafür AMD dann aber im Niedrigst- Sektor an Effizienz gewinnt, dann ist es für mich wieder eine Frage des Einsatzes und was man mit der Maschine nun wirklich machen will. Für mich bleibt es dennoch Augenhöhe, weil im Schnitt aller Szenarien keine der beiden Architekturen einen signifikanten Vorteil erarbeiten kann.

Wie gesagt- Anstatt, dass sich alle freuen, dass die beiden Konkurrenten endlich mal wieder größer an der Technik schrauben, zerhackt man sich hier wieder auf Markenfetisch- Basis.
Das sehe ich nicht gern.
 
Zuletzt bearbeitet:
Zurück
Oben