Leserartikel Performance Efficiency Suite (PES)

@Nolag & @ @TheCrazyIvan
Nunja anbetracht dessen, das auch Games ohne dem ersten Kern reproduzierbar besser laufen, wäre es im ST-Test halt schonmal blöde wenn unter Teillast viel der 1. Kern genutzt wird.
Das beispielsweise CS:GO im Ulletical FPS Benchmark reproduzierbar besser läuft ohne dem ersten Kern, zudem SMT abgeschalten wird ja wohl irgendwie seine Gründe haben.
https://www.igorslab.de/community/threads/bitsum-process-lasso-erfahrungen-infos-hilfe.1856/

Man solllte es zumindest ausprobieren und Vergleichen.

Ansonsten, natürlich keine Einwände das die Last bzw Rechenarbeit auf möglichst alle Kerne verteilt wird, das macht ja Sinn, aus theoretisch einer Vollast, mehrere Teillasten zu machen, solange es die Mathematik da eben zulässt.

Gruss HL
 
HasseLadebalken schrieb:
Das beispielsweise CS:GO im Ulletical FPS Benchmark reproduzierbar besser läuft ohne dem ersten Kern, zudem SMT abgeschalten wird ja wohl irgendwie seine Gründe haben.
SMT abzuschalten bringt eigentlich nur Vorteile bei abhängigen Threads im Teillastbereich. Das ist bei vielen Games so. Bei Cinebench ist das allerdings nicht der Fall.
 
Hier mal das Ergebnis aus meinem Lenovo Yoga Slim 7 Pro und 5900HX Prozessor:

Screenshot (4).png
 

Anhänge

  • Cb23Mt.csv
    1,9 MB · Aufrufe: 234
  • Cb23St.csv
    2,4 MB · Aufrufe: 198
  • Gefällt mir
Reaktionen: Freiheraus
@HasseLadebalken
Um ehrlich zu sein, lese ich dem von Dir verlinkten Thread recht viel Esoterik.
Klar kann die Deaktivierung von SMT bei manchen Workloads helfen. Allerdings ist der Effekt in aller Regel derart gering, dass ich mir den Aufwand schlicht sparen würde - abseits einiger weniger professioneller Workloads vielleicht.

Außerdem verstehe ich überhaupt nicht, wie Du auf die Idee kommst, Dienste würden "immer" auf Core 0 laufen - und der Scheduler würde zusätzlich noch andere Threads dort einlasten. Mit Verlaub: Das ist völliger Quatsch.
Beispiel: Der Microsoft SQL Server ist im Grunde ein Dienst wie jeder andere auch (Virenscanner, Windows Update Dienst, etc.). Und der läuft natürlich nicht immer und auch nicht nur auf Core 0. Der SQL Server läuft auf so vielen Kernen, wie es die Lizenz gestattet und wie man es konfiguriert. Und welche das sind, entscheidet einzig und allein der Scheduler. Und das gleiche gilt für jede andere Anwendung. Der Scheduler packt auch nicht Threads eines Spiels auf die gleichen Kerne, auf denen gerade ein Dienst Rechenzeit benötigt (sofern weitere frei sind). Auch ist dem Scheduler sehr wohl bewusst, dass der erste Thread auf einem Kern schneller verarbeitet wird als der zweite (SMT) Thread. Und das ist alles nicht neu.
Neu ist, dass bei Win 11 Das ganze für Big little weiter optimiert wird (inklusive weiterer Informationen der CPU in Richtung Scheduler). Laut Intel lautet die Zuteilungsreihenfolge hier grob: Big > little > SMT-Big
Ergänzung ()

@Javeran
Danke für die Werte. Was für ein Preset hattest Du gewählt? Nur 7 Watt im ST sieht sehr nach Power Saving oder ähnlich aus. Wie sieht es mit normalem Profil aus?
 
  • Gefällt mir
Reaktionen: Tanzmusikus
TheCrazyIvan schrieb:
Außerdem verstehe ich überhaupt nicht, wie Du auf die Idee kommst, Dienste würden "immer" auf Core 0 laufen - und der Scheduler würde zusätzlich noch andere Threads dort einlasten. Mit Verlaub: Das ist völliger Quatsch.
Ich finde Deinen Einwand berechtigt, sehe es aber selbst mit Fragezeichen "?".

Ich kann für mein System sagen, dass im Desktop-Betrieb nur die Kerne 0-3 per Taskmanager belastet sind.
Habe dann die 13 Firefox-Prozesse (mit ~500 Tabs) so affiniert, dass Kerne 0-3 vermieden werden.
Nun sehe ich eine Belastung auf den Kernen 4-5.

Ich kann nicht sagen, ob oder dass bestimmte Prozesse auf den 1. Kern+SMT festgelegt sind, aber ich sehe bei meinem 8-Kerner zumindest die Tendenz die ersten 2 Kerne+SMT zuerst zu belasten.

Als Grund vermute ich die Stromsparmaßnahme des Schedulers nur wenige Kerne samt SMT zu aktivieren, damit die anderen ruhen können.

***

Unter Belastung habe ich das Ganze gerade nicht angeschaut. Das müsste ja ohne "Vollbild" geschehen (also z.B. Randloses Fenster) bei Spielen und anderen Anwendungen, damit ich den Taskmanager anschauen kann.

Oder ein zusätzliches Tool wie z.B. AB/RTSS, AMD-Link Server, HWiNFO64, AIDA64 zum Live-Auslesen oder ggf. mit Logging-Funktion.

Ich sehe da Potenzial, aber auch nur wenig Mehrwert, um +/- 5-10 FPS mehr zu bekommen.
Potentiert sich vermutlich mit SAM/CAM, RAM-OC.

***

Ob es allerdings für bessere Performance-Effizienz sorgt, das steht noch als großes Frage"?"-Zeichen! 😉
Müsste man dann auch mit der PES prüfen, was es bringt.

Grüße

P.S.
In diesem Beitrag sehe ich eine gute Erklärung für die Prioritätensetzung von Kernen + SMT.
CCX und Big/Little spielen ebenfalls eine Rolle. Darauf werden diverse Prioritäts-Tools noch nicht optimiert sein.
 
Zuletzt bearbeitet:
@TheCrazyIvan
Was für Dienste, was für ein SQL Server ?

Ich spreche von Windows selbst, Kernel und gewisser zum Teil auch älterer Software, die hauptsächlich oder eben nur Core 0 belasten ohne zutun.
Nachdem man die Affinity verändert hat, hat man die Last eben nicht mehr so bei Core 0 sondern entweder auf dem zweiten Core und nur dort, oder verteilt auf alle anderen ab Core 1 (also 2. Kern)

Das ist nicht esoterisch, sondern nachmessbar und reproduzierbar wenn man einfach mal das Overlay vom MSI Afterburner bzw. RTSS (Riva Tuner Statistics Server) verwendet.

Was das aktivieren/deaktivieren von SMT per Bios angeht da hast du Recht, das muss man so auch nicht deaktivieren, wenn man von einer Software aber weiss das die mit SMT schlechter läuft, nimmt man ihr einfach die SMT-Threads zu den Cores weg per Affinity und dann hat sich das mit der SMT-Bremse wenn wir das mal so bezeichnen wollen.
Ein sehr gutes Beispiel dafür ist NFS - Brennender Asphalt, wenn du da nichts machst, läuft das quasi nur auf Core 0 also Kern 1, last 100% und zwar die ganze Zeit. (geht natürlich nicht ohne Patches und in 3Dfx also GlideAPI zudem nicht ohne dgvoodoo)
Änderst du aber vor dem Start die Affintiy, hast du ziemlich exakt diese Last, verteilt auf alle anderen Kerne, auf Core 0 (also Kern 1) aber dennoch roundabout 20% Last.

Ähnliches passiert mit CS:GO, das skaliert kaum bis garnicht auf mehr als 4 Kernen, auf einem 4 Kerner machst du garnichts, hast du mehr als 4 Kerne, stellst die Affinity um, hast du reproduzierbar mehr Leistung im Ulletical FPS Benchmark und abgesehen von der Last des Spieles auf sämtlichen Cores, dennoch ne Last auf dem 1. Kern also Core 0

Das da also bei uralt, sowie junger Software, irgenetwas auf dem 1. Kern Leistung kostet und Software die von der Affinity her nicht passt, das reproduzierbar nachzuweisen ist, lässt sich also schlecht von der Hand weisen.

Assetto Corsa Competizione ist auch so ein witziger Fall, denn obwohl das hauptsächlich Grafikkarte zum Frühstück verspeist, ergibt der Replay Benchmark von Cracky (Rawiioli) folgendes Preis:

Benchmark hoch cpu0 und 1 raus also 1. Kern weg samt smt :
04-06-2021, 02:39:15 AC2-Win64-Shipping.exe benchmark completed, 45064 frames rendered in 431.031 s
Average framerate : 104.5 FPS
Minimum framerate : 75.7 FPS
Maximum framerate : 144.8 FPS
1% low framerate : 69.9 FPS
0.1% low framerate : 45.8 FPS
Benchmark hoch
04-06-2021, 02:26:29 AC2-Win64-Shipping.exe benchmark completed, 45074 frames rendered in 431.204 s
Average framerate : 104.5 FPS
Minimum framerate : 74.5 FPS
Maximum framerate : 143.8 FPS
1% low framerate : 69.4 FPS
0.1% low framerate : 35.2 FPS

Das ist nicht esoterisch, sondern reproduzierbar, nachmessbar
Jetz bin ich mal auf die Erklärung gespannt warum in low sich soviel tut aber in avg quasi garnichts.
Mit dem passenden Monitor Vsync und G-Sync bzw. Freesync (G-Sync compatible), was von beidem läuft wohl besser, zumal wenn man keinen Monitor hat der dies kann, selbst wenn es eine Graka schaffen würde und die CPU nicht limitiert, bei derselben Auflösung 144fps, welche Einbrüche wären einem dann wohl lieber.

Es gibt Mathematik, die unungänglich ist auf Core 0 bzw Kern 1 und entweder ist die einem eben im Weg oder eben nicht.
CS:GO und Assetto Corsa Competizione sind zwei solche Fälle nunmal dummerweise

@Tanzmusikus
In CS:GO hast du im Ulletical FPS Benchmark average, in der Konsole nach dem Bench eine Differenz von roundabout 20 bis 30 fps

Gruss HL
 
HasseLadebalken schrieb:
Ein sehr gutes Beispiel dafür ist NFS - Brennender Asphalt, wenn du da nichts machst, läuft das quasi nur auf Core 0 also Kern 1, last 100% und zwar die ganze Zeit. (geht natürlich nicht ohne Patches und in 3Dfx also GlideAPI zudem nicht ohne dgvoodoo)
Änderst du aber vor dem Start die Affintiy, hast du ziemlich exakt diese Last, verteilt auf alle anderen Kerne, auf Core 0 (also Kern 1) aber dennoch roundabout 20% Last.
Ist das Dein Ernst? Ein Spiel aus dem letzten Jahrtausend? Dir ist schon klar, dass es damals weder Multicore Prozessoren in nennenswertem Umfang noch SMT gab?
Und Deine Zahlen sind für mich ein Fall von: Wer misst, misst Mist (AKA Messungenauigkeit).
HasseLadebalken schrieb:
Es gibt Mathematik, die unungänglich ist auf Core 0 bzw Kern 1 und entweder ist die einem eben im Weg oder eben nicht.
CS:GO und Assetto Corsa Competizione sind zwei solche Fälle nunmal dummerweise
Nein, die gibt es bei aktuellen Prozessoren nicht. Jeder Kern kann exakt die selben Operationen ausführen. Und der Scheduler "weiß" das auch.
 
@Tanzmusikus
Dein Ryzen besteht ja noch aus 2 CCX a 4 Kernen. Da arbeitet der Scheduler IMHO so, dass immer zu erst ein CCX voll gemacht wird. Das dient der Performance, damit die Kommunikation zwischen zwei Threads nicht das CCX verlassen muss. Ist bei meinem R7 4700U genau so. Erst bei Zen3 dürfte das Verhalten anders sein.
Allerdings würde ich annehmen, dass weitere Threads nicht per SMT auf dem ersten CCX laufen sondern erst einmal alle Kerne mit jeweils einem Thread befeuert werden, bevor das passiert.
Was bei der Diskussion wichtig ist: Bloß weil laut Task Manager zig Prozesse aktiv sind, bedeutet das noch lange nicht, dass die alle unentwegt Prozessorzeit benötigen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
@TheCrazyIvan
ja und, es ist gepatched und funktioniert, reproduzierbare Last

Ahja und deswegen läuft die Software dann ja besser reproduzierbar wenn man mit der Affinity eingreift, macht also keinen Sinn was du dazu meinst, merkst du selber nicht wahr.

Afaik hat mein 2600X auch 2 CCX, soweit man sieht im Beispiel CS:GO kann eben CS:GO auf dem ersten Kerne und dem SMT Thread keine Last mehr anlegen.
Was da noch Last anlegen kann, ist Windows, Treiber, API und oder API-Overhead oder was sonst noch Overhead auf der CPU verursacht, der sich eben aber nicht von CPU0 woanders hinverschieben lässt.

Das was ich da beobachte, ist reprodzierbar, mit unterschiedlichen API's durch verschiedene Games, das also wohl einiges nirgendwo anders als auf Core 0 also Kern 1 funktioniert.
Das liegt nunmal an der Programmierung, bzw Entwicklerseite, sry ich kenne Programmierer und daher weiss ich das.
Das was du da machst ist Schwurbeln, das hat nichts mit technischem Verständnis zu tun, technische Zusammenhänge erkennen und entsprechend messen :freak:

Zudem ist es ein alter Hut, man schaue beispielsweise mal zu "Far Cry 3" das was es letzten kostenlos von Ubisoft gab dazu ins -> PCGamingWiki <- (Link)

Low FPS on modern multi-core CPUs • Link


Set CPU affinity[citation needed]
  1. Open the game.
  2. Once in-game, press Ctrl+Alt+Del to open the Task Manager.
  3. Click on Detail tab and find FarCry3.exe or FarCry3_d3d11.exe.
  4. Right-click, select Set affinity.
  5. Uncheck CPU0, CPU1 and every other core after that (CPU3, CPU5...) leaving max 4-5 CPU cores selected (e.g. on 12 cores/threads CPU only check CPU2, CPU4, CPU6, CPU8, CPU10).
  6. Confirm with OK and monitor fps changes in game window.
  7. Play with affinity settings until optimal FPS achieved.
  8. Install a program such as Process Lasso to make the affinity permanent.

Da ist es auch dasselbe, mal davon ab das man es an sich nicht braucht dort, weil VSync an und das sollte laufen, nachweisbar, ohne VSync und oder FPS-Limit, ist es da aber dasselbe.
Dieses game ist von 2012 da waren wir schon bei DualCore's, HTT seitens Intel, also HyperThreading, eigentlich eher sogar schon bei Quad Core's bzw. den ersten Six Cores mit dem AMD Phenom II 1055T zum Beispiel, die hatte wir schon um 2008 oder 2009. (als GTA IV rauskam hatte ich jedenfalls gerade aufgerüstet auf so einen 6 Kerner von einem 940BE)

Da im PCGamingWiki wird exakt das beschrieben was ich hier zu CS:GO beschreibe

CPU0, CPU1 stellt den ersten Kern und den dazugehörigen SMT bzw. HTT-Kern da, weiterhin wird HTT und somit auch SMT deaktiviert empfohlen, CPU3 SMT-Thread zu CPU2 (2.Kern), CPU5 SMT-Thread, CPU4 ist der 2. Kern...->"und so weiter eben"

Nur es wird hier eben so beschrieben, das man es nach dem Start immer nachträglich macht im Task-Manager, das ist eben unpraktisch zum einen, zum anderen kann es manche Software auch so garnicht ab das man das ändert während diese läuft, daher besser mit einem Tool sodass es direkt am Start passiert mit der richtigen Affinity.
Manche Games, beispielsweise mit Steam, da muss man das für "steam.exe" setzen, weil man es mit einem Tool sowie auch so mit dem Task-Manager nicht setzen kann.
Liegt einfach daran weil es keinen anderen Weg gibt, als das die Games die Affinity vom Steam-Clienten übernehmen, dabei auch in der Regel bleiben, da kann man dann soviel einstellen wie man will während der Prozess läuft.
Es sind eben "Unterprozesse", man könnte also im Prinzip auch die ganzen Clients einfach so konfigurieren in Process Lasso beispielsweise, bei Fortnite funktioniert das beispielsweise auch nur genau so.


Gruss HL
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Ich würde sagen, Du hast damit völlig Recht, dass Core0 (inkl. Core1 bei HT-fähigen CPUs) eine Sonderstellung einnehmen. Die Frage ist, was alltagstauglicher ist bzw. wofür sich der Programmierer der PES entscheidet.

Nicht jeder PC-/NB-Nutzer stellt bei allen möglichen hohe MC-Last verursachenden Programmen den Core0 (+evtl. Core1) ab. Bei z.B. DualCore-Prozessoren macht es wahrscheinlich weniger Sinn 50% der Kerne vom Prozess abzuziehen. Bei mind. 3 Kernen widerum macht es wahrscheinlich schon mehr Sinn.

Danke für das Teilen Deiner Erfahrungen!
 
Tanzmusikus schrieb:
Ich würde sagen, Du hast damit völlig Recht, dass Core0 (inkl. Core1 bei HT-fähigen CPUs) eine Sonderstellung einnehmen. Die Frage ist, was alltagstauglicher ist bzw. wofür sich der Programmierer der PES entscheidet.

Nicht jeder PC-/NB-Nutzer stellt bei allen möglichen hohe MC-Last verursachenden Programmen den Core0 (+evtl. Core1) ab. Bei z.B. DualCore-Prozessoren macht es wahrscheinlich weniger Sinn 50% der Kerne vom Prozess abzuziehen. Bei mind. 3 Kernen widerum macht es wahrscheinlich schon mehr Sinn.

Danke für das Teilen Deiner Erfahrungen!
PES ist ein Skript, es ist von Cinebench abhängig ;-)

Das ist natürlich soweit richtig, mit einem DualCore bringt dir das garnichts, mit einem QuadCore allerdings schon, solange eben die Transistoren ausreichen für die Aufgaben.

Immer gerne,
hier auch mal was Windows so macht, 10 Sekunden mit einem Video vom Firefox, pausiert, minimiert
Einfach mal Screenshot, nach 10 Sekunden :-)
Da kann man mal sehen was mit dem Scheduling passiert, Windows-Kernel und Treiber, im Prinzip ist das das was man dann nun "IDLE" schimpfen würde, da die Kiste nunmal quasi keine Aufgabe hat.

Nun stelle man sich als weiteres Beispiel mal vor, man beansprucht die DoxBox mal gewaltig, man halt sicherlich lieber auf irgendeinem und einen weiteren Core, sehr konstante Last bei umd die 80 bis 90%, bei einem weiteren so 15 bis 30 nebst bis zu 20% Last auf dem 1. Kern, anstelle von quasi alles auf dem ersten Kern und der ist dann ersichtlich im Overlay vom MSI Afterburner dann quasi festgenagelt auf 100% :-)

Das wir in der Situation mit quasi nur 100% last auf dem ersten Kern, dann auch deutlich weniger von unseren Schaltfunktionen nutzen können als wir nutzen könnten, ist wohl offensichtlich.
Prozentual ist nunmal prozentual und 100% ist nunmal Volllast, also immer soviele Schaltfunktionen von einem Kern wie es eben nun gerade möglich ist.

Deswegen auch mal "LatencyMon" dazu zu Rate gezogen, was das für die Reaktionszeit des Gesamtsystems bedeutet, wenn ich eine Limitierung hinnehme anstatt einzugreifen, dürfte einleuchten und man kann das ja eben nunmal auch sogar reproduzierbarbar Benchmarken.

@TheCrazyIvan
Nimm es mir bitte nicht persönlich und oder böse oder so, das PES ist schon ne feine Sache, es liesse sich aber eben nunmal unter gewissen Vorraussetzungen immens Verbessern.
Was den "Skript" angeht ist es nunmal an dieser Stelle auch Cinebench was quasi von Haus aus ja falsch läuft.
Der MT-Test okay, aber der ST ist völlig banane :D

Man hat es ja aber auch schon zu genüge erlebt auch hier im Forum das man mit "Timerbench" zwecks HPET, von wegen RAM-OC einfach nicht wahrhaben will , weil man wiedermal die verkehrten Messergebnisse vergleicht :D
Es sollte an dieser Stelle dann nämlich klar sein, das minimum sowie maximum völlig egal sind wenn man sich in 99th percentile Verbessert, also das was man zu 99% schafft die ganze Zeit, zumal dann wenn in aktuellen Games, aktuelle oder halbwegs aktuelle Hardware quasi wortwötlich aus dem allerzten Transistor noch Saft lutscht der irgendwie noch zur Verfügung steht.
Die Devise ist nunmal soviel FPS produzieren wie man braucht und nicht hauptsache soviel wie nur irgendwie geht aufs max zu achten und selbst das ändert sich positiv durch die Benches bemerkbar, in Benches die auch irgendwie alltagsrelevant sind.
Also selbst wenn ich in CS:GO beispielsweise ohnehin FPS rausgehauen bekomme die weit über dem liegen was der Bilschirm auch wirklich schafft wiederzugeben, wenn ich mich dort dennoch verbessere, es dann im Alltag aber passend laufen habe, VSync und oder FPS Limit eben, kann ich mir aber sicher sein, das es wenn ich es nunmal richtig mache, selbst wenn die Reaktionszeit nicht mehr weiter verbessert werden kann dadurch, die Kiste aber auf jeden Fall effizienter läuft dabei.
Und wenn ein paar Dienste und ein paar Netzwerkprotokolle, die eh ungenutzt sind zudem sogar noch Sicherheitslücken aufweisen, 15FPS in einem Average-Ergebnis das Ding verbessern, dann nehme ich das halt mit, ganz einfach :-)
Man merke, das was immer irgendwie aktiv ist, obwohl ungenutzt, wenn das deaktivieren die Performance verbessert, wird es logischischweise auch Transistorfunktionen nutzen, die dann eben nicht mehr genutzt werden, so wird also selbst der IDLE effizienter.

Was einfach daran liegt, das man das was man IDLE nennt, so garnicht existiert und auch nie existieren wird, nur weil der Task-Manager da mal quasi keine Last anzeigt, oder auch ein Overlay kaum Last anzeigt, heisst es ja nicht das da nicht so irgendwo eine Last anliegt, so gering diese auch sein mag.
Das was mindestens läuft, ist das Bios und Windows sowie Treiber, wie man sehen kann, es ist ja keine Zauberrrei, sondern nunmal Mathematik, mit Schaltfunktionen (Transistoren/-Funktion/-en)

Gruss HL
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    194,8 KB · Aufrufe: 202
  • Unbenannt2.jpg
    Unbenannt2.jpg
    350,3 KB · Aufrufe: 201
HasseLadebalken schrieb:
Was den "Skript" angeht ist es nunmal an dieser Stelle auch Cinebench was quasi von Haus aus ja falsch läuft.
Der MT-Test okay, aber der ST ist völlig banane :D
Cinebench hat keine abhängigen Threads im ST Modus und hat diese Probleme der ganzen Games, die du erwähnt hast, nicht. Diese Games verwenden alle mehrere Threads, die voneinander abhängig sind. Die Last auf Core 0 wird außerdem häufig einfach vom GPU Treiber verursacht. Für alle Benchmarks gilt auch, dass man unnötige Hintergrundlasten vermeiden sollte, weil sie das Ergebnis verfälschen. Den Einfluss von Hintergrundanwendungen kann man in Benchmarks deutlich verringern indem man dem Benchmarkprozeß eine höhere Priorität gibt.
 
Genau das habe ich in den meisten Games bei meinem System auch beobachtet. In Spielen verteilt sich die Last immer auf alle Kerne (+SMT). Ich sehe da kaum mal eine Last über 50%, egal auf welchem Kern. Würde sich vermutlich ändern, wenn ich das Grafiksetting niedriger wähle.

Wie Nolag schon meint, sind wohl nicht alle Programme/Tools/Anwendungen so programmiert, dass sie automatisch Kern0/1 belasten. Aber eingige tun das. Beides scheint es zu geben. :daumen:
 
@TheCrazyIvan

Hoffe du hattest einen angenehmen Urlaub. :daumen:

Hier dann noch ein Ergebnis (siehe Spoiler) das du ggf. aktualisieren kannst, das alte Ergebnis ist #32 in der Liste und wurde ja noch mit der alten 0.51 gemacht.

Oder soll ich es lieber im 3DC posten? Hier kann damit ja keiner was anfangen. ;)

1632989084822.png

Logs auch im Anhang, falls Libre Office da "Mist" ausgegeben hat.
 

Anhänge

  • Logs MT ST.zip
    736,7 KB · Aufrufe: 186
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheCrazyIvan
@Verangry
Wow, gutes Resultat. Durch die Bank weg besser als Dein altes. Hast Du irgendwie optimiert oder ist das @ Stock?
Auf jeden Fall Danke für die neue Messung mit aktueller Version.
 
@Verangry
Wäre es für Dich sehr aufwendig, Deine CPU nochmal mit Stock-Settings durchlaufen zu lassen? Ich hätte gerne einen Referenzwert für 5900X @ Stock (also mit Werks-TDP, kein UV/OC, etc.).
 
Kann ich bei Gelegenheit mal machen, klar.
Nur heute schaff ich es nicht.
Reiche es dann morgen ein.


Edith:

Kam doch noch heute dazu.

Hier nach einem Bios Reset, komplett Stock (kein oc, keine Settings geändert)
1633285410817.png

Log ist auch wieder im Anhang.

@TheCrazyIvan

CPU ist unter Wasser, ob das als "Referenz" herhalten kann weiß ich nun nicht, aber das entscheidest ja du ;)
 

Anhänge

  • Logs MT ST Stock.zip
    784,6 KB · Aufrufe: 191
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheCrazyIvan
Bitte verzeiht mir wegen dem OT aber hier tummeln sich doch einige Thinkpad E495/E595 Nutzer...

Sinkt bei euch auch der Takt unter dauerlast seit dem neuen Update des Lenovo Thermal Solution Treibers vor einigen Monaten? Anfangs läuft alles auf 3,1 GHz, dann geht es langsam runter auf 2,8-2,8GHz - wird einige Stunden gehalten - und anschließend sinkt es wieder weiter auf bis zu ca. 2 GHz. Aufgefallen ist mir das erst als ich über Nacht was laufen hab' lassen.
 
  • Gefällt mir
Reaktionen: TheCrazyIvan
@Verangry
Danke Dir - habe erst jetzt gecheckt, dass Du das noch raneditiert hast.

@Tenferenzu
Klingt so, als hätte Lenovo das Thermal Management "optimiert". Mein HP Envy x360 verhält sich mittlerweile auch deutlich anders als zum Kaufzeitpunkt - wobei bei mir die Modifikationen mehrheitlich zum besseren waren.
 
Zurück
Oben