(gefühlte) Geschwindigkeit des PCs; Sinn/Unsinn eines Upgrades.

Ich persönlich hatte eher eine gegenteilige Erfahrung, ich zitiere mich hier einmal selbst:

Tenferenzu schrieb:
Wenn ich mir ansehe um wie viel ein Desk Mini mit 3400G schneller ist in Alltagsanwendungen im Vergleich zu meinem 4790k wundert mich das ehrlich gesagt nicht mehr so viel wie noch vor 3 Monaten.

Erklärung bitte?

Tenferenzu schrieb:
Ganz grob gesagt lädt alles was viele kleine Bausteinchen zusammensetzt gefühlt 10x schneller. Also Webseiten, große Dokumente (PDFs ~3000Seiten), Office. Quasi die 'Alltagsanwendungen'. Das größte Problem dürften hier die Sicherheitspatches von Windows sein bzw. der ältere Speicherstandard mit DDR3. In dem Desk Mini laufen dadurch dass es nur 2 Speicherbänke gibt selbst meine 2400er und 2666er Speicherriegel auf 3200MHz.

Ich hab' das Ding gebraucht bekommen weil der Vorbesitzer irgendetwas im BIOS verstellt hat und wollte den Desk Mini auch wieder weiterverkaufen allerdings hat es mich nach dem zurücksetzen + Bios Update fast vom Hocker gehauen wie schnell alles lädt. Dabei muss man aber bedenken, dass das ja noch nicht einmal die 7nm CPUs sind, die sollen ja noch einen Tacken schneller sein.

DavinciResolve oder ähnlich intensive Anwendungen laufen auf dem Desk Mini auch nicht schneller als auf dem 4790k, vermutlich wird das bei deinen Anwendungen das Selbe sein. 4 Kerne bleiben halt 4 Kerne. Dafür verbraucht er halt für die selbe Rechenleistung nur einen Bruchteil der Energie. Der 3700x hingegen... das ist quasi mehr als eine Verdoppelung der Rechenleistung bei selber Leistungsaufnahme (zumindest laut Benchmarks, selbst hatte ich noch nie das Vergnügen).

Bei mir wird's wahrscheinlich ein Ryzen 4000 sobald sie gebraucht verfügbar sind zu einem vernünftigen Preis da momentan 1. kein Geld für den Desktop vorhanden ist und 2. ich momentan durch die GPU alles beschleunigen kann was bei mir Rechenleistung fordert.
 
Tenferenzu schrieb:
Ich persönlich hatte eher eine gegenteilige Erfahrung

Und hast Du als Vergleich auch mal Dein altes i7-System zurückgesetzt? Für mich klingt das nämlich eher nach einem verramschten System. Ein Neuaufsetzen von Windows kann mitunter Wunder bewirken. Vor allem dann, wenn man die Systempflege vernachlässigt und bspw. bei oder nach der Installation von neuen Programmen nicht akribisch genau darauf achtet, was diese neuen Programme noch zusätzlich im Hintergrund anrichten, weil sie u.a. meinen, es "bequemer" für den Nutzer machen zu müssen. Schau einfach mal in den Autostart und bei den (Nicht-Windows-)Diensten. Du wirst erstaunt sein, wie viel unnützer Kram da im Hintergrund geladen wird und Dein System verlangsamt.
 
nitech schrieb:
Beim laden von Dateien usw. wirst du kaum einen Unterschied merken, SSD zu SSD ist nur in speziellen Szenarien besser. Der Rest: hängt von der Software ab wie gut die optimiert ist und mehr Kerne, neue Befehlssätze usw auch ausnutzen kann.

Welche neuen Befehlssätze gab es denn seit Sandy Bridge?
 
sz_cb schrieb:
Und hast Du als Vergleich auch mal Dein altes i7-System zurückgesetzt?
2018 das letzte mal da ich von W8 auf W10 gewechselt bin (Neuinstallation). Ansonsten versuche ich das so gut wie möglich zu vermeiden, da ich einiges an Software habe die beim aktivieren gerne mal rumzickt (CAD, CFD, MatLab, Statistikprogramme etc.)

Im Autostart startet nichts mit, das überprüfe ich jedes mal nach der installation einer neuen Software.
 
Seit 2018 wird sich da einiges an Grind im Windows 10 System angesammelt haben... Nutze doch die Möglichkeit und setze die aktuelle Version mit aktuellen Treibern mal neu auf, das mit der Softwareaktivierung sollte das geringere Übel sein, einmal durchwürgen und Du hast es.
 
Tenferenzu schrieb:
2018 das letzte mal da ich von W8 auf W10 gewechselt bin (Neuinstallation). Ansonsten versuche ich das so gut wie möglich zu vermeiden, da ich einiges an Software habe die beim aktivieren gerne mal rumzickt (CAD, CFD, MatLab, Statistikprogramme etc.)

Im Autostart startet nichts mit, das überprüfe ich jedes mal nach der installation einer neuen Software.

Ich wollte Dich nicht in einen Rechtfertigungsmodus bringen, sorry!
Dass man Neuinstallationen gerne meidet, kann ich total nachvollziehen. Ich habe so viele manuelle Tweaks am System vorgenommen, um bspw. Windows Cortana & Co. bestmöglich aus dem System zu verbannen, dass meine Lust an einer Neuinstallation auch äußerst gering wäre ;)

Es kommt immer darauf an, wer der Hersteller der Software ist. "Kleinere" Software-Schmieden, die ein hoch spezialisiertes Programm gefertigt haben und sich an ein eher professionelles Publikum wenden, sind bei der Installation i.d.R. nicht so systemeingreifend und überbordend. Aber auch hier gibt es Ausnahmen.

Installiert man aber eine Software für ein weniger professionelles Publikum, wie bspw. 3DMark, wird oft auch zusätzlich irgendwelcher anderer Kram mitinstalliert. Im Beispiel von 3DMark wird ungefragt auch FutureMark SystemInfo installiert, was sich in den Autostart legt. Deinstalliert man 3DMark, verbleibt aber diese SystemInfo-Software auf dem PC. Es gibt kaum eine Software, die sich beim Deinstallieren wieder vollständig aus dem System entfernt. Überall irgendwelche digitalen Leichen. Das ist wirklich ein Verhalten, das ich furchtbar finde.

Dann gibt es hier ein "Auto-Update-Service" und da ein "Maintenance-Service" und dort noch ein "PreLoader" und irgendeine Toolbar und was sie sich nicht alles haben einfallen lassen. In Summe wird man bereits von Standard-Software wie Browsern dermaßen zugebombt, dass es (k)eine wahre Freude ist.

Es gibt m.E. genau ein einziges Programm, das mitdenken und im Hintergrund ungefragt arbeiten darf und das ist das rudimentäre Betriebssystem (ohne Bloatware wie Cortana, OneDrive & Co.). Alles andere hat IMHO nur dann etwas im Speicher zu suchen, wenn es vom Nutzer angefragt wird. Bei der Installation können Hintergrunddienste dem Nutzer gern als Opt-In angeboten werden. Aber beinahe überall ist im besten Fall nur noch Opt-Out möglich. Das mag bei wenigen installierten Anwendungen noch kein Problem sein, aber die Probleme häufen sich mit der Zeit und der Menge an installierter Software.

Ich denke, es gibt einen Grund, warum ich kaum und teils auch gar keine Verbesserung im täglichen Arbeiten spüre. Mein System war und ist ordentlich gewartet und administriert. Wenn irgendwie möglich, dann nutze ich die "portable"-Version einer Software. Auf dem System war/ist keine Bloatware oder sonstwas, was im Hintergrund das Arbeiten verlangsamt. Jede Software wurde und wird bei Bedarf oder Notwendigkeit manuell geupdatet. Selbst bei Leuten, von denen ich ausgehe, dass sie ein gutes Verständnis von IT haben, sehe ich eine überladene Taskleiste und zig zweifelhafte Hintergrunddienste - bei mir wird nur das wirklich für den täglichen Gebrauch Nötige geladen (Treiber, Monitor-Kalibrierungsprofil, VPN, Total Commander ;) ), den Rest bei Bedarf. Und wegen dieser zig zusätzlich beim Start zu ladenden Dienste vermeidet es Windows mittlerweile auch, das System tatsächlich richtig herunterzufahren, sondern macht ein Speicherabbild und lädt das beim Systemstart wieder zurück in den Speicher. "Schau mal, wie schnell Windows 10 startet!" - oh man...
 
@sz_cb was mir so schnell einfällt wäre z.b. AVX, dann denke ich gibt es interne auch immer Optimierungen usw. Aber ja, rein vom IPC hat sich seit Sandybridge nicht so viel getan, außer halt dass man für wenig Geld viele Kerne bekommt. Das hier ist zwar älter aber ganz interessant.
mfg
 
Eine Ursache könnte auch die Single Core Performance sein. Ein übertakteter Core vom I7 2600k ist jetzt nicht viel langsamer als einer vom Ryzen 5 3600.
Und je nach Software (11s Tabelle laden) wird vermutlich nur ein Core bzw Thread wirklich benötigt.
 
Ich habe ehrich gesagt den Verdacht, dass es an der nVidia Grafik liegen könnte (vor allem bei Firefox). Unter W10 musste ich die integrierte Grafik nämlich deaktivieren da mein CFD Programm die iGPU ausgelastet hat was sich nicht gerade vorteilhaft auf die Renderzeiten ausgewirkt hat.
 
nitech schrieb:
@sz_cb was mir so schnell einfällt wäre z.b. AVX, dann denke ich gibt es interne auch immer Optimierungen usw. Aber ja, rein vom IPC hat sich seit Sandybridge nicht so viel getan, außer halt dass man für wenig Geld viele Kerne bekommt. Das hier ist zwar älter aber ganz interessant.
mfg

In der Tat interessant!
AVX konnte Sandy Bridge aber auch schon ;)


ldasta schrieb:
Eine Ursache könnte auch die Single Core Performance sein. Ein übertakteter Core vom I7 2600k ist jetzt nicht viel langsamer als einer vom Ryzen 5 3600.
Und je nach Software (11s Tabelle laden) wird vermutlich nur ein Core bzw Thread wirklich benötigt.

Stimmt (leider), dass LibreOffice Calc meiner Erfahrung nach keine Mehrkernoptimierung hat. Mein 2600K war aber auch nicht übermäßig übertaktet - ich suche ja schon immer einen gesunden Kompromiss aus Lautstärke/Leistung/Temperatur.
Der Vergleich der Single-Core-Leistung im Cinebench15 ist 125:198. Und Multi-Core 630:1596. Man könnte also davon ausgehen, dass bei einer Aufgabe, die lediglich einen Kern ausnutzt, nur ca. 2/3 der Zeit benötigt wird.

Wenngleich man jetzt zum Schluss kommen könnte, dass Rendering u.U. kein adäquates Messinstrument sei, um Voraussagen zur praktischen Alltagsleistung zu machen, gibt es im Netz ja auch zig Benchmark-Ergebnisse, die nicht nur mein Rendering-Ergebnis bestätigen, sondern den neuen CPUs auch eine gleichermaßen höhere Leistung in der Praxis attestieren. Darüber hinaus habe ich selbst natürlich auch ein paar Benchmarks laufen lassen, die mir zeigen, dass meine Konfiguration nicht so schlecht sein kann.
Der einzige "Flaschenhals", den ich bei Benchmarks bisher habe ausmachen können, ist die Schreibperformance meines verbauten RAMs, denn die ist vergleichsweise niedrig (für diesen RAM aber erwartungskonform und auch nicht wirklich schlecht).

Ansonsten bestätigt sich leider meine anfangs getätigte Aussage: Bis auf Spiele und Benchmarks gibt es im Alltag (oder besser: in meinem Alltag) keinen Performancezuwachs im Vergleich zum beinahe 9 Jahre alten System.


@Tenferenzu
Ich nehme an, Du konntest im CFD-Programm nicht die GPU auswählen, die er nutzen soll?
Warum "verdächtigst" Du die nVidia-Karte bei Firefox?
 
Zuletzt bearbeitet:
Hmm, also so richtig stimmig sind deine Sandy-Werte nicht - außer du hast ihn komplett Stock betrieben. Schon 4 GHz liefern 712/142 im CB - wenn es sehr sparsam sein soll. Bei moderatem OC um die ~4,5GHz sind dann schon ~160 Single. "Maxed out" dann sogar über 180. Da verwässern die spürbaren Unterschiede im Single Thread allmählich.

Dein Fazit überrascht mich daher nicht :) Habe hier auch noch ein i5 650 System, dass in 90% der Fällen dank SSD (trotz Sata II) ebenfalls in (meinem) Alltag meinem Hauptrechner in nichts nachsteht.

Man muss sich eben vorher im Klaren sein, in welchen Fällen man im eigenen Alltag profitiert - solange die Performance der ausschlaggebende Faktor für das Upgrade ist.
 
TheOpenfield schrieb:
Hmm, also so richtig stimmig sind deine Sandy-Werte nicht - außer du hast ihn komplett Stock betrieben. Schon 4 GHz liefern 712/142 im CB - wenn es sehr sparsam sein soll. Bei moderatem OC um die ~4,5GHz sind dann schon ~160 Single. "Maxed out" dann sogar über 180. Da verwässern die spürbaren Unterschiede im Single Thread allmählich.

Wie gesagt, ich betrieb den 2600K stark undervolted. Er war etwas schneller als Stock bei gleichzeitig deutlich niedrigerem Verbrauch. Mir ging und geht es nicht um eine Benchmark-Krone, sondern um ein flottes, stabiles und sparsames Alltagsgerät. Mein PC läuft gut und gern 15 bis 18 Stunden am Tag, da macht sich das dann letztlich auch auf der Stromrechnung bemerkbar :)


TheOpenfield schrieb:
Dein Fazit überrascht mich daher nicht :) Habe hier auch noch ein i5 650 System, dass in 90% der Fällen dank SSD (trotz Sata II) ebenfalls in (meinem) Alltag meinem Hauptrechner in nichts nachsteht.

Dieser Schlussfolgerung kann ich nun nicht folgen. Wenn ich meinen Alltags-2600K mit meinem Alltags-3600 vergleiche, habe ich eine 1,5x so hohe Single-Core-Leistung. Dass die Single-Core-Leistung eines an die Grenzen übertakteten 2600K annähernd so hoch ist wie die eines 3600, sehe ich ja ein, aber mein 2600K war eben nicht an die Grenzen übertaktet, sondern eher an die Grenzen undervolted ;)


TheOpenfield schrieb:
Man muss sich eben vorher im Klaren sein, in welchen Fällen man im eigenen Alltag profitiert - solange die Performance der ausschlaggebende Faktor für das Upgrade ist.

Klar. Die Performance war ja nicht der Grund für das Upgrade (siehe Beitrag #1). Hätte ich nicht zwingend ein funktionstüchtiges und v.a. verlässliches Arbeitsgerät gebraucht, hätte ich mich auch noch stundenlang auf Fehlersuche begeben können (um dann u.U. festzustellen, dass ich trotzdem upgraden muss und die Fehlersuche letztlich vergeudete Zeit war).

Es verwunderte mich nach dem Upgrade einfach, dass trotz der vielen dazwischen liegenden Jahre im Alltag von der (Benchmark-)Mehrleistung nix ankommt.
 
Wie gesagt, deine CB Werte sind sogar unter einem Stock 2600K - mehr wollte ich eigentlich nicht dazu sagen ;)

Deine Erfahrung im Alltag bedeutet doch lediglich, dass in deinen Fällen nicht die CPU, weder Single- noch Multithread, der begrenzende Faktor ist. Eben sowenig die sequentiellen Übertragungsraten der System-SSD.

Mal aus Interesse: Hast du die Verbrauchswerte mal konkret verglichen? Gerade beim Idle-Verbrauch sieht man teilweise eher Rückschritte, selbst zur Sandy-Generation.
 
TheOpenfield schrieb:
Wie gesagt, deine CB Werte sind sogar unter einem Stock 2600K - mehr wollte ich eigentlich nicht dazu sagen ;)

Also außer bei CPU-Monkey, wo der Single-Core-Wert 3 Punkte über meinem (aber Multi-Core-Wert 18 unter meinem) liegt, finde ich dutzende Nutzerergebnisse im Netz, die auch im Single-Core-Benchmark unterhalb meines 2600K liegen.


TheOpenfield schrieb:
Deine Erfahrung im Alltag bedeutet doch lediglich, dass in deinen Fällen nicht die CPU, weder Single- noch Multithread, der begrenzende Faktor ist. Eben sowenig die sequentiellen Übertragungsraten der System-SSD.

So weit war ich ja auch schon vor dem ersten Eintrag ;) Die Frage ist daher weiterhin: Was ist der limitierende Faktor? Die als Beispiel genannte Tabelle hat keine Millionen Einträge, aber es werden hunderte (wohl eher tausende) Berechnungen durchgeführt und 2 sehr triviale Liniendiagramme erstellt.


TheOpenfield schrieb:
Mal aus Interesse: Hast du die Verbrauchswerte mal konkret verglichen? Gerade beim Idle-Verbrauch sieht man teilweise eher Rückschritte, selbst zur Sandy-Generation.

In meinem konkreten Fall (i7 2600K und R5 3600) habe ich konkrete Messungen an der Steckdose gemacht, ja. Der Idle-Verbrauch des Gesamtsystems liegt jetzt etwa 15 Watt darunter (38-42 Watt beim 3600, 52-55 Watt beim 2600K).
 
Der variierende CB R15 wird vmtl. auf unterschiedlichen RAM zurückzuführen sein (ggfs. auch System, falls nicht in "Echtzeit" augeführt). "Multi drüber Single drunter" klingt für mich nach fixer Frequenz unterhalb des maximalen Singlethread-Boost?

Nichtsdestotrotz ist die IPC "nur" um etwa ~30% gestiegen mit Zen 2 bzw. Coffee Lake (je nach Anwendung und Instruktionen) - noch weit entfernt von ~50%.
sz_cb schrieb:
Auch die IPC hat sich seither um den Faktor 1,5 verbessert.

Auf der 2. Seite passts aber wieder mit Single-Thread :)

Der größte Sprung ist eben Multithreading und Effizienz.
 
Zuletzt bearbeitet:
Oh, ein kleiner Tipp noch der mir auf meinen Laptops sehr geholfen hat:

Deaktivier bei Ryzen Geräten im Netzbetrieb die Energiesparfunktionen von den PCIE-Geräten, dadurch verringert sich die Verzögerung beim öffnen von Dateien etc. teils gewaltig, dafür kostet es aber auch 1-2W mehr im Idle.

sz_cb schrieb:
Ich nehme an, Du konntest im CFD-Programm nicht die GPU auswählen, die er nutzen soll?
Warum "verdächtigst" Du die nVidia-Karte bei Firefox?
1) Genau.
2) nVidia spielt oft nicht gut zusammen mit Open Source Programmen. Jeder Ryzen Laptop mit integrierter Grafik lädt mittlerweile Webseiten schneller (selbe AddOns etc.) als mein Desktop.
 
  • Gefällt mir
Reaktionen: ShmaZen
TheOpenfield schrieb:
Der variierende CB R15 wird vmtl. auf unterschiedlichen RAM zurückzuführen sein (ggfs. auch System, falls nicht in "Echtzeit" augeführt). "Multi drüber Single drunter" klingt für mich nach fixer Frequenz unterhalb des maximalen Singlethread-Boost?

Ja, genau. Der 2600K lief mit 3600 MHz ohne Boost. Das war damals der Sweetspot (für meinen 2600K), um ihn deutlich undervolted zu betreiben. Bei 100 MHz mehr hätte ich die Spannung schon deutlich anheben müssen für einen dauerhaft stabilen Betrieb - dann wäre aber eben auch mehr Abwärme entstanden, die hätte abgeführt werden müssen, was wieder eine höhere Lautstärke unter Last bewirkt hätte. Und die leicht höhere Leistungsfähigkeit wäre auch nur messbar besser gewesen. Ich war bis zuletzt ziemlich happy mit dem 2600K und der Leistung. Klar, Videos hätten gerne schneller kodiert werden können, aber naja, bei maximal 5 oder 6 Premiere-Projekten pro Jahr kam es mir auf eine halbe Stunde mehr oder weniger Rechenzeit nicht an. Man konnte nebenher ja trotz Vollauslastung andere Dinge am PC erledigen :)


TheOpenfield schrieb:
Nichtsdestotrotz ist die IPC "nur" um etwa ~30% gestiegen mit Zen 2 bzw. Coffee Lake (je nach Anwendung und Instruktionen) - noch weit entfernt von ~50%.

Bei 30% mehr IPC und >600 MHz höherer Frequenz bei Single-Core-Aufgaben, schnellerem RAM und schnellerer SSD erwarte(te) ich eben einen etwas größeren Boost als knapp 4 Prozent.


TheOpenfield schrieb:
Auf der 2. Seite passts aber wieder mit Single-Thread :)

?


Tenferenzu schrieb:
Oh, ein kleiner Tipp noch der mir auf meinen Laptops sehr geholfen hat:

Deaktivier bei Ryzen Geräten im Netzbetrieb die Energiesparfunktionen von den PCIE-Geräten, dadurch verringert sich die Verzögerung beim öffnen von Dateien etc. teils gewaltig, dafür kostet es aber auch 1-2W mehr im Idle.

Vielen Dank für den Tipp! Ich hab' nur kein Problem mit den Reaktionszeiten des Systems. Kleine Dokumente öffnen superschnell, wie ich es auch erwarten würde. Da gibt es nix zu beanstanden. Das gab es jedoch beim 2600K auch nicht.
Nur um es tatsächlich ausschließen zu können, habe ich PCI-E-Energieeinsparungen in den Energieeinstellungen mal wie empfohlen abgeschaltet. Wie erwartet brachte das allerdings keine Verbesserung.


Tenferenzu schrieb:
2) nVidia spielt oft nicht gut zusammen mit Open Source Programmen. Jeder Ryzen Laptop mit integrierter Grafik lädt mittlerweile Webseiten schneller (selbe AddOns etc.) als mein Desktop.

Achwas, verrückt! Ich hab' bei Firefox zwischen nVidia im Desktop und Intel-iGPU im Laptop bisher keine weltbewegenden Unterschiede festmachen können - das kann aber auch an meiner zumeist recht trägen Internetleitung liegen ;)
Merkst Du Unterschiede auch bei anderer Open-Source-Software? Ich nutze am Laptop größtenteils andere Software als auf dem Desktop, wenn es aber doch mal Überschneidungen gibt, verhält sich der Desktop-PC meist deutlich potenter (Simulationsumgebung und/oder VMs) oder zumindest gleich schnell. Nur langsamer war bisher nix.
 
Zum Fragezeichen: Singlethread =/= IPC, auf der 2. Seite hast du es aber korrekt benannt ;)

Bzgl. Deines Undervoltings: Da du den Ryzen offensichtlich auf etwa 4,2 GHz im Singlethread boosten lässt, würde es mich auch nicht wundern, wenn dieser bei den Alltäglichen Aufgaben auch einiges mehr schluckt, als dein 2600K (der ja 3,6 bei vmtl. ~1,05V lief).
 
Zuletzt bearbeitet:
Moin.

Ich hatte früher mal einen Athlon Sockel-A mit 1ghz, kt133 Chipsatz, 256mb sd RAM, eine Festplatte und ein Windows XP ohne jegliches servicepack.

Mein Windows XP bootete frisch installiert in 20 Sekunden mit BIOS und Post zusammen


Meine große Excel Tabelle brauche 2 bis 3 Sekunden zum Öffnen mit Office 2000


Heute habe ich einen i7 4790 auf einem z97 board, 32gb RAM, eine 840er Samsung ssd udn Wind 10x64. Der Rechner ist nicht mehr der neueste, aber er läuft schon ganz gut.


Due Excel Tabelle braucht immer noch 3 Sekunden zum Öffnen, der komplette System Kaltstart dauert 30 Sekunden, es ist alles etwas moderner geworden, bei Office 2016 laufen beim start ein paar kleine Punkte über den Bildschirm usw.

Mir ist schon klar das der neuere computer sich Eller ist und mehr kann, aber gewisse Sachen dauern heute halt trotzdem noch lange.

Wenn ich eine CD oder DVD auf den Rechner kopiere, das Dauer immer noch gleich lange wie damals....



Mein aktuelles Auto hat auch fast 3x soviel PS wie das meiner frau, aber ich brauche auch nicht weniger zeit zur arbeit, da ich es nie ausfahren kann, und nur beim benchmark (leistungsprüfstand) macht sich die Mehrleistung wirklich bemerkbar.

Gruß
 
TheOpenfield schrieb:
Zum Fragezeichen: Singlethread =/= IPC, auf der 2. Seite hast du es aber korrekt benannt ;)

Stimmt, ich habe es auf Seite 1 augenscheinlich synonym verwendet. Ist natürlich Quatsch.


TheOpenfield schrieb:
Bzgl. Deines Undervoltings: Da du den Ryzen offensichtlich auf etwa 4,2 GHz im Singlethread boosten lässt, würde es mich auch nicht wundern, wenn dieser bei den Alltäglichen Aufgaben auch einiges mehr schluckt, als dein 2600K (der ja 3,6 bei vmtl. ~1,05V lief).

Ich hab' die eingestellte Spannung vom 2600K leider nicht mehr im Kopf. Aber ja, knapp über 1 Volt war es.

Mein Ryzen ist aber ebenso undervolted ;)

Bevor Du mir jetzt sagen willst, dass das nicht sinnvoll ist: Doch, ist es. Es ist nur nicht mehr so trivial durch einfache Spannungsabsenkung der CPU getan. Mein Ryzen 3600 läuft mit einem Offset von etwa -0,12 Volt und einem PPL von 75 Watt. "Was? Überall im Netz wird gesagt und auch aus eigener Erfahrung weiß ich, dass ab -0,05 Volt alles einbricht!" ;) Jain. Um trotzdem schneller als Stock zu sein, gehört es auch dazu, sich noch andere Werte im BIOS anzusehen und anzupassen - und einzusehen, dass man nicht mehr jede Komponente einzeln betrachten kann, sondern jede Schraube Auswirkungen auf die anderen hat. Nur als Beispiel: Wenn ich meinen RAM von 3200 auf 3600 MHz übertakte, bekomme ich ihn nur stabil, wenn ich neben der RAM-Spannung auch die SoC-Spannung anhebe (bzw. den eingestellten Negativoffset verringere). Sobald ich das mache, sinkt die Leistungsfähigkeit der CPU wegen des PPL. Dann hätte ich zwar einen etwas schnelleren Speicher, aber in Summe wäre der PC langsamer als vorher. Hebe ich dann das Power-Limit an, ist der Negativoffset bei der CPU-Spannung wieder zu hoch und die Systemleistung sinkt noch stärker.

Letztlich ist es ein stark optimiertes System mit einem individuellen Sweetspot, bei dem RAM, Mainboard und CPU so aufeinander angepasst wurden, dass einerseits bereits geringfügige Änderungen einer Stellschraube dazu führen, dass die Systemleistung sinkt und andererseits keine universellen Aussagen, die alle CPU/RAM/Mainboard-Kombinationen gleichsam tolerieren, seriös machbar sind. Hier hilft m.E. nur Geduld und Zeit. Aber machbar ist es! Und sinnvoll auch, finde ich.
Ergänzung ()

Ralfii schrieb:
Wenn ich eine CD oder DVD auf den Rechner kopiere, das Dauer immer noch gleich lange wie damals....

Ja, klar. Das CD-/DVD-Laufwerk limitiert. Das hat es auch schon unter Windows XP und generell seit HDDs schneller als diese Laufwerke sind - also schon immer.


Ralfii schrieb:
Mein aktuelles Auto hat auch fast 3x soviel PS wie das meiner frau, aber ich brauche auch nicht weniger zeit zur arbeit, da ich es nie ausfahren kann, und nur beim benchmark (leistungsprüfstand) macht sich die Mehrleistung wirklich bemerkbar.

Um Dein Beispiel aufzugreifen: Ich sehe nur keinen Grund für die Geschwindigkeitslimitierung. Nirgends ein Schild mit "100" oder "Achtung, spielende Kinder" - es sind auch keine Fußgängerüberwege in Sicht.

Es stimmt zwar, dass die Programme im Laufe der Zeit immer mehr Gimmicks bekommen haben, aber die hatten sie bei meinem 2600K auch (es war ja dieselbe Software und nicht die von vor 10 oder mehr Jahren). Das erklärt es also nicht, denn die Gimmicks müssten nun ganz einfach schneller geladen werden. Dein Auto kann ja auch viel schneller beschleunigen (als das Deiner Frau), um dann länger an der roten Ampel zu stehen ;) Ich suche also die digitalen roten Ampeln, die das System ausbremsen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheOpenfield
Zurück
Oben