Windows müllt langsam zu

kali-hi schrieb:
Lass gut sein, beweisen kannst du nichts, da eben proprietär.

Muss ich auch nicht.
Ich bekomme halt ab und zu SSD in die Hand wo gerade das Aufräumen seitens des OS gelaufen war und soll darauf vermisste Daten finden. 😉

Wenn das OS nichts ausreichend machen würde, müssten die hier verwendeten forensischen Programme etwas finden und Ontrack würde nicht abwinken. 🤷‍♂️
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kali-hi und Ja_Ge
kali-hi schrieb:
dann werden nur unnötigerweise Systemressourcen beansprucht.
Systemressourcen verbrauchen bedeutet nicht, dass das System und dein Workflow langsamer werden. Da sind wir wieder bei dem Punkt wann (in diesem Fall) die Indizierung getriggert wird. Das sind alles keine einmaligen Vorgänge, es werden Ressourcen genutzt die verfügbar sind, weil/wenn du sie gerade nicht brauchst. Dadurch kannst du schneller arbeiten, weil dieser Vorgang im Bedarfsmoment bereits durchgeführt wurde. Und schont im Fall der Indizierung auch noch das Laufwerk.
 
  • Gefällt mir
Reaktionen: Terrier, wuselsurfer und BFF
IDontWantAName schrieb:
Steht was dazu in der Ereignisanzeige?
Ka, wo ich da gucken soll, man findet halt die beiden Defrag-Meldungen jede Woche für jedes Laufwerk:

"Bereichskonsolidierung""erneut optimieren"
1765032348551.png
1765032637625.png

Ich vermute mal das eine ist dann die Metadaten-Defragmentierung, die in deinem Link angesprochen wurde, und das andere manuelles Trimmen.
Ergänzung ()

kali-hi schrieb:
Wenn man die Suche nicht braucht (oder fast nie), dann werden nur unnötigerweise Systemressourcen beansprucht.
Die Indizierung beansprucht immer nur dann relevant Rechenleistung und IOPs, wenn neue Dateien in die zu indizierenden Ordnerpfade angelegt oder kopiert werden.

Sieht man immer schön, wenn man Windows frisch aufgesetzt hat und dann seine Daten zurückspielt. Dann dreht der Indexdienst erstmal auf, weil die Indizierungsdatenbank noch leer ist. Das ist aber ein einmaliger Vorgang (außer die Indizierungsdatenbank muss aus irgendeinem Grund mal resettet werden) und bei allen neuen Dateien, die du nach dieser ersten Indizierungsaktion auf dem System anlegst/erzeugst, geht die Indizierung dermaßen schnell, da kriegst du überhaupt nichts von mit.

Wenn du ständig zehn- oder hunderttausende von neuen Dateien auf deinem System anlegst (und vlt. wieder löschst), dann würde die getriggerte Indizierung dein System mehr oder weniger belasten. Aber Otto-Normal PC mit bisschen Office, Browsen und Gamen? Bringt dir 0 die Indizierung abzuschalten, außer dass dann die Suche nach Dateien deutlich! länger dauert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PonJoe58
qiller schrieb:
Wenn du ständig zehn- oder hunderttausende von neuen Dateien auf deinem System anlegst (und vlt. wieder löschst)
Doch, das muss ich zwischendurch auch machen... wenn von git etwas kommt...

Er scheint jetzt gerade immer noch zu indizieren, obwohl ich das eigentlich nicht wollte.

Na ja gut, inzwischen sind hier zwei Fragen. Das, was viel Speicherplatz beansprucht hatte, hatte ich ja schon gefunden (Steam, VS, diverse Build-Caches und Hibernate). Und die Optimierung der SSD (bzw. Indizierung) ist eigentlich ein anderes Thema.
 
Hast du nur ein Laufwerk C mit mehreren Partitionen, oder mehrere SSD in deinem PC?
 
Insgesamt drei SSDs... C:, D: und eine Linux-Partition, die Windows vermutlich nicht erkennt
 
kali-hi schrieb:
Doch, das muss ich zwischendurch auch machen... wenn von git etwas kommt...
Ah ok, ja das wär ein Grund. Ansonsten kann man natürlich auch solche Pfade, wo Git Repos gesynced werden, einfach von der Indizierung ausschließen (bzw. nicht mit einbeziehen).
 
kali-hi schrieb:
Insgesamt drei SSDs...
Ok, dann hätte dann hätte dein Screenshot von vorher nur deine SSD mit Laufwerk C indiziert, die anderen SSD aber nicht.
nur C indiziert.png
 
Thema schon gelöst... Indizierung brauche ich nicht
Ergänzung ()

1765042532524.png


Der Rödelt immer noch... es war keine gute Idee, das für alles zu aktivieren...
 
Zuletzt bearbeitet:
Da ist dein PC oder Windows anderer Meinung. Lass es einfach laufen, du wirst es bemerken.

Ein kleiner Zeitverlust jetzt (nur einmal ausgeführt), bringt dir nachher einen Zeitgewinn (für immer).
 
Zuletzt bearbeitet:
Ja doch nur, wenn man etwas sucht. Für mich zumindest ist die Indizierung nichts. so selten, das ich mal was suche... und die Linux Suche funktioniert sehr gut, nach Meiner Erinnerung im vergleich zu Windows viel besser.

Kommt halt auf @kali-hi an, ob er überhaupt ab und an die Suche nutzt.
 
  • Gefällt mir
Reaktionen: kali-hi
kali-hi schrieb:
Zwischen HDDs und SSDs muss man noch einmal differenzieren, aber mir drängt sich verstärkt der Eindruck auf, dass Windows Defragmentierung und Optimierung bei SSDs so gut ~ "nichts macht".
Letztendlich sendet Windows hier (manuell getriggert) den TRIM-Befehl. Das wars.
Der Rest läuft dann im Hintergrund, autonom auf der SSD.
Also ja: Windows macht (fast) nichts. 😉

Schlimmer ist beispielsweise O&O Defrag. Das fängt tatsächlich an Datenblöcke auf der SSD zu verschieben und feiert das noch als (geniales) Feature. 😖
kali-hi schrieb:
Auslogics Optimizer...
...ist geanu so schlimm.
Willlste Deine SSD schnell(er) verschleißen, dann nutze genau solche Programme.

Für die Ordnung und Datenverteilung auf einer SSD ist der jeweilige Controllerchip des Gerätes zuständig - und niemand anderes.

Es ist auch vollkommen sinnfrei, da weder das Betriebssystem noch die darauf laufenden Apps direkten Zugriff auf die Speicherzellen haben - da hängt immer(!) der SSD-Contoller-Chip dazwischen.

Was unterstützend wirken kann(!) ist eine Routine, die den Controllerchip dazu zwingt jede Speicherzelle zu lesen, in dem jede Datei vollständig gelesen wird. Z. B. Hash-Werte von allen Dateien auf der SSD zu erstellen.
Dann kann der SSD-Controller "schwache" Speicherzellen besser finden und deren Daten dann im Rahmen des Wearlevelings umkopieren.

Eskurs: Windows-Suche.
Dass diese ungewöhnlich langsam läuft und so ziemlich das Gegenteil von "performant" zeigt das kleine Tool "Search Everything" - inkl. Suchen im Inhalt von Dateien. Schon seit Jahren.
Wie man es effektiv nutzt - guckst Du hier auf Youtube.
 
  • Gefällt mir
Reaktionen: kali-hi
mchawk777 schrieb:
Dann kann der SSD-Controller "schwache" Speicherzellen besser finden und deren Daten dann im Rahmen des Wearlevelings umkopieren.
Ja, das ist ja leider das Problem, dass das nicht immer so gut funktioniert -> siehe das ganze Read Speed Degradation Thema. Wenn der Controller seine Arbeit richtig verrichtet, sollte es eigt. dazu kaum kommen. Der von mir verlinkte Thread zeigt leider, dass es doch einige Kandidaten gibt.

Ich hab auch das Gefühl, dass die neueren NAND-Flashspeicher da deutlich empfindlicher sind und stärker/schneller degradieren. Zumindest kannte ich das Thema bis zu meiner Samsung 2TB 980Pro und den beiden 870QVOs gar nicht. Alle anderen SSDs sind älter und die MLC SSDs (840Pro, 970Pro) haben da überhaupt kein Problem mit.
 
  • Gefällt mir
Reaktionen: mchawk777 und kali-hi
qiller schrieb:
Ja, das ist ja leider das Problem, dass das nicht immer so gut funktioniert -> siehe das ganze Read Speed Degradation Thema. Wenn der Controller seine Arbeit richtig verrichtet, sollte es eigt. dazu kaum kommen. Der von mir verlinkte Thread zeigt leider, dass es doch einige Kandidaten gibt.
Das Ganze ist halt leider aus Nutzersicht eine Blackbox.
Wir wissen schlicht und ergreifend nicht nach welcher Logik bzw. Logiken die einzelnen Controller genau funktionieren und was er gerade tut.
Es läuft auf ein blindes Vertrauen dem Hersteller gegenüber hinaus.
...und darauf, dass Backups bei SSDs m. E. noch wichtiger sind als bei HDDs.
 
  • Gefällt mir
Reaktionen: kali-hi
Mal eine kurze Zwiwchenfrage weil der Titel so passend ist (auch wenn es nicht mit dem TE Problem direkt zu tun hat).
Ich finde Win11 einfach schrecklich vs Win XP, 7, 10 etc. Für mich ist Win11 fast schon wie ein Vista mit anderer Optik.

Wenn man jetzt die ganzen Apps, Hintergrundprozesse usw mit Linux Mint vergleicht, wie groß ist da der Unterschied vom Ressourcen Verbrauch und den ganzen Apps (sowohl vorinstalliert als auch bei Updates bei beiden Betriebssystemen)?
 
Ich empfehle dir um den Ressourcenverrbauch mal ansehen zu können aus eigener Hand, einfach einen USB Stick fertig zu machen mit einem Live Linux Mint. starte das Live, installieren musst du nicht. Natürlich ist die Performance da dann nur so lala, weil der USB Stick wird ja langsam sein. Aber um sich das mal anzusehen reichts.

Du kannst dir dann die Prozessor und RAM Auslastung ansehen.

Edit: Alternativ wäre auch ne VM. In beiden Fällen ist zu bedenken, das die Performance nicht dem einer richtigen Installation entspricht, aber zum anschauen reichts.
Ich denke mal Ventoy wäre nen Gutes Tool um den Stick mit dem Image Bootfähig zu machen, aber im Zweifelsfall, wenn du das nicht hinbekommst folge einfach der Anleitung bei Linux Mint.
 
  • Gefällt mir
Reaktionen: Dudde
mchawk777 schrieb:
Schlimmer ist beispielsweise O&O Defrag. Das fängt tatsächlich an Datenblöcke auf der SSD zu verschieben und feiert das noch als (geniales) Feature. 😖
Volle Zustimmung. Und der Controller nimmt dann in Wirklichkeit den Datenblock und schiebt ihn genau da hin wo er in hin haben möchte. Da hat auch O&O keinen Einfluss drauf. Das "Aufräumen" durch den Controller kann das Programm nur durch massives "vollmüllen" also Schreibvorgänge triggern, bis dieser sich gezwungen sieht umzusortieren.
Das Vollschreiben selber und das sortierten der Pages durch löschen von Blocks wirken sich negativ auf die Lebensdauer der SSD aus. Aber dafür sehen die Balken und farblich ändernden Vierecke in diesen Programmen so cool aus, das kann nur was gutes sein.
 
  • Gefällt mir
Reaktionen: mchawk777, redjack1000 und PonJoe58
Ja_Ge schrieb:
Volle Zustimmung. Und der Controller nimmt dann in Wirklichkeit den Datenblock und schiebt ihn genau da hin wo er in hin haben möchte.
Sorry, aber das ist Unsinn bzw. Spekulation oder VT, und beweisen kannst du es auch nicht (man kann ja schlecht in die physische Anordnung der SSD-Segmente schauen).

Es scheint so, als könntest du nicht damit umgehen, dass ein anderes Programm (hier: O&O oder Auslogics) es besser kann als Windows. Aber bitte, bleib bei deinem Glauben.

Und das ist auch alles, was ich zu diesem Thema noch zu sagen habe. Gerne schließen.
 
Das läuft auf Hardware Ebene. Die Software hat da keinen Einfluss drauf
 
  • Gefällt mir
Reaktionen: Ja_Ge
Zurück
Oben