Wie Auslagerungsdatei reparieren?

Du verwechselst etwas, Swapfile.sys und Pagefile.sys sind verschiedene Sachen.
 
Akkulaus schrieb:
@AndyMutz ehm find ich eher nicht ;) Also ich hab es lieber auf der HDD und somit lebt dann meine SSD 2-3 Jahre länger. Lass mal die Swapfile aktiv täglich nutzen die mehrere Gigabyte schreiben. Dann viel Spaß mit der SSD.

Vor allem SSDs mit QLC oder PLC was auch immer noch so alles gibt. Wo die TBW immer niedriger ausfällt.

Meine liegt schon immer auf der HDD und hab nie nachteile gehabt. Wenn man es nicht übertreibt wird es auch nicht wirklich viel benutzt.
"Finde ich nicht" ist halt eine schwierige Argumentation, wenn objektive Fakten dagegen sprechen.
Allerdings dachte ich das Menschen das irgendwann begreifen ^^
Es gibt doch nun schon genug Langzeittests die dem widersprechen 🤔

Ich habe nicht mal mehr HDDs in meinem Rechner, auf denen ich irgendwas auslagern könnte.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: AndyMutz, Markchen und areiland
Ich kann auch bestätigen, dass das manuelle einstellen der Auslagerungsdatei Probleme machen kann.... Sowohl Windows 10 als auch 7.

Ich habe auch Mal versucht Leistungsvorteile zu erreichen, indem ich die Größe möglichst klein gewählt habe um die Spiele zum Nutzen meiner 32 GB RAM zu zwingen.... Ich dachte ich könnte in ein paar Spielen sie wiederkehrenden nachladeruckler minimieren.... Konnte aber keine Verbesserung finden..... Ich kann nicht ausschließen, dass es theoretisch Verbesserungen geben könnte, aber gefunden habe ich nur Probleme.... Auch mit ausreichend groß gewählten festen Größen.

Daher plädiere ich auch für eine automatische Verwaltung.

Ich verstehe aber durchaus Sorgen bezüglich QLC SSDs.
Dass die weniger lange halten als MLC SSDs ist durchaus logisch und wird in Grunde auch durch die Hersteller zugegeben indem sie geringer TBW angeben.
Trotzdem wird man seine qlc SSD nicht super schnell kaputt schreiben, nur weil die Auslagerungsdatei darauf liegt... Und wenn sie in 5 Jahren sterben sollte, gibt es dann sicherlich größere SSDs zu kleineren Preisen..... Oder den nächsten PC.
Daher würde ich mich hier auch der Fraktion anschließen, die die Auslagerungsdatei auf eine SSD packt.... Die möglichen Leistungseinbußen sind die Schonung einer QLC SSD nicht Wert..... Und höchstwahrscheinlich nichtmal nötig.
 
@DocWindows
Es sind 200 Gb Festplattenplatz frei.
48 Gb ist die größtmögliche dem System zu garantierende Auslagerungsdateigröße. Verbaut sind 16 Gb RAM. Dem System "Garantiert" solls sein, damit das System zum einen nicht ständig am verfügbaren Platz herum arbeitet, weil bei manchen Vorhaben am PC bin ich etliche Tage lang bei, wenn ich dann das Projekt schreibe, muß ich mich auf den verfügbaren Platz verlassen können und mir nicht plötzlich auch nur ein Gb fehlt zum anderen "wühlt" das System dann nicht ständig in der Konfig herum, das bringt Stabilität.

Manche Programme brauchen virtuellen Arbeitsspeicher, ich hab hier sehr alte Progamme am laufen und merk das in der "Gängigkeit" des ganzen PC-Verhaltens, wenn kein virtueller Arbeitsspeicher eingestellt ist, das System ist dann irgendwie lamer, auch viele Ordnereinstellungen fehlen dann (Miniaturansichten ect)

Ich mußte nur kurzfristig den Platz der Auslagerungsdatei "freischaufeln" komme aber nun nicht mehr dahin zurück, die 48 Gb dem System wieder zu garantieren.

@werkan
zwei Platten mit je 2 Terrabyte, , je auf 1 Tb partitioniert, C ausschließlich systemrelevante Programme, keine Spiele, ein Tesor, Belegt 800 Gb, frei: 200 Gb

@Markchen
"vorallem SSD" es ist ausdrücklich HDD verbaut. Grund: hohe Lebensdauer. SSD will ich gar nicht haben, irre teuer, kaum Platz und denn von 12 bis Mittag direkt kaputt und kein Geld für "neu", geschweige des Datenverlustes so ein System dann wochenlang neu zu "stricken"
 
Wir leben nicht mehr vor 10 Jahren, als die OCZs abgeraucht sind. Es gibt genügend Tests, die bescheinigen, dass die heutigen "guten" SSDs länger halten als HDDs. Vorausgesetzt man lässt sie nicht ein Jahr im Schrank liegen, dann vergessen sie evtl. ihre Daten. Hast Du nicht mal eine System-SSD?
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Akkulaus schrieb:
Also ich hab es lieber auf der HDD und somit lebt dann meine SSD 2-3 Jahre länger. Lass mal die Swapfile aktiv täglich nutzen die mehrere Gigabyte schreiben. Dann viel Spaß mit der SSD.
gut, wenn du deine SSD 100 jahre nutzen willst, ist das vielleicht besser sie vor unnötigen schreibzugriffen zu schützen ;)
ich persönlich nutze SSDs seit 2010 und bin bis jetzt bei keiner auch nur annähernd in die nähe der schreibgrenze gekommen.

-andy-
 
Emil66 schrieb:
...SSD will ich gar nicht haben, irre teuer, kaum Platz und denn von 12 bis Mittag direkt kaputt und kein Geld für "neu", geschweige des Datenverlustes so ein System dann wochenlang neu zu "stricken"...
Es gibt terabytegrosse SSDs. Die SSDs halten heute fast genausolange wie Festplatten und jeder Datenträger kann von jetzt auf nachher kaputt gehen. Und niemand muss sein System wochenlang neu stricken - denn dafür gibts Backups, mit denen man sein System in Minuten wiederherstellen kann.
 
Zuletzt bearbeitet:
Also meine älteste SSD ist nun 7 Jahre alt und rennt fast rund um die Uhr.
Sorgen machen ist heutzutage nicht mehr so angebracht.
Und ob das ding 2 oder 3 Jahre länger lebt ist auch Fraglich irgendwann muss man eh upgraden weil die Programme/Spiele immer größer werden.

OCZ ja das waren Geräte sind mir gleich 2 Damals fast zeitgleich gestorben^^
 
"vom System automatisch verwalten lassen" selbe Fehlermeldung.
Das System weist sich hartnäckig 16334 zu die aber nirgendst auftauchen, die Festplatte reserviert nichts. pagefile.sys 0 kb Ich hab bei "keine Auslagerung 200 Gb frei, bei Systemverwaltet 200 Gb frei und wenn ich 48 Gb benutzerdefiniert einstell, belegt er es mit 16 Gb die nirgendwo fehlen aber zumindest fehlen müßten!

Ansonsten ... bitte! Ob SSD toll oder nich toll darum gehts doch nicht. Wie krieg ich die Gb wieder garantiert? Ob das nun sinnvoll ist oder warum ich das mache ist doch egal. Das war immer so eingestellt seit 2013 und kriegs nicht mehr eingestellt. Nur darum bitte, gehts!
 
Versuche diese erstmal ausschliesslich auf der zweiten HDD zu aktivieren - das geht eigentlich immer* und später kannst du wieder zurück.

*war früher (vor SSDs) für einige Anforderungen sogar so von MS empfohlen
 
Das hat leider nicht geklappt aber (!) ... einen Kompromiserfolg

nun hab ich mal (weil ich mich so in die 48000 verbissen hab, mal 45000 als Anfangs- und Endwert eingegeben und siehe da, macht er! Keine Fehlermeldung, statt 200 Gb frei nun 156,52 Gb frei also alles bestens.

Warum er die bisher immer funktionierten 48000 nicht mehr nimmt, das wissen wohl die Götter. Ist nicht nachvollziehbar für mich, diese hartnäckigen Sachen "nö ich will nich, das das mach ich nich" von Computern, diese Eigensinnigkeit, das wird mir immer ein Rätsel bleiben. Das sind so diese kleinen Stresspikseleien im Leben, wo es keinen Grund gibt und trotzdem ein "Affenproblem" draus wird, das ist wie ... verflucht, das geht mit rechten Dingen nicht zu. Wirklich, also ich spreng an Pech jede Statistik!
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ich weiß nicht wie das bei Windows ist? Muss da der Platz für die Auslagerungsdatei am Stück sein? Also ohne Unterbrechung durch Fragmentierung?
 
@xone92
Wenn Windows die Auslagerung selbst verwaltet, dann fragmentiert die Auslagerungsdatei ohnehin, denn jede Erweiterung der Auslagerungsdatei kann in einem anderen Bereich des Datenträgers landen. Nur die fest eingestellte Auslagerung mit gleichem Anfangs- und Maximalwert wird an einem Stück angelegt. Selbstverständlich könnte eine Festplatte ohne genügend zusammenhängendem freien Platz das Problem des TE verursacht haben, erst recht wenn die Reduzierung von 48 auf 45 GB Auslagerungsdatei direkt eine Lösung erbracht hat. Das ist ein ziemlich starker Hinweis darauf, dass die Festplatte einfach mal defragmentiert gehören könnte, weil der zusammenhängende freie Platz nicht gegeben ist.
 
  • Gefällt mir
Reaktionen: xone92
areiland schrieb:
@xone92
... erst recht wenn die Reduzierung von 48 auf 45 GB Auslagerungsdatei direkt eine Lösung erbracht hat. Das ist ein ziemlich starker Hinweis darauf, dass die Festplatte einfach mal defragmentiert gehören könnte, weil der zusammenhängende freie Platz nicht gegeben ist.

So eine Vermutung hatte ich auch, ich kenne es von diversen Unixen die auch bestimmte Volumes unbedingt am Stück ohne Unterbrechung benötigen.

Wie Windows sich da verhält wusste ich nicht. Theoretisch ja sehr gut, wenn man nicht daran herumspielt...
 
Eigentlich nein, auch wenn das natürlich Sinn macht.
Dagegen spricht auch, dass ein Verschieben auf die zweite HDD auch nicht möglich war.

Dazu sollte es aber eigentlich auch einen Eintrag in der Ereignisanzeige geben.
 
Also 48GB hören sich erstmal echt viel an dafür dass nur 16GB RAM verbaut sind. Bei 100 MB/s braucht das über 8 Minuten zum beschreiben/lesen. 8 Minuten! O.o
Wenn so viel tatsächlich gebraucht wird ist vermutlich eine Arbeitsspeichererweiterung oder zumindest SSD dringend empfehlenswert. Auch Festplatten haben erhöhten verschleiß durch viele verteilte zugriffe wie es bei RAM typisch ist.

Dass der Platz an einem Stück benötigt wird klingt erstmal logisch, wenn auch inkonsequent da windows beim automatischen verwalten ja durchaus fleissig streut.
Also mal defragmentieren vor dem nächsten versuch. Die Windowsdefragmentierung hilft hier nicht unbedingt da afaik die daten nicht zu einem block zusammengefügt werden, ich benutze für sowas seit jahren "auslogics disk defrag portable" falls nichts anderes verfügbar ist. Als Bonus ist es klein, braucht keine installation und nutzt die Windowsfunktionen - funktioniert also im laufenden Betrieb und sollte sicher sein falls dabei ein fehler auftritt.

also
1. auslagerungsdatei deaktivieren oder ausreichend klein machen dass es nicht mehr ins gewicht fällt - < 1GB
2. defragmentieren und 'optimieren' um die daten zu verdichten und möglichst viel freien speicher am stück frei zu machen. Anhang für Beispielbild.
3. Als Bonus müsste dieser freie speicher am anfang liegen, da dort die HDD am schnellsten ist.
4. Neue größe einstellen und daumen drücken dass es daran lag.

Ich stelle die Auslagerungsdatei seit 'ewigkeiten' fest ein, über 15 Jahre lang. Von wegen man sollte nicht daran 'rumpfuschen' - der einzige der da rumpfuscht ist Windows selbst wenn es die Datei im laufe der Zeit quer über die ganze Platte verstreut. Sowas gehört möglichst früh an den Anfang einer HDD gelegt damit die Datei an einem Stück auf einem schnellen Bereich der Platte liegt. Linux macht es da besser mit einer eigenen Partition, da kann keine Datei fragmentieren.
Besonders da Windows auch dann ständig kleine Schreibzugriffe darauf macht wenn der RAM noch praktisch leer ist (sowas wie 4GB von 32GB benutzt, rest cache)
Momentan habe ich bei 32GB RAM 2GB Auslagerungsdatei auf der Systemplatte und dynamisch 1-16GB auf einer alten SSD. Damit ist ausreichend da falls doch mal ausgelagert werden muss, aber nicht so viel dauerhaft belegt dass es die knappe SSD Kapazität nennenswert belastet. Dynamische Größe sollte bei SSD auch erheblich weniger problematisch sein, zumal dort auch eher selten und wenn meist größere Mengen geschrieben werden, wodurch sich die fragemtierung in grenzen hält.

Eine kleine SSD die mit Schreiblast zurechtkommt macht sich im übrigen gut als Systemplatte auch mit Auslagerungsdatei. Die 840 pro läuft auch nach 301 TB ohne fehler und Probleme, die evo dagegen hat dank optimierter Nutzung auch als Systemplatte mit Auslagerungsdatei in 36174 Betriebsstunden nur 9560 GB geschrieben.
Daher würde ich schon sagen: keine Angst vor der SSD Lebensdauer.
Nur entweder eine nehmen die auch für schreiblast geeignet ist, oder die Daten so organisieren dass sich die schreiblast in grenzen hält. Zumal für eine Auslagerungsdatei keine große SSD benötigt wird.
Sowas hier würde ich vermutlich momentan nehmen wenn ich einen kleinen Schreiblastspeicher bräuchte.
 

Anhänge

  • 2020-04-29 00_06_23-Auslogics Disk Defrag Portable.png
    2020-04-29 00_06_23-Auslogics Disk Defrag Portable.png
    1,8 KB · Aufrufe: 308
@areiland

Vielen Dank für den Hinweis mit dem Defragmentieren! Ja, Du weißt sowas, hab schon einiges von Dir gelesen, bist `ne echte Instanz, weil Du unglaublich viel Fachwissen hast.

Mit dem Defragmentieren, das ist das einzige, was hier auf „C“ nicht geht, bedingt durch den Tresor (500 Gb), der ist nicht verschiebbar, damit auch nicht defragmentierbar. Dadurch bringt das auf ganz „C“ nichts, zumal zum Defragmentieren … sind das nicht 20 % der Gesamtgröße der Platte, die frei sein muß?

Aber zumindest weiß ich jetzt, warum das mit den 48 Gb nicht ging, das erscheint absolut einleuchtend.

Allen nochmals herzlichen Dank für Eure Mühe und Zeit!!
 
Die Swapfile oder Pagefile wie auch immer ihr es nennt. Die kann man nicht defragmentieren bzw. lässt sich nicht defragmentieren. Ich hab eine extra Partition für sowas, dass genau sowas nicht passieren kann mit der fragmentierung.
 
Zurück
Oben