Wie viel Platz sollte freibleiben (Optimale Größe Partition)

MKF001

Cadet 3rd Year
Registriert
Juni 2016
Beiträge
44
Ich frage mich, ob der Platz, den man für eine Partition freihalten muss, damit sie möglichst optimal funktioniert, eher auf eine bestimmte Größe oder einen prozentualen Anteil festgelegt werden kann.
Wenn es ein prozentualer Anteil ist, heißt das, man sollte die Partitionsgröße eher mittelmäßig groß halten (also etwa lieber deutlich weniger als 1TB als ein 1TB), um möglichst viel vom insgesamt verfügbaren Platz wirklich nutzen zu können?
Denn, sagen wir, man sollte immer 20% freihalten, von 1Tb sind das 200GB, von 800GB aber nur 160GB, die sozusagen "verloren gehen". Natürlich ist das Ausmaß der Vorsicht da ein bisschen übertrieben, aber wie ist nun die Empfehlung allgemein in dieser Sache?
 
Du sagst ja nichtmal, was du mit deinen Partitionen vor hast? also kann man da auch keine Empfehlung aussprechen.
Ich persönlich partitioniere schon lange nicht mehr. Bei so kleinen größen wie 1TB SSDs rentiert es sich ja eh kaum. Da ist am Ende auf der Partition die man braucht wieder zu wenig und auf der anderen zu viel.
Wenn ich Sachen separiere, wie zB Spiele, landen die auf einer separaten SSD.
Für die wichtigen Daten hab ich eh ein Backup, es gibt meist eh keinen wirklich sauberen Weg ein OS neu zu installieren und zum Beispiel die Userdaten auf einer anderen Partition liegen zu haben. Damit zieht man immer nur Unmengen alten Datenmüll mit.
 
Falls wir von SSDs reden spielt das meiner Meinung nach überhaupt keine Rolle mehr und ist ein Mythos. Der Speichercontroller nutzt den "ungenutzen" Speicher so oder so.
 
Stell sie in die Schrankwand, wenn du sie "schonen" willst. Bei Festplatten war das aber auch überhaupt nie Thema. Bei SSDs nur anfangs relevant.

Nutz 100 % und fertig.
 
Moderne SSDs haben eh Speicher ungenutzt, auf den du gar keine Zugriff hast. Also mach die Partition so groß wie es geht.
Und der Windows Explorer färbt das Laufwerk rot, wenn es knapp wird.
Natürlich, aber das ist logisch, sollte man schon alleine für Windows Update einige Gigabyte einrechnen.
 
Keine SSD, sondern HDD. Das ist ja auch der Bereich für HDD... (Oben ist der für SSD.)
Nutzen: Spiele und alles andere. Überraschung.

Ich denke schon, dass z.B. die Geschwindigkeit für eine Neuinstallation bedeutend sinkt, wenn der Platz knapp ist. Insgesamt braucht man keine solchen "ist doch egal" Diskussionen führen, wenn man nach dem Prinzip fragt. Man ist nicht verpflichtet mit radikalen Skeptikern bei einer basalen Frage umzugehen. Man muss auch nicht alle offensichtlichen und nebensächlichen Details nachbeten oder voraussehen. (Macht null Unterschied oder was anderes ist völlig unwahrscheinlich bzw. wäre erwähnt worden.) Genauso hätte ich erwartet, dass das automatische Posing über SSD seit 2017 oder so abgenommen hätte (zumal im falschen Bereich), es gibt noch andere sinnvolle Hardware. Aber jetzt hab ich auch keine Lust mehr... Alles immer dasselbe, oh Mann, diese Foren...
 
Du musst da nichts frei halten. Klar, wenn du die System Partition auf der HDD bis zum Rand voll machst, dann wird es deutlich langsamer, da Windows nichts mehr Speichern kann. Im Grunde sollten da so grob 3-10gb frei bleiben.

Bei ner HDD kommt es eher drauf an, wo die Daten liegen, also innen oder außen auf der Magnet Scheibe und wie stark die Daten verteilt sind, davon ist die Geschwindigkeit abhängig.

Aber im heutigen Zeitalter von SSDs sollte man sich die Frage stellen, warum man noch ne HDD verwenden sollte. Zumindest bis zu ner große von 1TB ist ne SSD ja locker bezahlbar.
 
Naja, bei einer HDD machte Partitionieren schon Sinn, weil dann das Defragmentieren einer kleineren Partition halt schneller ging ...

... falls das inzwischen nicht eh automatisch im Hintergrund erfolgt. (Hab seit Jahren keine HDD mehr im Einsatz und daher keinen aktuellen Erfahrungswert)

Sinn machte das aber vor allem für die Daten die sich häufiger mal duch Installieren/Deinstallieren und Updates in kleinen Dateien verändern, weil das dann zur Fragmentation führte. Also zB bei Spielen.
Beim Lagern großer Dateien wie zB Videos bringt es eher weniger, wenn man die nur speichert und danach nicht mehr verändert.

Eine HDD würde ich heutzutage nur noch als Lager für fertige Dateien und zur Sicherung verwenden und dazu halt SSDs für alles was noch bearbeitet wird und für Spiele.
 
MKF001 schrieb:
Nutzen: Spiele und alles andere. Überraschung.
Diese Angabe, also der Verwendungszweck, hat im Eröffnungsbeitrag gefehlt. Das ist dann auch mit ein Punkt, weshalb sich eine Fragestellung bzw. ein Threadverlauf ggf. in eine etwas andere Richtung entwickelt.

MKF001 schrieb:
Ich denke schon, dass z.B. die Geschwindigkeit für eine Neuinstallation bedeutend sinkt, wenn der Platz knapp ist.
Also eine Neuinstallation von Spielen auf einer HDD. Nein, da bringt es nichts, 200 GB von 1 TB frei zu halten. Im Gegenteil, das wäre Ressourcenverschwendung. Vielmehr kommt es auf den Fragmentierungsgrad an. Oder, wenn eine Partition im Bereich nach ganz innen zum Drehmittelpunkt hin liegt, da ist die Geschwindigkeit geringer als z.B. ganz außen am Rand des Magnetdatenträgers. Zur Veranschaulichung: Das ist das gleiche Prinzip wie bei der Rotationsgeschwindigkeit der Erde, einmal an den Polen, und dann am Äquator:
-> https://wetter-wien.wien/wetter-lexikon/corioliskraft/

MKF001 schrieb:
Man muss auch nicht alle offensichtlichen und nebensächlichen Details nachbeten oder voraussehen. (Macht null Unterschied oder was anderes ist völlig unwahrscheinlich bzw. wäre erwähnt worden.)
Wie gesagt, wenn eingangs Infos fehlen, bleibt halt in der Folge mehr Platz für Eventualitäten. Denn:
MKF001 schrieb:
Genauso hätte ich erwartet, dass das automatische Posing über SSD seit 2017 oder so abgenommen hätte (zumal im falschen Bereich)
Die Fragestellung, Speicherplatz frei zu lassen, ist eher eine klassische, die immer wieder zu SSDs gestellt wurde und teilweise auch noch wird. Das liegt schlichtweg daran, dass früher bezüglich SSDs öfter Empfehlungen zu lesen waren, einen bestimmten Prozentteil des Speicherplatzes frei zu lassen. (Aber auch dieses Freilassen ist bereits durch die Hersteller / Firmware der SSD geregelt.)

Das heißt, Deine Fragestellung wäre eher typisch für zurückliegende zu SSDs und weniger für HDDs gewesen, daher wahrscheinlich auch die Tendenz, hier im Thread in den Antworten auf SSDs mit Bezug zu nehmen. Also alles kein Grund für unnötige Aufregungen.
 
  • Gefällt mir
Reaktionen: rg88
MKF001 schrieb:
aber wie ist nun die Empfehlung allgemein in dieser Sache?

Hier lasse ich auf einer 10TB Festplatte, die viel genutzt wird (lesen+schreiben), nach Möglichkeit 10% frei.
Das ganze ist für Video-Aufnahmen.
Bisher hatte ich so noch keine Probleme.

Kann mir vorstellen, je voller die Platte wird, das er bei mehreren zeitgleichen Aufnahmen die letzten freien Sektoren krampfhaft ansteuern muss, die HDD mit dem Datenfluss nicht mehr schritt halten kann. Das ist bei ca. 10% freiem Speicher noch nicht vorgekommen. (bis zu 6 Aufnahmen, bei gleichzeitigem abspielen eines Videos)
 
Dass wir im Unterforum für HDDs sind hatte ich in der Tat überlesen ;-)
 
Egal ob SSD o. HDD! Es sollte immer freier Speicher auf einer Partition zur Verfügung stehen!
Warum?
Weil oftmals selbst Entwickler nicht wissen, wie ihre Programme reagieren, wenn kein Speicher adressierbar ist!
Denn, dass wurde (meistens) nie getestet!
Der Speicher ist das Gehirn des Computers! Schaltet man es ab (z.B. durch Speichermangel der Windows Auslagerungsdatei) kann man atemberaubende Fehlermeldungen erleben.
Die daraus resultierenden Fehlermeldungen ergeben keinen Sinn mehr.
Mein Tipp:
Immer etwa 10% Speicherplatz freihalten!
Ich habe im beruflichen Alltag erlebt, das Datenbanken zerstört wurden, weil Laufwerk C: (hier war die Windows-Auslagerungsdatei) komplett voll war!

Oftmals arbeiten Entwickler im Bereich der Datenbanken mit "Spielgrössen". Es gibt keine Limitierung für die Datenabfrage! Doch dann gibt es in der realen Welt Datenbanken, die mehrere Potenzen grösser sind als die der Entwickler! Was passiert unter diesen Bedingungen, wenn ein User eine Abfrage startet, die die vorhandenen Ressourcen überbeansprucht?
 
Zuletzt bearbeitet:
Makkaroni schrieb:
Ich habe im beruflichen Alltag erlebt, das Datenbanken zerstört wurden, weil Laufwerk C: (hier war die Windows-Auslagerungsdatei) komplett voll war!
In diesem Fall geht es allerdings eben nicht um einen Systemdatenträger, sondern mehr um so ein "Ablagedatengrab" für alles Mögliche und ein paar Games.

Dass für systemrelevante Prozesse auf Systemdatenträgern stets genügend Speicherplatz frei sein sollte, versteht sich von selbst. Sonst sind im Ende nicht mal mehr System-/Feature-Updates möglich (Beispiel: bei einen nur noch freien Restspeicherplatz von 3 GB).
 
Makkaroni schrieb:
Ich habe im beruflichen Alltag erlebt, das Datenbanken zerstört wurden, weil Laufwerk C: (hier war die Windows-Auslagerungsdatei) komplett voll war!

Oftmals arbeiten Entwickler im Bereich der Datenbanken mit "Spielgrössen". Es gibt keine Limitierung für die Datenabfrage! Doch dann gibt es in der realen Welt Datenbanken, die mehrere Potenzen grösser sind als die der Entwickler! Was passiert unter diesen Bedingungen, wenn ein User eine Abfrage startet, die die vorhandenen Ressourcen überbeansprucht?
1. Was hat eine "Datenbankabfrage" mit der Speichergröße zu tun?
2. Wieso vermischt du wild RAM und Persistenz?
3. Jede professionelle Datenbank hat eine Segmentgröße, die man verwaltet. Der Festplattenspeicher muss natürlich mindestens dem entsprechen. Aber wenn die Segmentgröße erreicht ist, wirft die DB Fehler aber zerschießt sich nicht. Wenn sowas passiert waren einfach gewaltige Pfuscher am Werk
 
  • Gefällt mir
Reaktionen: Bitopium
rg88 schrieb:
1. Was hat eine "Datenbankabfrage" mit der Speichergröße zu tun?
Nun, jede Datenbank-Abfrage benötigt Speicherplatz! Reicht physikalischer Ram für die zugrunde liegende Abfrage nicht mehr aus, wird die Auslagerungsdatei beansprucht! Stellst du das in Frage?
Wenn die Applikation keinen Ram mehr findet, wie wird diese sich verhalten?

Ich habe das erlebt (Microsoft SQL-Server). Die Datenbank wurde dabei irreparabel beschädigt. Die Pfuscher verdienen ihr Geld bei Microsoft! Ich mache den Programmieren in diesem Fall aber keinen Vorwurf. Denn solche Situationen müssen von den Entwicklern/Administratoren Vorort bei der Implementierung der Datenbank erkannt werden!

Du redest von Segmentgrössen, die verwaltet werden müssen? Es gibt nur zwei Stellen wo Speicher zur Verfügung gestellt werden kann:
1. RAM
2. Festplatte
Wenn es hier nichts mehr zu holen gibt, sind Probleme vorprogrammiert!
 
Makkaroni schrieb:
Nun, jede Datenbank-Abfrage benötigt Speicherplatz! Reicht physikalischer Ram für die zugrunde liegende Abfrage nicht mehr aus, wird die Auslagerungsdatei beansprucht! Stellst du das in Frage?
Nö, das braucht immer RAM, auslagern bedeutet ja bereits, dass die Maschine unterdimensioniert ist. Wenn dann noch der virtuelle Speicher nicht allokiert werden kann, dann hat hier der Systemadministrator zweifach versagt und einen Bock geschossen.


Makkaroni schrieb:
Die Datenbank wurde dabei irreparabel beschädigt. Die Pfuscher verdienen ihr Geld bei Microsoft!
Nein, wir setzen zwar Oracle ein, aber das wird bei MS nicht anders sein. Wieviel Speicherplatz die DB Brauchen darf ist konfigurierbar. Wenn ein Limit erreicht ist, dann macht die DB dicht, bis die Segmente erweitert wurden. Genauso geht man vor um solche Probleme zu vermeiden. Wenn dem bei euch nicht so war, dann hat der Datenbankadmin seinen Job nicht gemacht. Oder er hat seinen Speicherbedarf nicht an den Systemadministrator kommuniziert.
Auf einem produktiven System treten solche Probleme nur auf, wenn Pfuscher am Werk sind, sorry.
Ergänzung ()

Makkaroni schrieb:
Denn solche Situationen müssen von den Entwicklern/Administratoren Vorort bei der Implementierung der Datenbank erkannt werden
Administratoren. Die Entwickler können dafür überhaupt nichts. Die haben eine Schnittstelle zu ihrer Persistenzschicht und das war's. Die Administration der Persistenz ist dafür verantwortlich die Daten zu speichern oder eine Fehler zurück zu melden. Alles andere kann ein Entwickler nicht beachten, weil es ausserhalb seines Views liegt. Er hat auch gar nicht die Möglichkeit dazu.
 
rg88 schrieb:
Die Entwickler können dafür überhaupt nichts.
So laut würde ich nicht brüllen. Man kennt doch zu Genüge "Experten", welche irgendwelche Settings zur Runtime setzen oder/und Return Codes nicht prüfen, Exceptions ignorieren, ... Einem Kunden läuft die Warenwirtschaft Amok, weil durch exzessives Logging von Zeit zu Zeit die Platte/VM vollläuft.
 
In order for the layout policies to be effective, a file system cannot be kept completely full. For each file system there is a parameter, termed the free space reserve, that gives the minimum acceptable percentage of file system blocks that should be free. If the number of free blocks falls to zero, the file system throughput tends to be cut in half, because of the inability of the file system to localize blocks in a file.

http://docs.freebsd.org/44doc/smm/05.fastfs/paper.pdf
 
Zurück
Oben