News Windows 8 soll weniger Speicher benötigen

Cytrox schrieb:
200 MB Speicher interessieren heute kaum mehr - selbst auf Handies wird das bald irrelevant sein.
Natürlich ist das interessant. Besonders jetzt wo Win 8 auf den Tablets und SoCs zum Einsatz kommen soll ist das wieder sehr interessant.



karamba schrieb:
Was gibt es daran nicht nachzuvollziehen? Wozu ist RAM denn da? Um leer auf einen Augenblick zu warten, endlich benutzt zu werden? Schon unter WinXP Zeiten habe ich mich darüber geärgert, dass der Taskmanager haufenweise freien RAM angezeigt hat, aber Hauptsache ordentlich ausgelagert wurde. Linux macht das besser.
Wo macht Linux das denn besser? Das musst du mir mal zeigen.
Sieh dir mal den Screenshot an. Frei sind bei Windows nur ca. 14 MB Das schwankt immer etwas.



Nur mal eine kleine Erklärung zur letzten Spalte:

Der freie und genutzt Speicher besteht aus dem free und dem zeroes Ram.
Zeroed Ram ist freier Speicher, der genullt wurde somit gefahrlos anderen Anwendungen zugewiesen werden kann ohne dass diese dort sensible Daten alter Anwendungen auslesen können.

Free Speicher ist Speicher, der verwendet werden kann, der aber nicht genullt ist. Der kann also nur als nur schreibenden Speicher adressiert werden, da er sensible Daten enthalten könnte.

Modified Ram sind Ram Pages die seit längerem nicht mehr in Benutzung waren und die deshalb von den Working Sets der Anwendungen entfernt wurden. Diese werden nachdem sie in das Pagefile geschrieben wurden in den Standby Pool übertragen.

Standby Ram ist das, was viele immer als Cache bezeichnen. Der Standby Ram ist seit Win Vista in acht Prioritätskategorien aufgeteilt. Dorthinein werden alle Informationen auf Vorrat gespeichert und auch auf Verdacht hinein vorgeladen.

Sollte eine Anwendung nun Speicher benötigen wird dieser Speicher zuerst aus dem Free und Zerod Ram Pool entnommen. Ist dieser erschöpft, dann wird der Speicher aus dem Standby Pool angezapft, wobei dabei die Prioritäten beachtet werden.
Werden Files benötigt, die sich bereits im Speicher befinden werden diese direkt vom Standby Cache wieder in den Commited Ram übertragen.

Windows nutzt also schon den kompletten Speicher aus. Meistens sind es nur einige MB die wirklich ungenutzt sind.


Was Linux hingegen macht ist lediglich die bereits geladenen Pages nicht mehr zu entladen, solange es nicht nötig ist. Es hat bei weitem nicht so eine intelligente Speicherverwaltung wie Windows.


schoolisoutfan schrieb:
Wo war der Fehler bei meiner Aussage? Ich wollte nur sagen das Dateisystem ist alt und sollte überholt werden!
Darf ich mal fragen, was daran alt ist und was man daran überholen sollte?
 
Zuletzt bearbeitet:
schoolisoutfan schrieb:
Wo war der Fehler bei meiner Aussage?
hier
die Kernprozesse sind im Grunde genommen die selben wie sei vor Jahren zum Einsatz kamen. Vom Dateisystem ganz zu schweigen

schoolisoutfan schrieb:
Ich wollte nur sagen das Dateisystem ist alt und sollte überholt werden!
Würde ich dann lieber direkt schreiben, ohne es mit der obigen, nicht wirklich haltbaren Behauptung auszudrücken.

schoolisoutfan schrieb:
Ausserdem gibt es z.B. unter Ubuntu wesentlich mehr Effekte als sie mit Windows möglich sind, ich verstehe nicht was du mir da sagen willst.
Als erstes sind für jedes OS prizipiell alle Effekte möglich die irgendwie berechenbar sind. Mal abgesehen von den enormen Performanceeinbußen wenn das Zeug auf die CPU ausgelagert werden muss, weil der GPU dies oder jenes nicht passt (Treiber bedingt), oder ganz den Dienst verweigert (Echo: Treiber). Und worum es mir eigentlich hauptsächlich ging ist das "schneller". Nimm mal den offenen raedon Treiber und versuch mal den Blur Effekt unter KDE. Viel Spaß. Was schön performant ist (leider das afaik einzige), ist der geschlossene Nvidia Treiber. Imho wird da selbst Win 8 noch hinterher hinken. Aber dann hat man kein KMS. Auch wieder doof.

Prinzipiell geht es mir darum, dass deine Aussagen zu allgemein gehalten und somit nicht ganz haltbar sind.

noxon schrieb:
Was Linux hingegen macht ist lediglich die bereits geladenen Pages nicht mehr zu entladen, solange es nicht nötig ist. Es hat bei weitem nicht so eine intelligente Speicherverwaltung wie Windows.

http://duartes.org/gustavo/blog/post/how-the-kernel-manages-your-memory
You know what the funniest thing about Windows and Linux is? It’s the little differences.
Ich würde mir die Aussage nochmal durch den Kopf gehen lassen. Soooo simpel wie du das hier rüberbringen möchtest ist es wahrlich nicht. Das klingt stark nach Kernel 2.4 aus 2001(!).

noxon schrieb:
Darf ich mal fragen, was daran alt ist und was man daran überholen sollte?
Eines: Die Fragmentierung. Ja die ist da und keine Ursache von PEBKAC, bösen Anwendung oder sich spontan änderndem Zeitgefühl. Sie ist nervig. Unzwar gewaltig. Sie verlangsamt Windows ohne regelmäßige Defragmentierung über die Zeit bis zur Unerträglichkeit.
 
Tulol schrieb:
ich kann mich noch daran erinnern als man nur 8MB RAM hatte...

Tchja.... und ich weiß noch wie ich damals auf meinem ersten PC gespielt habe der nur 700mhz hatte :D
Tchja... ich frage mich wo das noch hinführt.

Irgendwann lachen wir selbst über 8GB Ram und denken uns "man war das wenig" :rolleyes:
 
ChilliConCarne schrieb:
http://duartes.org/gustavo/blog/post/how-the-kernel-manages-your-memory

Ich würde mir die Aussage nochmal durch den Kopf gehen lassen. Soooo simpel wie du das hier rüberbringen möchtest ist es wahrlich nicht. Das klingt stark nach Kernel 2.4 aus 2001(!).
Vielen Dank, aber ich weiß, wie das Linux Memory Management funktioniert. Speicherverwaltung ist bei keinem OS eine einfache Sache. Trotzdem ist die bei Linux recht simpel gelöst. Dort gibt es zum Beispiel keinen so ausgefuchsten Prefetcher wie bei Windows, der für die effektive Speicherverwaltung zuständig ist. Hier geht es ja gerade um Caching-Algorithmen und um die Ausnutzung des "überschüssigen" Speichers. Dort hinkt Linux ganz einfach hinterher, weil es dort auch eigentlich nicht so wichtig ist, da es nunmal auch nicht primär als Desktop-Betriebssystem eingesetzt wird.


Eines: Die Fragmentierung. Ja die ist da und keine Ursache von PEBKAC, bösen Anwendung oder sich spontan änderndem Zeitgefühl. Sie ist nervig. Unzwar gewaltig. Sie verlangsamt Windows ohne regelmäßige Defragmentierung über die Zeit bis zur Unerträglichkeit.
Das mit der Fragmentierung hat Vor- und Nachteile. Das Dateisysteme wie Ext3 nicht so stark fragmentieren wie NTFS muss Ext3 aber auch mit einem Performanceverlust bezahlen. NTFS nimmt die Fragmentierung in Kauf hat dadurch aber einen Performancevorteil.
Die Fragmentierung wird mittlerweile aber auch sofort wieder im Hintergrund durch Defragmentierung der Datenträger auf 0% gesenkt.

Belasse dein System mal für exakt 3 Minuten unangetastet und betrachte dann mal deine Festplatten LED. Du wirst sehen, dass er dann mit dem Defragmentieren beginnt, falls es was zu defragmentieren gibt.
Jetzt im Zeitalter der SSDs ist das mit der Fragmentierung ohnehin nicht mehr so tragisch.

Mein System ist zumindest immer absolut unfragmentiert und ich habe kein Problem mit NTFS. NTFS ist ja nicht in der Entwicklung stehen geblieben. Das kann ja alles was Dateisysteme wie Ext3 auch können und sogar noch mehr, wie zum Beipsiel transaktionelle Operationen, wobei man mehrere Dateioperationen in eine Transaktion verpacken und dann atomar ausführen kann.



Killerphil51 schrieb:
Tchja.... und ich weiß noch wie ich damals auf meinem ersten PC gespielt habe der nur 700mhz hatte :D
700MHz? Schön wär's gewesen. Meiner hatte 4,77 MHz (x86 Prozessor wohlgemerkt).

Wer hat nen kürzeren zu bieten? ;)
 
Zuletzt bearbeitet:
Mon Chilly,

was kann ein OS dafür das ein Grafikkartenhersteller schlechten Linux support bietet. AMD auf Linux war schon immer ein graus, hat mich früher auch geärgert. Ich wollte nur darauf hinaus das ein Linux durchaus MEHR Effekte haben kann als ein Windows OS - Denn viele Leute sehen eigentlich nur die Oberfläche und sagen das OS ist neu (xp zu Vista z.B.)

NTFS: Erste Version ist noch aus 3.1 Zeiten, aktuelle Version ist von 2003 (mit XP eingeführt)
Ext4: Erste fertige Version 2008

Es ging mir nur darum das auch MS groß erzählt hat "Wir arbeiten an einem neuen Dateisystem" - Davon ist die letzten Jahre leider nur nichts zusehen gewesen


Ansonsten: Ich hatte keine Lust alles ausführlich dar zulegen, wenn man solche Dinge beschreibt wird da schnell nen ganzer Artikel draus und eigentlich war es ja nur nen Kommentar ;)

Beide OS haben ihr Stärken, bei manchen sieht man die Weiterentwicklung nur nicht so deutlich ;)
 
Zuletzt bearbeitet:
das betraf doch nur die 1. Version von Vista die war grotten schlecht kaum zu gebrauchen
die war mir gleich abgestützt so das ich XP wieder installiert hatte,
heute ist Vista mit Sp2 oder Win 7 Sp1 doch alles im sehr erträglichen Rahmen,
die meisten PCs haben heute eh mehr als 2 GB Ram, Standard ist ab 4 GB
da spielt 200 weniger doch eh kaum eine Rolle mehr nur bei Netbboks vielleicht.
ca. 650 bis 700 verbraucht bei mir die 32 Bit Vers-. von Win 7 die 64 Bit Vers. mehr .. aber auch das ist egal wer sich extra 64 Bit Windows installiert macht das im grunde genommen nur wegen dem Ram um mehr Ram nutzten zu können für OS/Programme das braucht aber nicht jeder.

aber besser so als weiter unnötig mit Ram Verbrauch prassen
gut das es nicht nach oben geht sondern nach unten etwas .
 
Zuletzt bearbeitet:
schoolisoutfan schrieb:
NTFS: Erste Version ist noch aus 3.1 Zeiten, aktuelle Version ist von 2003 (mit XP eingeführt)
Ext4: Erste fertige Version 2008
Version 3.1 wurde da begonnen, aber mit jeder neuen Windows Version sind neue Features hinzugekommen. Darum gibt es ja auch eine andere zählweise die mit jedem Betriebssystemrelese erweitert wird. Such mal nach NTFS 6.1 Das ist das aktuelle, das Win 7 jetzt verwendet.


Es ging mir nur darum das auch MS groß erzählt hat "Wir arbeiten an einem neuen Dateisystem" - Davon ist die letzten Jahre leider nur nichts zusehen gewesen
Was du meinst ist WinFS. Das war niemals ein Dateisystem. Das haben Newsseiten zu einem Dateisystem gemacht. WinFS war eine sich in der Entwicklung befindliche Dateisystemerweiterung zu NTFS. Irgendwann hat MS die Entwicklung aber eingestellt. Ich weiß nicht mehr aus welchem Grund. Ich wüsste ehrlich gesagt auch nicht, wozu ich solch ein Feature brauchen sollte. Das braucht sicherlich nur ein ganz geringer Teil der User.

NTFS selbst kann eigentlich alles was heutige Dateisysteme so können müssen und muss daher auch nicht komplett neu entwickelt werden.

- Journaling
- Hard links und symbolische links
- Single instant storage
- Dateikompression
- Alternative Dateistreams
- Directory junctions
- Shattenkopien
- Quotas
- Transaktionen
- ACLs
- Verschlüsselung

und alles was mir jetzt nicht noch einfällt.

Den einzigen riesen Nachteil den Windows hat ist die 260 Zeichen MAX_PATH Begrenzung.
Ein Verzeichnis kann nicht länger als 260 Zeichen lang sein. Das wird Microsoft aber niemals ändern können. Diese Begrenzung stammt noch aus CP/M (Control Program for Microcomputers) Zeiten. Das ist ein Betriebssystem aus den 70'ern, dass diese 260 Zeichenbegrenzung und das 8.3 Dateiformat eingeführt hatte.
Laut Microsoft stecken diese 260 jetzt so tief in so vielen Programmen verwurzelt, dass eine Änderung dieses Wertes sofort zur Inkompatibilität zu einem großen Teil aller Windowsprogramme führen könnte.
Es hat also nicht unbedingt etwas mit dem Dateisystem zu tun. NTFS kann grundsätzlich 65535 Zeichen. Es ist aus Kompatibilitätsgründen aber auf 260 zeichen begrenzt.
Ich glaube wenn man ein Verzeichnis mit einem // beginnt, dann kann man sogar Verzeichnisse mit 65535 Länge erstellen. Dies kann man aber nur über die WinAPI machen und nicht über den Explorer.

Naja. Ich merke gerade, dass ich vom Thema abkomme.
Das soll dann auch mein letzte Wort dazu gewesen sein. :)
 
Zuletzt bearbeitet:
Thema Speicher

noxon schrieb:
Vielen Dank, aber ich weiß, wie das Linux Memory Management funktioniert.
* Ich würde nur gerne wissen, welches Maß du für "Wissen -> Funktion" hier ansetzt.

noxon schrieb:
Speicherverwaltung ist bei keinem OS eine einfache Sache.
** Ja.


noxon schrieb:
Trotzdem ist die bei Linux recht simpel gelöst.
Ich bezweifle bei der Aussage, dass du den Blog Eintrag, der das Ganze auch nur grob erklärt wirklich gelesen hast. Daher auch mein Einwand bei (*). Zudem revidierst du damit irgendwie (**). Wenn du das LMM wirklich kennst, sollte diese Lektüre
http://ptgmedia.pearsoncmg.com/images/0131453483/downloads/gorman_book.pdf
die gerade mal das alte Kernel 2.4 MM beschreibt, ja deinem Wissen enstprechen. Durc das Ding bin zugegebenermaßen nicht mal ich komplett durchgestiegen (paar Jahre her), aber es reicht um zu sagen, dass "LMM" und "simpel" in einem Satz schon arg anmaßend ist. Selbst ein "recht simpel", was wahrscheinlich im relativen Sinne gemeint war.

Ein Blick auf linux-mm.org ist auch ganz informativ.

***
noxon schrieb:
Dort gibt es zum Beispiel keinen so ausgefuchsten Prefetcher wie bei Windows, der für die effektive Speicherverwaltung zuständig ist.
Ausgefuchst ist hier, im Vergleich zu der Wissenschaft des MM nicht wirklich was. Mit dem eigentlichen MM, mit dem du angefangen hast (mit dem Begriff "paging"), hat das sowiso nur indirekt zu tun. Du klatschtst einfach eine vernünftig gewählte, lernende Heuristik gegen deinen MM und verlagerst das (Orakel-) Laden einfach nur auf einen früheren Zeitpunkt. Das ist OS Kern Sache und gehört zum "was" und "wann" du etwas dem Speicher zu essen gibst. Aber wie das dann verdaut wird, ist Sache des MM. Da hat irgendein prefetcher nichts mehr zu melden. Vielleicht auf ganz dünner Ebene, das wars dann auch. Ja, ich weiß, Wikipedia listet das beim Windows-Linux Vergleich unglückliecherweise unter "Memory Management", dennoch sind das zwei technsich, gänzlich unterschiedliche Felder. Selbes gilt insbesondere auch für SuperFetch.

**** Und wenn man prefetching unter Linux haben will:
http://linux.die.net/man/2/readahead
http://www.tecchannel.de/pc_mobile/linux/1751188/linux_mit_preload_programme_schneller_laden/ (hat mehr was mit SuperFetch zu tun)
Das ist übrigends auch eine Negierung deiner Aussage (***).

Hier wieder akademische Lektüre:
http://www.ece.eng.wayne.edu/~sjiang/Tsinghua-2010/linux-readahead.pdf

Und wenn wir schon bei "Foo kann was, was Bar nicht kann", hier etwas was ich in der Form unter Windows nicht kenne:
http://linux.die.net/man/8/prelink
was aber auch bei der gänzlich unterschiedlichen DSO Basis zwischen Linux nud Windows wenig verwunderlich sein dürfte.


noxon schrieb:
Hier geht es ja gerade um Caching-Algorithmen und um die Ausnutzung des "überschüssigen" Speichers.
Mit "caching" im eigentlichen Sinne hat prefetch - hier nur auf den algorithmischen Part bezogen - eher weniger zu tun, auch wenn der Übergang vom 'prefetching' zum 'caching' nicht ganz scharf ist und oft in einen Topf geworfen wird. Es wird 'nur' der swap- und page-cache mit Hilfe dieser Algorithmen 'bedient'. Für das caching selbst sind wieder andere Teile zuständig. Bin mir da jetzt aber nicht ganz sicher, kann mich also auch täuschen.

noxon schrieb:
Dort hinkt Linux ganz einfach hinterher,
Siehe (****). Den Satz kannst du aber auch gerne auf der Kernel Mailingliste reinstellen. Nur beschwere dich dann über den Threadverlauf nicht.

noxon schrieb:
weil es dort auch eigentlich nicht so wichtig ist, da es nunmal auch nicht primär als Desktop-Betriebssystem eingesetzt wird.
Ab hier glaube ich, dass du die ganze Zeit eher SuperFetch gemeint hast. Ich kann mir nicht vorstellen, dass du ernsthaft 'prefetching' seine Prioritäten nur dem Desktopbereich zuordnest.


Thema Dateisysteme

noxon schrieb:
Das mit der Fragmentierung hat Vor- und Nachteile.
Du meinst wohl eher dessen Prävention.

noxon schrieb:
Das Dateisysteme wie Ext3 nicht so stark fragmentieren wie NTFS muss Ext3 aber auch mit einem Performanceverlust bezahlen. NTFS nimmt die Fragmentierung in Kauf hat dadurch aber einen Performancevorteil.
http://www.phoronix.com/scan.php?page=news_item&px=ODIxNw
http://www.nerd-supreme.de/2009/12/...-jfs-reiserfs-btrfs-und-ntfs-3g-im-vergleich/
Und bevor zumindest zum zweiten Link Unkenrufe kommen:
Benchmarktests sind nicht unumstritten. Gewisse Tuning-Praktiken können zwar die Leistung einzelner Komponenten erhöhen, aber auch die Ergebnisse verfälschen. In diesem Test wurden keine leistungssteigernden Mittel verwendet. Sie spiegeln also wieder, was ein Anwender nach einer Standard-Installation dieser Linux-Variante erhalten würde.
Und IOZone ist ein ziemlich gutes Benchmark Tool. Daher würde ich die arg allgemein gehaltene Aussage über die Performance, eher mit Vorsicht genießen.


noxon schrieb:
Die Fragmentierung wird mittlerweile aber auch sofort wieder im Hintergrund durch Defragmentierung der Datenträger auf 0% gesenkt.
Mal das 'sofort' genau nehmend, dh. t=0, oder von mir aus auch konstante Laufzeit O(1) und die von dir implizierte Optimalität des Verfahrens: Dir ist schon bewusst, dass du mir eben gerade versucht hast P=NP weiß zu machen? DEfragmentierung ist (über paar Transformationen), grob gesagt ein diskretes Bin Pack Problem und das ist NP vollständig.

http://en.wikipedia.org/wiki/Bin_packing_problem

noxon schrieb:
Belasse dein System mal für exakt 3 Minuten unangetastet und betrachte dann mal deine Festplatten LED. Du wirst sehen, dass er dann mit dem Defragmentieren beginnt, falls es was zu defragmentieren gibt.
Du machst eine FS Analyse anhand der HDD LED? Nicht schlecht. Mir wäre auch neu, dass NTFS eine (integrierte) online Defragmentierung durchführt. Ich tippe da doch sehr viel eher auf den Indexer, oder einen WinDienst der die pagefile abklappert.

noxon schrieb:
Jetzt im Zeitalter der SSDs ist das mit der Fragmentierung ohnehin nicht mehr so tragisch.
Sehe ich auch so, aber diverse Aussagen einiger Hersteller machen mich stutzig:
Wikipedia schrieb:
während MTron für seine SLC-basierten Produkte ein Defragmentieren sogar empfiehlt
Ich warte da lieber nochmal ab. Versuch ohnehin mal, dem Leiter eines Rechenzentrums zu sagen, dass Fragmentierung nicht mehr schlimm ist, da man in alle Cluster ja SSDs einbauen könnte. Den Chef mit dem Kostenvoranschlag in der Hand will ich nicht sehen.

noxon schrieb:
Mein System ist zumindest immer absolut unfragmentiert
Schwer verdaubare Aussage, genau wie deine P=NP Behauptung.

noxon schrieb:
und ich habe kein Problem mit NTFS.
Dafür ich im Nebenjob bei ca. 30 Arbeitsplatzrechnern, einem Win2008 Monster-Server, trotz MSCE Heinzel der dauernd das Blaue vom Himmel verspricht. Nein, mit PEBKAC hat das schon lange nix mehr zu tun.

noxon schrieb:
NTFS ist ja nicht in der Entwicklung stehen geblieben.
Habe ich schoolisoutfan auch entgegnet.

******
noxon schrieb:
Das kann ja alles was Dateisysteme wie Ext3 auch können und sogar noch mehr
Welche Klasse von FS meinst du mit "wie Ext3". Nur mal auf Ext3 allein bezogen: Nein.

http://www.webupd8.org/2011/10/increased-performance-in-linux-with.html
http://en.wikipedia.org/wiki/Swappiness (kann Windows gar nicht)

noxon schrieb:
wie zum Beipsiel transaktionelle Operationen
http://www.sigops.org/sosp/sosp09/papers/porter-sosp09.pdf
http://www.ibm.com/developerworks/linux/library/l-linux-synchronization/index.html

Überhaupt sind IBM technical Reports sehr empfehlenswerte Lektüre. Man merkt dem Unternehmen sein schieres Guru Wissen einfach an.

Aber ext hin oder her, ext4 ist das Letzte in seiner Linie. Btrfs etabliert sich langsam und einen Vergleich zu NTFS braucht man hier gar nicht erst anfangen. Vor allem mit Oracle im Rücken. Halte man von denen was man will, aber Oracle hat neben IBM so ziemlich die Speerspitze an Spezialisten für solche Dinge.


Fazit
Du versuchst Linux hier eine deutlich unterlegene Speicherverwaltung, sei es bei HDD oder RAM anzudichten, was so einfach unhaltbar ist. Vorrausgesetzt deine Ausführungen würden stimmen, dann würde in allen Bereichen wo selbst kleine Performancevorteile entscheidend sind, die Arbeit nur von stümperhaften Idioten gemacht werden, weil dort zu über 90 Prozent Linux eingesetzt wird. Und ich kann mir das bei Google, IBM, Oracle und zig weiteren Konzernen und zahllosen Instituten mit Hochleistungsrechnern und ganzen Serverfarmen beileibe nicht vorstellen. Und das hat nichts mit Server<->Desktop zu tun. Hier kann man keine Analogie zu Server CPU <-> Desktop CPU machen.

Mit gewissen Dingen weiß ich bei deinem Post dann auch nicht ganz richtig was anzufangen, zB ob prefetch oder superfetch gemeint war. Vielleicht lese/verstehe ich deinen Beitrag auch nicht richtig. Auch deine implizierte, wenn auch wahrscheinlich ungewollte, P=NP Behauptung hat mir doch Magenschmerzen bereitet.


noxon schrieb:
Ich weiß nicht mehr aus welchem Grund
Weil die Forschung zum Zusammenkleben einer relationalen Algebra mit Bäumen noch in den Kinderschuhen steckt.

noxon schrieb:
Ich wüsste ehrlich gesagt auch nicht, wozu ich solch ein Feature brauchen sollte.
Huh, WinFS wäre eingeschlagen wie eine Bombe! Man muss sich das mal weiter vorstellen. Jeder Dienst der irgendwie das FS managed und das mit irgendwelchen obskuren Metainformationen macht, wäre obsolet. Beliebige Metainformationen für Dateien mit relationelem System und das ganze komplett Dateisystemtransparent auf einer konformen Basis. NTFS hätte damit ein ganz schönes Alleinstellungsmerkmal gehabt. Zusammen mit Triggern wäre das auch für den Desktopuser ein wahrlich technischer Fortschritt gewesen.

schoolisoutfan schrieb:
OS dafür das ein Grafikkartenhersteller schlechten Linux support bietet
Nichts. Schrieb ich auch nicht. Es ging mir hier rein um deine arg pauschale Aussage.

schoolisoutfan schrieb:
Lies meine Antwort nochmal. Es ist ein Unterschied ob mehr Effekte implementiert wurden, oder (prinzipiell) mehr Effekte möglich sind
 
Danke für die ausführlichen Antworten, weis nun wieder warum ich mein Info geschmissen habe.

Und du hast Recht das mit den Effekten habe ich heute Morgen wirklich falsch verstanden, ist ja auch eine unchristliche Zeit.

Wie dem auch seih, Effizienteres Ressourcenmanagement ist immer begrüßenswert, egal wie teuer aktuelle HW ist.
 
@noxon: Was ist an meiner Aussage denn falsch?

Adriessen ist nicht belegen. Warum hat man unter Windows XP 32-Bit trotz 8 GB verbauten Arbeitsspeicher dennoch unter 4 GB zur Verfügung? Weil das Betriebssystem nicht mehr Speicher adressieren kann...

Adressierbarer Speicher = nutzbarer Speicher (egal ob vom OS selbst oder von Anwendungen)


noxon schrieb:
Mein System ist zumindest immer absolut unfragmentiert
Dir ist klar, dass der unfragmentierte Zustand nicht zwingend der beste ist? oO
Der Windows-eigene Defragmentierer legt Dateien mitunter bewusst fragmentiert ab, weil er weiß, dass von z.B. einer DLL-Datei nicht jede Zuordnungseinheit gebraucht wird beim Lesen... für solche Analysen ist ja der Windows-Prefetcher verantwortlich (der beim Start einer Anwendung aktiv wird und aufzeichnet, welche Blöcke welcher Datei in welcher Reihenfolge gebraucht werden...). Und beim erneuten Start der Anwendung kann das System die entsprechenden Informationen ebenfalls nutzen und die entsprechenden Blöcke versuchen vorauszuladen...
 
Zuletzt bearbeitet:
am3000 schrieb:
die meisten PCs haben heute eh mehr als 2 GB Ram
Crunkmaster schrieb:
Gibt es überhaupt noch Rechner die mit weniger als 4GB RAM verkauft werden?
Ja, schau dich mal bei den Angeboten im Tablett-PC-Markt um: Üblich sind dort 1 Gb RAM, in letzter Zeit häufiger 2 Gb RAM.

Und wenn ich mir Windows 7 ansehe welches leicht mal 600 Mb belegt, dann freut man sich bei 1 Gb RAM, dass Windows 8 nur 400 Mb belegt und mehr Platz für Anwendungen bleibt.

Außerdem: Weniger belegter RAM = geringerer Stromverbrauch (für Speicher refresh) = längere Laufzeit von Tablett-PCs und Notebooks.

romeon schrieb:
bei dieser grottenhässlichen Oberfläche wäre mehr Speicher auch einem Wunder gleichgekommen.
Ich glaube das siehst du falsch: Es ist ja nicht die Windows 7 Oberfläche durch die grottenhässliche Metro-Oberfläche ersetzt worden. Sondern neben der Windows 7 ähnlichen Desktop-Oberfläche ist die grottenhässliche Metro-Oberfläche hinzugekommen.
 
^^ dann darf man aber nicht Mozilla verwenden,
also Firefox und Thunderbwird wird es bei 1 GB Ram auf nem Netbook mit 1 GB z.b. recht knapp wenn man mehere Seite geöffnet und ein paar Tools laufen hat,
da wird auch Windows 8 nicht viel darn ändnern können weil einfach 1 GB zu wenig ist .
 
Zurück
Oben