News Intel belebt mit „Larsen Creek“ den Flash-Cache neu

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.286
und wenn ich mir jetzt einfach eine "richtige" SSD zulege? Was ist denn da der Unterschied?

mfg memory_stick
 
Bis das kommt sind die 64GB SSDs sicher auch nochmal etwas günstiger und dann lohnt das ganze keinen Milimeter mehr. Glaube das wird eher wieder nur eine Idee bleiben, wie schon 2009 und dann 2013 nochmal ins Gespräch kommen. :D
 
Wenns funktioniert ist das absolut genial. Momentan ist gerade für die breite Masse der PCs eine SSD preislich unattraktiv.
Uns so könnte man leise energieeffiziente Systeme bauen für kleinen Aufpreis (20GB SSD + 2,5" Platte entkoppelt).

Wann kommt der Test? :D
 
memory_stick schrieb:
und wenn ich mir jetzt einfach eine "richtige" SSD zulege? Was ist denn da der Unterschied?

Das die teurer ist?
 
Man kann damit Programme beschleunigen die nicht auf der SSD sondern auf der HDD liegen. Quasi ein größerer Cache für die HDD.
 
Das ist doch nichts anderes als Seagate mit seinen XT Festplatten macht. Einfach einen SSD-Caching Layer dazwischen schieben, damit das System schneller wird. Aber - genau das ist der Weg, den man gehen sollte. Gerade Journaling-Dateisystemen wie NTFS können davon profitieren, wenn das Journal auf einer SSD liegt. Bisher hatte man solche Lösungen nur bei XFS oder teuren SAN-Systemen.
 
Kluger Schachzug von Intel, dass sie vor zwei Jahren den Rückzieher gemacht haben, da haben sie die Bedeutung der SSD (als Konkurrenz) richtig eingeschätzt... Sonst wär das wohl in die Hose gegangen. Allerdings fand ich die Lösung auf dem MB eigentlich schicker.
 
hm also wenn der preis wirklich nur bei 30-40€ liegt klingt das doch ziemlich interresant ist dann wohl so ne Art SSD-Lite :)
 
Die 40€ für ne richtige SSD nutzen und fertig. Da kann man diesen "verschwendeten" Speicherplatz gleich richtig nutzen oder so eine Hybrid-HDD/SSD Kombination was ja im Prinzip da gleiche sein sollte.
 
Wenn das Betriebssystem soweit wäre das perfekt zu nutzen, und alle kleinen anfragen darüber laufen zu lassen, würde es bestimmt was bringen, aber ich glaube software technisch wäre das so etwas schwierig zu unterstützen.
Woher weiß das BS denn was auf die SSD soll und was auf die HDD soll?
Ich stelle mir das so vor, das auslagerungsdateien von browsern und dem explorer oder so nur auf die SSD gehören.
 
@panopticum
Nein es ist nicht das gleiche!
1) Höhere Lebensdauer (SLC)
2) Für die Größe sehr schnelle Transferraten (durch SLC mehr Kanäle)
3) Werden keine selten gebrauchte Daten auf der SSD abgelegt
4) Vorteil eher theoretischer Natur für Desktop-Rechner kleinerer Stromverbrauch
5) Du bekommst keine gescheite SSD für 30-40€. Und 100€ Aufpreis für eine 60/64GB, wie man sie dann mind. bräuchte, wenn man alles drauf hat kostet 90-100€
Ergänzung ()

@Nitschi
Die Verteilung kann für das BS transparent erfolgen. Das erledigt dann die FW. Dann profitiert jede SW davon ohne Anpassungen. Zumindest wäre das der sauberste weg.
 
panopticum schrieb:
Die 40€ für ne richtige SSD nutzen und fertig. Da kann man diesen "verschwendeten" Speicherplatz gleich richtig nutzen oder so eine Hybrid-HDD/SSD Kombination was ja im Prinzip da gleiche sein sollte.

Bloß dass du keine "richtige" SSD für 40€ kaufen kannst. Das geht bei ~60€ für 32GB los, also ungefähr dieselben Kosten pro GB... nur bei Intel kriegst du dafür SLC, und bei der Konkurrenz nur MLC mit (wenn man Glück hat) gerade mal halb soviel Performance.

Und das wird sich auch in Zukunft nicht ändern - denn mit technischem Fortschritt werden SSDs bei gleichbleibender Kapazität langsamer, da dieselbe Kapazität mit immer weniger Flash-Modulen realisiert wird. Und Flash ist nunmal naturgemäß so langsam, dass man vernünftige Datenraten nur mit starker Parallelisierung erreicht. Sprich: größere SSDs mit größeren Preisschildern kaufen.
 
Enigma schrieb:
Gerade Journaling-Dateisystemen wie NTFS können davon profitieren, wenn das Journal auf einer SSD liegt. Bisher hatte man solche Lösungen nur bei XFS oder teuren SAN-Systemen.
Brauch man dafür bei NTFS wirklich eine Speziallösung? Vernünftigen Filessystemen kann man sagen, daß sie ihr Journal auf ein anderes Gerät schreiben sollen. Da kann man irgendwo eine SSD oder eine batteriegepuffertes DRAM-"Platte" oder sonstwas an den Rechner hängen und fürs Journal nutzen. Ich sehe keinen Vorteil durch ein Stück Flash auf dem Mainboard.
 
Wenn es Intel jetzt noch schafft dort Dateien intelligent so zu verwalten, dass auf diesem Flash nur Dateien kleiner als 1MB automatisch draufkommen und der Rest auf der Festplatte wären sie die Könige....

Und wenn die Daten darauf erhalten blieben.
 
Errinnert mich alles ein wenig an:

"Intel Turbo Memory (ITM) (Codename Robson) ist eine von Intel entwickelte auf NAND-Flash-Speicher basierende Technik zur Beschleunigung des Startvorgangs von Betriebssystemen und von Anwendungen, indem häufig verwendete Daten auf diesem Speichermedium (welches schnellere Zugriffszeiten als mechanische Festplatten aufweist) zwischengespeichert werden."

Die Tec hnologie hat mein Laptop aus dem Jahr 2008 gehabt. War ein ziemlicher Mist und hat kaum was gebracht. Erst die SSD die ich 2010 eingebaut habe hat das System beschleunigt.

Aber vielleicht hat Intel ja was dazu gelernt...

Grüße flode
 
mensch183 schrieb:
Vernünftigen Filessystemen kann man sagen...
seit wann ist ntfs ein vernünftiger filesystem? Oo
 
VisualVelocity schrieb:
Kluger Schachzug von Intel, dass sie vor zwei Jahren den Rückzieher gemacht haben, da haben sie die Bedeutung der SSD (als Konkurrenz) richtig eingeschätzt... Sonst wär das wohl in die Hose gegangen. Allerdings fand ich die Lösung auf dem MB eigentlich schicker.
Es war kein Schachzug, sondern diese Technik wurde nicht angenommen bzw. versagte.

Das Problem war und ist, die Speichergröße ist zu klein --> epic fail
 
Moah, die Speichergröße ist nicht zu klein. Man braucht nicht mehr. Dort soll nicht ALLES drauf. Wofür Dateien beschleunigen, die mit einer Festplatte schon "schnell genug" sind?
 
Zurück
Oben