News UltraRAM: RAM-Massenspeicher-Symbiose rückt Serie näher

TrueAzrael schrieb:
Ähnlich dem genannten Beispiel bei ZFS. Ich kann mich noch erinnern als man komprimierten Daten auf einem Dateisystem eine klare Absage erteilte, weil die CPU eh schon genug zu tun hatte. Heutzutage hat die CPU entsprechend Leistung, dass es (lt. diverser Benchmarks) performanter ist die Daten komprimiert abzulegen und über die Lanes zu jagen.
Das Beispiel ist unbrauchbar. Ein Dateisystem kannst schon verschlüsseln, weil die CPU viel Leistung hat und der Speicher unfassbar langsam ist. Aber RAM ist unglaublich schnell, da klappt das so nicht so einfach wie du dir das zurecht reimst.
TrueAzrael schrieb:
Und finde einen Mittelweg zwischen Rechenaufwand und Platzersparnis.
Es gibt aber keinen Grund sowas zu machen. Bei Zwischenspeichern ist das absolut wichtigste die Geschwindigkeit. Die Latenz ist unglaublich niedrig, das würdest du mit einer Komprimierung ziemlich versauen. Die Daten müssen ja erstmal gelesen und entpackt werden. Wohin entpackst du? Richtig, in den RAM...
Moment, da war ja was...
;) Verstehst was ich meine?

TrueAzrael schrieb:
Damit meinte ich, dass die Daten im UltraRAM gepackt vorliegen und dann von der CPU/GPU in "realtime" entpackt werden.
Wohin werden sie entpackt? Das ist einfach ein ziemlicher Denkfehler den du da grad drin hast ;)
Der Vergleich mit einem Dateisystem ist hier einfach total falsch. Von dort landen die Daten ja auch erstmal im Arbeitsspeicher. Du willst aber den Arbeitsspeicher komprimieren...
 
rg88 schrieb:
Wohin werden sie entpackt? Das ist einfach ein ziemlicher Denkfehler den du da grad drin hast ;)

Ich würd ja mal auf den Cache tippen, der meines Wissens nochmal ne Größenordnung über dem RAM liegt. Aber keine Ahnung ob das technisch umsetzbar ist.

Edit: Und eventuell hilft es ja schon was, die Daten gepackt auf dem "RAM" zu haben und dann Teile davon in den "RAM" zu entpacken. Anstatt die gepackten Teile vom lahmen Massenspeicher in den RAM zu entpacken. Man könnte ja auch im nicht volatilen RAM einen volatilen Teil definieren (ein TMP-Verzeichnis sozusagen) den man regelmäßig wegwirft. Man spart sich halt das laden vom lahmen in den schnellen Speicher, weil es schon im schnellen liegt.
 
Zuletzt bearbeitet:
TrueAzrael schrieb:
Ich würd ja mal auf den Cache tippen, der meines Wissens nochmal ne Größenordnung über dem RAM liegt. Aber keine Ahnung ob das technisch umsetzbar ist.
Aber ein Cache ist winzig und der ist nicht dafür gedacht als Arbeitsspeicher zu fungieren sondern nur für Zwischenergebnisse von CPU-Berechnungen bzw. Daten für Berechnungen schneller bereit zu halten. Der Größenfaktor von Cache zu RAM ist aber enorm.
 
frkazid schrieb:
Wäre das eigentl. auch was für Grafikkarten?
nein, weil du einfach niemals etwas dauerhaft dort speichern musst. Als Arbeitsspeicher Ersatz für die CPU aber hingegen wäre das schon geil.
frkazid schrieb:
Den technischen Fortschritt darf man dabei aber nicht vergessen. Ich leg mir den Beitrag mal auf 10 Jahre Wiedervorlage
Bezogen auf die Grafikkarte wird das aber trotzdem nichts. Außschließen will ich es nicht, es ist aber höchst unwahrscheinlich.
 
Skysnake schrieb:
Fehlentwicklung in der durch Fördergelder und noch schlimmer mit privaten Geldern aus der Wirtschaft betriebenen Forschung
Private Gelder aus der Wirtschaft für eine Fehlentwicklung zu verballern ist für dich also schlimmer als Fördergelder/Steuergelder dafür zu nehmen?
Ein Tipp: Die Wirtschaft entscheidet selbst, wo sie ihr Geld investieren.
 
@mae Also, ich kann deine Aussagen und Infos vom ersten Abschnitt leider nicht nachprüfen. Woher hast du dieses Wissen zu dem Thema? Scheinst ziemlich tief drin zu sein in dem Bereich. Physiker? Chemiker?
 
ReRAM von Weebit-Nano wäre vlt. auch mal interessant für manche, ist jedoch noch nicht marktreif.
 
Arcturus128 schrieb:
Private Gelder aus der Wirtschaft für eine Fehlentwicklung zu verballern ist für dich also schlimmer als Fördergelder/Steuergelder dafür zu nehmen?
Ein Tipp: Die Wirtschaft entscheidet selbst, wo sie ihr Geld investieren.
ich denke, er meint eher das anbiedern an die Privatwirtschaft.
Die Leute die in solchen Projekten arbeiten, und seien sie noch so unsinnig, stehen ja nicht für andere Forschungsprojekte zur Verfügung.
Ich glaub du hast nicht viel Ahnung vom universitären Bereich, oder?
Es gibt durchaus mehr als nur Gelder zu besorgen. Die Frage ist auch, wer mehr bezahlt. Das ist also nicht nur ein Konkurrenzkampf um die Gelder sondern auch um die Forschungkapazitäten.
Was würdest du jetzt machen, wenn du 1Mio als Budget bekommst für Forschung 1 aus dem staatlichen Bereich und 5 Mio für Forschung 2 aus der freien Wirtschaft?
Was dieser beiden Wahlmöglichkeiten bietet dir jetzt mehr Entscheidungsrahmen und ein leichteres Forschungsleben?
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED und Skysnake
Was ist eigentlich aus dem Massenspeicher auf Tesafilmbasis geworden?
 
saui17 schrieb:
Was ist eigentlich aus dem Massenspeicher auf Tesafilmbasis geworden?
:D Das war mehr eine Machbarkeitsstudie, kein wirklich kommerzielles Produkt. Hab ich aber auch total vergessen gehabt, danke für die Erinnerung.
 
saui17 schrieb:
Was ist eigentlich aus dem Massenspeicher auf Tesafilmbasis geworden?
Das wurde nicht mehr weiterentwickelt für den Massenspeicher, aber sie gibt es wohl tatsächlich noch und wohl sogar mit einem erfolgreichen Produkt die fälschungssichere Kennzeichnung von Gegenständen
rg88 schrieb:
:D Das war mehr eine Machbarkeitsstudie, kein wirklich kommerzielles Produkt. Hab ich aber auch total vergessen gehabt, danke für die Erinnerung.
Siehe oben. In dem Bereich nicht , aber es wurde wohl ein echtes kommerzielles Produkt daraus
 
Der Nachteil von DRAM ist, dass die Kondensatoren der Speicherzellen, ca. 20-30mal pro Sekunde nachgeladen werden müssen und das kostet Energie und Geschwindigkeit, eventuell auch Sicherheit, weil durch das Nachladen auch Fehler passieren können.
Außerdem, ist er gelöscht, wenn man die Stromzufuhr unterbricht.

Der Neue Speichertyp, hätte alle diese Nachteile nicht. Mal schauen, was daraus wird. Eine spannende Technologie.
 
Ja, wenn man einen Rechner mit von mir aus auch 128GB hat, dann ist das relativ wurscht mit der Energie die für den Refesh nötig ist.

Wenn man aber paar PB hat, dann merkt man plötzlich, das selbst das eine ganze Menge kW sind...

Ich bin auch immer wieder erstaunt wieviel Energie für die Chassi Lüfter drauf geht.

Lüfter hoch drehen und mal einige kW mehr auf der Uhr stehen. Das ist schon erschreckend....
 
Ich fahre mit Ganzjahresreifen, weil ich weder an der Formel 1 teilnehme noch im Hochgebirge lebe.

In einer Welt, in der Spezialisierung gefühlt immer mehr zunimmt, mag ich an die Eierlegendewollmilchsau immer weniger glauben.
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Bei SSDs ist in erster Linie Bedarf an mehr Speicher (pro Euro) da. Mehr Geschwindigkeit wird derzeit nur in Ausnahmefällen benötigt.

Beim RAM gibt es in erster Linie Bedarf an höherer Geschwindigkeit. Mehr Kapazität wird derzeit nicht wirklich benötigt solange es nicht teurer wird.

Mischtechnologien machen relativ wenig Sinn und werden sich nur in Nischenanwendungen durchsetzen (siehe Optane), die entweder mehr RAM bzw. schnellere SSDs benötigen. Selbst SLC wird mittlerweile fast nur mehr als Cache eingesetzt außer einigen Industrial Anwendungen wo man mehr nicht so große Speicherkapazitäten braucht und stattdessen auf Zuverlässigkeit setzt.

Bei nicht flüchtigem RAM sehe ich ehrlich gesagt gar keinen Vorteil wenn es nicht gerade der Write Cache in einem RAID Controller oder SSD ist.
 
Aus der PC Perspektive mag das stimmen.
Mehr RAM ist für Server Anwendungen immer gut genauso wie schnellere 'SSD'
SAP Hana ist die Anwendung die mir dabei zuerst einfällt.
Und generell alles was mit Big Data zu tun hat.
 
naicorion schrieb:
Ich bin kein Spezialist für die technischen Spezifikationen von Speicher. Aber ist es nicht so, dass die kommenden PCI-5 SSD schon mit 16GByte/s kommen? Da sind wir doch schon bei Geschwindigkeitsbereichen, die einfacher DDR3 erreicht hat. Wäre es nicht denkbar, auf den CPUs direkt grosse Caches einzusetzen (die werden ja ohnehin jedes Jahr grösser) und den Rest direkt von einer sehr schnellen SSD zu lesen? Wäre doch sicher preiswerter?
Wie viel m Megabyte Cache brauchst du denn auf deiner CPU?
Also AMD kommt jetzt mit ihren 128mb Stack Cache!
Oder hast du von Gigabyte gesprochen?
Dann die dritte Frage, wie viele Jahre willst du warten?
 
Ich habe es mit nichts eilig, ich kaufe einfach was es gibt ;)
128mb Cache ist ja schon eine ganze Menge. Und jetzt, wo es nicht mehr auf den Die selber muss, sondern einfach daneben gelötet wird, sollte es ja kein Problem sein die allerwichtigsten Daten in einem Gigabyte auf / neben dem Chip unterzubringen.

Da ist natürlich teuer, hast Du Recht.

Vielleicht würde ein Verzicht auf den Zwischenspeicher aber auch alles preiswerter machen? Spätestens bei der nächsten Verdoppelung bei PCI-E 6.0 sollten die SSD ja schnell genug sein, bei einfachen Aufgaben ohne RAM auszukommen? Auf der Platte selber ist ja auch nichts anderes als DDR3 - RAM als Cache zur Beschleunigung. Braucht man den wirklich zweimal? Von der CPU in den CPU-Cache, was überläuft in den Ram, in den Ssd-Ram auf die SSD?
 
Zurück
Oben