News Micron und Samsung kooperieren bei Speicherwürfel

1.) Das, was die Performance limitiert ist nicht die Bandbreite, sondern die Latenz. Auch bei den Grafikkarten zählt in erster Linie die Latenz. In den letzten 10 Jahren hat sich die Bandbreit von 133MHz Single Channel SD-RAM mit 1,066GB/s auf bis zu Tripple Channel DDR3 mit 1600MHz (38,4GB/s) erhöht. Die Latenz hat sich jedoch nur auf 1/3 reduziert.

2.) Eine schnelle Alternative zu SSDs gibt es eh schon. Das nennt sich PRAM. Jedoch sind die Größen auch auf dem Niveau von normalem RAM, wenn nicht kleiner. Momentan ist kein Bedarf für schnellen Flash Speicher, sondern dieser wird größer. Das hat man schön mit SLC Flash gesehen. Dieser ist mittlerweile nur mehr ein Nischenprodukt, weil einfach zu teuer.
Weiters sehe ich das Hauptproblem von SSDs in erster Linie in den extrem hohen Ausfallsraten. Die RAM Branche ist wie die Flash Branche extrem defizitär und dann kommt nur lauter Schrott heraus.
 
Es muss ja nicht nur die Haptspeicherbandbreite sein... Wir haben ja im Consumerbereich auch noch GRAM.
Und wie wir ja wissen: sobald eine GPU auf Hyper Memory schreibt, sind erstmal 80% der Leistung weg.
Dieser Würfel könnte für jede IGP und kleine GPU Sideport obsolet machen und bei großen Karten eine massive Steigerung bringen.

Des weiteren:
Unsere faulen Programmierer werden schon Einsatzgebiete finden. Sicher - im Moment rennt die Hardware der Software davon aber trotzdem geht es voran. Leider ist es nicht mehr wie früher, als die Programmierer jeden Codezeile möglichst klein zu halten, damit alles in den RAM passt und die Leistung möglichst groß ist.
Heute wird auch gern erst mal grundsätzlich eine gaze Programmierbibliothek in de RAM geladen beim Programmstart. Leistung ist ja da.

Aber wenn dieser Speicher kommt, dann fallen den findigen Tüftlern sicher ganz neue Anwendungsgebiete ein.
Wenn die Anbindung an den Prozessor ordentlich ausfällt (vielleicht unter einem Heatspreader auf dem PCB?) nähert sich das ganze zu mindest von der Übertragungsrate her deutlich an den L3 an. Gut die Latenzen... Aber wer weiß was sich mit 512MB "L4" so anstellen lässt.
 
Oely schrieb:
Und wo setzt man noch DDR3 RAM ein?
DRAM wird wohl in jedem Netzwerk- oder Kommunikationssystem oder anderen Systemen mit digitaler Signalverarbeitung eingesetzt. Ob es jetzt ein Messgerät, Sende- oder Empfangsteil einer Funkverbindung oder sonstwas ist. Was meinst du denn warum Xilinx und Altera im Konsortium sitzen. Garantiert nicht weil sie in den Markt für PC-Komponenten einsteigen wollen.

Bevor diese Technik dann in PCs verwendet werden, landen sie wohl in Server. Da wird mehr Bandbreite benötigt als bei deinem Desktoprechner.
 
Nasenbär schrieb:
DRAM wird wohl in jedem Netzwerk- oder Kommunikationssystem oder anderen Systemen mit digitaler Signalverarbeitung eingesetzt. Ob es jetzt ein Messgerät, Sende- oder Empfangsteil einer Funkverbindung oder sonstwas ist. Was meinst du denn warum Xilinx und Altera im Konsortium sitzen. Garantiert nicht weil sie in den Markt für PC-Komponenten einsteigen wollen.

Bevor diese Technik dann in PCs verwendet werden, landen sie wohl in Server. Da wird mehr Bandbreite benötigt als bei deinem Desktoprechner.

Ich bin begeistert!
Laie_93.gif

Du drängst einem den Nutzen eines Speichers auf, den die Entwickler selbst noch besprechen!
Respekt^^

Ich für meine Person, denke an den User nicht an den Professor!
 
Wo dränge ich hier irgendwas auf?
Du hast doch gefragt wo man DRAM noch überall einsetzt. Und PCs ist da nunmal nicht das Ende der Fahnenstange.
Ich für meine Person, denke an den User nicht an den Professor!
Bist du etwa nicht User von Mobilfunk, Fernsehen oder ähnlichem?

In der Entwicklung werden auch Messgeräte, Simulatoren und vieles mehr benötigt, die rechenintensive Algorithmen ausführen. Da ist eine weiterentwicklung der Hardware immer nützlich.

Aber ich vergas, Strom kommt aus der Steckdose und dein Fernsehsignal liegt auch einfach so in der Luft.
 
Zuletzt bearbeitet:
Ich finde das Ding ja immer noch geil und würde mich darüber freuen, dass es den normalen Ram ablöst.
 
Traurig,
erst in 5 Jahren wird das simple Stampeln eingesetzt werden,
statt einem massiven Sprung jetzt (QuadChannel schafft ATM also bei 8 Modulen so viel wie ein 512er HMC Block) werden wird der Wert nur langsam hochgehen und irgendwann wenn die Technik genutzt wird ergibt sie in der Summe nicht mehr den Vorteil wie akut.

Vor allem die Stromersparniss wäre im mobilen Sektor interessant,
denn dort kann man momentan immer nur in relativ kleinen Schritten an einigen Punkten sparen um somit mal höhere Effizienzen zu erreichen...

Aber wer weiß was sich mit 512MB "L4" so anstellen lässt.

Ich persönlich hoffe ja bevor es in 30 Jahren vll. nur noch "1 Chip Geräte" gibt die alles in omnipotenter Leistung vereinen, dass bis dahin die Spaltung von Speicher und Berechnung vollzogen wird,
damit meine ich HDD/RAM/Cache etc. Zusammenschluss, aber gleichzeitig abkoppeln von CPU, GPU, Soundchips oder anderem, denn gerade in diesem Cache "schwachsinn" im CPU liegt enormer Platzverbrauch und enorm Energieverbrauch.
Das Problem der Latenz (die selbst bei PCIe im nanosekunden Bereich liegt) ist denke ich gar nicht alzu gegeben,
denn die Latenz des Speichers selbst wird bei HMC z.B. im Gesamten reduziert, Latenzbringend sind da nur noch die Leiterbahnen welche sich aber im <10cm Bereich liegen könnten und damit zukünftig nicht mehr arg erhöht sind.
 
Zuletzt bearbeitet:
Dass der Cache aus dem Chip wandert kann ich mir in der nächsten zeit nicht vorstellen.
Eine Latenz durch PCIe im nanosekunden Bereich wie du schreibst kann schon zu hoch sein. Aktuelle Prozessoren haben eine Latenz des L2 Caches in der Größenordnung 10 Taktzyklen. Bei einem 3 GHz Prozessor sind das ja gerade mal 3,3 ns.
 
@ flappes

Der Fehler ist irgendwie durchgerutscht, danke sehr für den Hinweis. :)
 
mambokurt schrieb:
[...] erfinden wir einfach noch schnelleren Ram, damit sich die Trennung wieder lohnt? Leuchtet mir nicht so ganz ein, zumal das wohl niemand brauchen wird O.o

MfG, Mambo

In Zeiten von FPM RAM (kennt noch wer die PS/2 Module?) hat der RAM oft auf die CPU warten müssen.
Kurze Zeit später war es genau umgekehrt, dann kam der SDRAM(daraus dann der DDR..ect).

Diese Trennung von RAM und 'dauer'-Speicher(Diskette, HDD, SSD) wird es immer geben und auch sinn machen.

RAM wird immer primär auf Tempo getrimmt sein. dauerhafter Speicher immer primär auf das Fassungsvermögen.

Eine heutige 0815 Festplatte schreibt und liest ~3-4 mal schneller als FPM RAM in einem Pentium60 PC aus dem Jahr 1994.

Heutige Festplatten kommen nicht mal an das SATA2 Limit. SSDs kommen in der regel(=praxis) (noch) nicht an das SATA3 Limit.

Wenn also irgend wann mal ne SSD(oder was auch immer dann üblich sein wird) an das Tempo des heutigen RAMs kommt, wird der RAM dann ein vielfaches dessen schaffen.

Wieso also eine SSD an einen "Bus" pfropfen den gerade so der daüpr vorgesehene RAM packt.
 
mmh... Hat bei dem Produkt der ein oder andere die gleichen bedenken wie ich ? Um eine schnelle anbindung zu gewährleisten wird der Chip sicherlich auf dem Mainboard verlötet sein... Also sieht es dann in 4-5 Jahre so aus, das ich mein Mainboard mit onboard memory kauft, wo man sich sicherlich jedes gb gut bezahlen lässt.. ;(
 
horstnotfound schrieb:
mmh... Hat bei dem Produkt der ein oder andere die gleichen bedenken wie ich ? Um eine schnelle anbindung zu gewährleisten wird der Chip sicherlich auf dem Mainboard verlötet sein... Also sieht es dann in 4-5 Jahre so aus, das ich mein Mainboard mit onboard memory kauft, wo man sich sicherlich jedes gb gut bezahlen lässt.. ;(

Nicht zwangsläufig.
Außer natürlich Apple hat alle gekauft ja ALLE und dann kann man garnixmehr tauschen :D
Mußt du dann den IStick kaufen um einen IUSB Speicher zu bekommen der 100GB hat und 200€ kostet... :freak:

Back to Topic:
Das könnte man auch anders lösen, aber im Allgemeinen gibt es seit ich denken kann die Diskussion das die Steckverbindungen bald wegfallen müssen. Das war schon so als SDRAM kam. Da hieß es überall "ja das ist aber der letzte Speichertyp in der Form".

Gruß,
Norman
 
Zurück
Oben