News Microns neue Speichertechnik 20 Mal schneller als DDR3?

Das Speicher in die 3. Dimension geht ist schon seit Ewigkeiten bekannt...
Auch bei festplatten ist irgendwann der Punkt erreicht, an dem man nicht mehr 2-Dimensional speichern kann.
(das kleinste ist wohl einzelne Atome ansteuern).
Ein holografischer Würfel von 10cm Kantenlänge könnte vermutlich 1.000.000 Exa-Byte speichern.

Irgendwann wirds das geben, bestimmt;)

edit: OK, ist vermutlich etwas hoch gegriffen, aber im PetaByte-Bereich sollte das schon liegen.
 
Zuletzt bearbeitet:
the-gamer90 schrieb:
Doch. Zwar hatte man zu DDR-I Zeiten vielleicht Timings von CL2 (bei gutem Ram) und heute von CL8 oder 9, aber da der Takt auch massiv gestiegen ist ist die absolute Latenzzeit heute geringer.
Siehe auch hier die 2. Tabelle

hättest deine Tabelle mal genauer anschauen sollen.

DDR Timings: 2225: 55ns alles zusammen.
DDR 2 Timings: 44412: 60ns zusammen
DDR 3 Timings: 88824: 60ns zusammen

Ich kann nicht erkennen wo die Zugriffszeiten besser geworden sind.
 
die zugriffszeiten sind gleich geblieben. der durchsatz hat sich gesteigert. über die jahre hinweggesehen eine eher schleppende entwicklung, verglichen mit einigen anderen sektoren wie hdd-kapazität, graka-leistung...
 
HisN schrieb:
Hmmm.. wie kommts das heute schon kaum eine Anwendung auf höheren Takt oder einen zusätzlichen Speicherkanal reagiert? Das ist doch schon eine Erhöhung der Bandbreite.
Weil die CPU Hersteller mit allen Tricks versuchen die Zugriffe auf den langsamen Speicher zu verringern oder wenigtens die Wartezeit sinnvoll zu nutzen. Ohne massive Unterstützung der der CPU Hersteller wird daraus nichts werden, zumal die Speicherkontroller ja jetzt überall in den CPUs sitzen.
HisN schrieb:
Kann es vielleicht daran liegen dass die großen Caches der aktuellen Prozessoren den ständigen Zugriff aufs RAM verhindern. Soll das jetzt bedeuten dass diese Transistoren auf zukünftigen Prozessoren nicht mehr gebraucht werden? (Würde die Prozessoren ja billiger machen^^).
Darauf würde ich nicht hoffen. Aber wenn das RAM so schnell wäre wie heute z.B. der L3 und auch so kurze Latenzen hätte, könnte man die Fläche sinnvoller nutzen, etwa für eine stärkere Graphik oder mehr Kerne.
HisN schrieb:
Wenn nicht, sehe ich den Nutzen von noch mehr Bandbreite beim DRAM nicht. Sollen die Jungs den Prozess doch dazu benutzen die Speichermodule größer zu bekommen^^
Mehr Bandbreite könnte man dem RAM schon heute geben, mehr Kanäle würden reichen. Kosten aber auch Geld, denn man braucht mehr PINs im Sockel, mehr DIMMs mehr Platz und mehr Leitungen auf dem Board.
andr_gin schrieb:
20 fache Bandbreite bedeutet nicht 20 fache Performance. Beim heutigen RAM ist nicht die Bandbreite das Problem, sondern die Latenz und die wird nicht kleiner. Da kann man noch so viele Leitungen verbauen. Das sieht man sehr schön, wenn man die Benchmarks mit Dual Channel vs. Tripple Channel beim alten Core i7 vergleicht. Das bringt so gut wie nichts.
Hängt zwar auch von der Anwendung ab, aber im Allgemeinen hast Du recht. Die Latenz wird aber durch einen weiteren Controller zwischen der CPU und den RAM Zellen sicher nicht geringer. Igrendwie sehe ich deshalb auch nicht, wirklich den Punkt in der Entwicklung, denn die Aussage
Aktuell seien die Datenkanäle zwischen Prozessor und Arbeitsspeicher der limitierende Faktor für die Speicherleistung, wodurch eine immer höhere Geschwindigkeit der DRAM-Chips aufgrund mangelnder Bandbreite nicht effektiv genutzt werden könne.
scheint mir zu oberflächlich. Die RAMs laufen mit einem Bruchteil der Frequenz der CPU, aber warum? Es ist doch nicht so, als würde man aus Dummmheit zwei vielbefahrene Autobahnen mit einem Feldweg verbinden, vielmehr kann man doch die RAMs gar nicht so schnell adressieren und die Daten herauslesen bzw. hineinschrieben.
Was etwas bringen würde, ware die Speicherzellen in kleine Einheiten zu unterteilen um so möglichst viele paralllel adressieren zu können um so das aufsummieren der Latenzen bei mehreren Zugriffen zu verhindern.
andr_gin schrieb:
Das sich die Latenz technisch gesehen nicht so einfach reduzieren lässt und seit 10 Jahren auf einem fast gleichen Niveau ist, kann man nur noch parallelisieren d.h. es muss nach Wegen gesucht werden, wie sich die Daten unabhängig voneinander gleichzeitig adressieren und auslesen lassen. AMD hat den Versuch beim Phenom und dem gunganged mode unternommen, um zumindest die zwei RAM Riegel unabhängig voneinander ansteuern zu können.
Eben, so wie die SSDs bei Randomzugriffen auf kleinere Dateien mit großen Queues besser wird, was bei HDDs wegen der sequentiellen Zugriffe über die Köpf und deren langsamen Bewegungen, nicht wirklich der Fall ist. Je mehr Cores die CPUs haben, umso wichtiger wird das.
andr_gin schrieb:
Dabei muss der Code der CPU nicht zwangsweise multithreaded sein. Ein gleichzeitiges Laden verschiedener Adressbereiche kann z.B. auch durch ein aggressiveres Data Prefetching erfolgen, das der Meinung ist, dass zur gleichen Zeit zwei verschiedene Speicherbereiche benötigt werden.
Und am Ende bremst ein vorsorglicher Zugriff auf hinterher nicht benötigte Daten den Zugriff auf wirklich benötigte Daten noch länger aus.
Je länger st darüber nachdenke, umso mehr komme ich zu dem Schluß, dass die genau das machen. Die ermöglichen den parallelen Zugriff auf viel verschiedene kleine RAM Bereiche und damit nutzen damit die Latenz des einen zum Übertragen des anderen, so dass im besten Fall die Datenleitungen nie unbenutzt sind. Ein einzelner Zugriff wird dadurch nicht schneller, aber über eine größere Menge an Zugriffen wird nach kürzerer Zeit abgearbeitet sein. Das würde auch genau in den Bereichen viel bringen, die Micron nennt: "super-computing", "Advanced networking systems".
Im Desktop zuhause wird es also also ehr weniger bringen und dann auch kaum (so bald) zu finden sein. Allein der Preis dürfte das verhindern.
 
Ich verstehe nicht, warum es hier alles besser wissen.
Die Entwickler etc. werden schon ihre Gründe haben warum die Entwicklung nun grade in diese Richtung geht.
ICh für meinen Teil befürworte jeden Schritt in jeglichen Weiterentwicklungen.
Im laufe der Zeit gab es dermaßen viele Erneuerungen, welche sich teils auch nicht durchgesetzt haben, aber für weitere integrationen z.B. in SoC's Systemen etc. Hauptrollen spielten, an den Tag gebracht. Z.B. die ersten Physiksgenerationen. Es gab extra Karten zu kaufen, welche die Physiksberechnungen übernehmen sollten, angenommen wurde diese Entwicklung jedoch nicht. Dafür haben sie auf unseren Grafikkarten in anderer From einzug erhalten. Und die Leistungssteigerung ist, sofern Physikengines darauf optimiert sind, enorm.
Es wird uns auf jedenfall nach vorne bringen, früher oder später !


Mfg
JeverPils
 
hardtech schrieb:
ist ja klasse, dass die forschung neue techniken erlaubt. nur leider sieht man davon nicht viel im endkundenmarkt. um 2000 herum wurde uns auch ram versprochen, der den pc innerhalb weniger sekunden hochfahren lässt. ram, der bei stromverlust daten behält. was haben wir 10 jahre später? => weitere ankündigungen von neuen technologien, die irgendwann erscheinen sollen.


In den Rechnern von damals, mit den Betriebssystemen und Programmen von damals (ohne Internet Verbindungen, Terrabyte Festplatten, Gigabytegroßen Auslagerungsdateien etc.) wäre das sicherlich heute auch möglich.

Nicht vergessen, dass eben auch die Anwendungen immer mehr Leistung und Hardware benötigen.

Mein erster Mac hatte das komplette Betriebssystem und zwei Anwendungsprogramme (Textverarbeitung und Paint) auf einer 400 KB !! Diskette drauf.
 
So ganz habe ich die Funktion nicht verstanden.

Wird die Bandbreitenbeschränkung jetzt nur aufgrund der neuen Bauweise und der damit verbundene kürzere Weg zur CPU umgangen? Oder weil der Speichercontroller jetzt auf dem Ram und nicht mehr auf der CPU sitzt?
 
Es gibt doch 1000x Tests die zeigen, dass niedrigere Latenzen oder DDR2000+ RAM keinen bis gar keinen Vorteil bringen (in der Praxis).

Natürlich steigt die Bandbreite an, aber es zeigt keine Auswirkung. Vermutlich das selbe wie wenn ich eine Festplatte per LWL an den Computer anschließe und theoretische Übertragungsgeschwindigkeiten von GByte/sec habe.
 
hmmm. Also ich weiß nicht. Seit ich meine SSD drin habe, denkt mein Rechner eh schon schneller als ich :)
Also ich brauche wesentlich mehr Zeit um mir von Programm zu Programm den nächsten SChritt zu überlegen als mein Rechner, um ein Programm zu starten. Ich denke der SChwerpunkt dieses neuartigen Ram's liegt in anderen Bereichen
Sicher Videoschnitt wird davon eher was haben! Aber da nicht jeder Videoschnitte erstellt, denke ich wird die Notwendigkeit eines solchen Ram's vorerst nicht so schnell existieren. Daher denke ich auch dass sie deshalb den Consumermarket für 2015 planen. Bis dahin sind Programme, Spiele, Betriebssysteme wieder weiter fortgeschritten, Programmierer haben wieder ein bisschen mehr verlernt wie man Ressourcensparend programmiert ;) und dann erst wird ein 20fach schnellerer Ram notwendig werden.
Aber schön, dass sie vorrausschauend arbeiten! Die haben schonmal mehr auf dem Kasten als unsere Regierung ;)
 
Wartet mal. gestapelter RAM? Gab es nicht mal die News das Intel bei Ivy Bridge auf gestapelten RAM im Packed setzen will. Intel arbeitet ja sowieso shcon mit Micron zusammen. Fällt da vielleicht ne Scheibe ab?

Klar solen erst 2015 Produkte für die breite Masse vorhanden sein. Das Chips stapeln bekommen sie heute schon hin.
 
krass wenn der ram zum flaschenhals wird... früher hat man sich einfach nen ram regel gekauft und dachte nach dem einstecken wow ich hab nen neuen pc... heute bringt das garnix mehr ab 4gb, die ja fast überall standart sind. adererseits kann man erst im direkten vergleich sehen ob 20 mal schneller auch im alltag spürbar was bringt, oder ob es nur messbar schneller ist. und ohne ssd im rechner wird der ram nicht viel nützen...
 
das ist doch ein irrweg niemand braucht so schnellen ram bei den grossen cpu caches die es heutzutage gibt braucht man ja nichtmal 1800er ram, entschieden wir immer noch ueber den preis und fuer den privatkunden waere viel viel mehr wohl interessanter als schnellerer ram.
 
@ miagi
Hast Du schon mal an einer Workstation mit 3DSMax gearbeitet oder mit Adobe Premiere inc. After Effects versucht HD Video zu schneiden, von Physikalischen Simulationen möchte ich gar nicht erst reden.
Da ist dein CPU Cache etwas zu klein um da sinnvoll zu arbeiten.

Aber der erste Gedanke bei den Leuten hier ist immer nur " Wird mein Crysis dadurch schneller ? "
 
@mahoney2k2
Da wird das Programm im Cache ablaufen und die Daten werden ausm Ram geholt.
HD-Video (komprimiert) hat ja nun mal nicht eine unglaublich große Bandbreite und im Programm arbeitest Du sowieso nur mit Vorschau-Proxies. Alleine die Clip-Vorschau spielt sich im RAM ab. Ick wees ja nicht.
Aber ich muss zugeben, ich hab da auch nur Rand-Erfahrungen, weil wir auf der Arbeit sowieso nur 4GB-Office-32-Bit-Scheissmühlen für After-Effects haben und in SD arbeiten :-)
 
Wahrscheinlich wieder eine der Entwicklungen, die sich super anhören, sich aber nie durchsetzen. Leider.
 
Das natürlich eine tolle Entwicklung. Ich meine in der heutigen zeit ist Ram in bezug auf Zugriffszeiten etc natürlich ein arg limitierender Faktor.
Da brauch ich natürlich das 20 fache an Geschwindigkeit ;)
Für den Endkunden eine total Sinnfreie entwicklung, die nicht gebraucht wird (wenn wir das jetzt auf die geschwindigkeit beziehen)
 
Nightspider schrieb:
Man könnte dann quasi kleine Chips in Sockel auf den Mainboard stecken. Diese bräuchten wegen der Fläche nur relativ viele Pins.

Also rund 250 Pins. Denn bei bisherigen RAM-Riegel waren die Distanzen zwischen DRAM-Chips und Speicher-Controller sehr groß und die Anzahl der Daten-Leitungen waren limitiert. (oder?).


Floletni schrieb:
Wartet mal. gestapelter RAM? Gab es nicht mal die News das Intel bei Ivy Bridge auf gestapelten RAM im Packed setzen will. Intel arbeitet ja sowieso shcon mit Micron zusammen. Fällt da vielleicht ne Scheibe ab?


Ich erinnere mich auch, gelesen zu haben, daß es Überlegungen gibt das RAM auf dem Prozessor unter zu bringen. Damit wären die Bedenken von Nightspider und anderen wohl ausgeräumt. ;)
 
Intel plant möglicherweise bei Ivy Bridge VRAM (!) auf die CPU zu packen:

http://www.notebookcheck.com/Intel-...rtem-Grafik-RAM-ein-Game-Changer.43699.0.html

Aber vielleicht könnte man diesen VRAM auch als Level 4 Cache verwenden. Quasi nochmal eine Zwischenstufe zwischen RAM und Level 3 Cache.

Wie man auf den Bildern schön sieht, könnte Intel locker 3000-10.000 oder gar mehr Kontakt zwischen CPU und (V)RAM herstellen und die Bandbreite damit in immense höhen steigern.

Falls dies bei Ivy Bridge schon genutzt wird, wäre es durchaus möglich die reine CPU Power durch den VRAM um einige Prozente zu steigern.

Proposed_roadmap_of_package_architecture_transitions_to_address_the_memory_bandwidth_challenge_01.jpg
 
Zuletzt bearbeitet:
Zurück
Oben