HisN schrieb:
Hmmm.. wie kommts das heute schon kaum eine Anwendung auf höheren Takt oder einen zusätzlichen Speicherkanal reagiert? Das ist doch schon eine Erhöhung der Bandbreite.
Weil die CPU Hersteller mit allen Tricks versuchen die Zugriffe auf den langsamen Speicher zu verringern oder wenigtens die Wartezeit sinnvoll zu nutzen. Ohne massive Unterstützung der der CPU Hersteller wird daraus nichts werden, zumal die Speicherkontroller ja jetzt überall in den CPUs sitzen.
HisN schrieb:
Kann es vielleicht daran liegen dass die großen Caches der aktuellen Prozessoren den ständigen Zugriff aufs RAM verhindern. Soll das jetzt bedeuten dass diese Transistoren auf zukünftigen Prozessoren nicht mehr gebraucht werden? (Würde die Prozessoren ja billiger machen^^).
Darauf würde ich nicht hoffen. Aber wenn das RAM so schnell wäre wie heute z.B. der L3 und auch so kurze Latenzen hätte, könnte man die Fläche sinnvoller nutzen, etwa für eine stärkere Graphik oder mehr Kerne.
HisN schrieb:
Wenn nicht, sehe ich den Nutzen von noch mehr Bandbreite beim DRAM nicht. Sollen die Jungs den Prozess doch dazu benutzen die Speichermodule größer zu bekommen^^
Mehr Bandbreite könnte man dem RAM schon heute geben, mehr Kanäle würden reichen. Kosten aber auch Geld, denn man braucht mehr PINs im Sockel, mehr DIMMs mehr Platz und mehr Leitungen auf dem Board.
andr_gin schrieb:
20 fache Bandbreite bedeutet nicht 20 fache Performance. Beim heutigen RAM ist nicht die Bandbreite das Problem, sondern die Latenz und die wird nicht kleiner. Da kann man noch so viele Leitungen verbauen. Das sieht man sehr schön, wenn man die Benchmarks mit Dual Channel vs. Tripple Channel beim alten Core i7 vergleicht. Das bringt so gut wie nichts.
Hängt zwar auch von der Anwendung ab, aber im Allgemeinen hast Du recht. Die Latenz wird aber durch einen weiteren Controller zwischen der CPU und den RAM Zellen sicher nicht geringer. Igrendwie sehe ich deshalb auch nicht, wirklich den Punkt in der Entwicklung, denn die Aussage
Aktuell seien die Datenkanäle zwischen Prozessor und Arbeitsspeicher der limitierende Faktor für die Speicherleistung, wodurch eine immer höhere Geschwindigkeit der DRAM-Chips aufgrund mangelnder Bandbreite nicht effektiv genutzt werden könne.
scheint mir zu oberflächlich. Die RAMs laufen mit einem Bruchteil der Frequenz der CPU, aber warum? Es ist doch nicht so, als würde man aus Dummmheit zwei vielbefahrene Autobahnen mit einem Feldweg verbinden, vielmehr kann man doch die RAMs gar nicht so schnell adressieren und die Daten herauslesen bzw. hineinschrieben.
Was etwas bringen würde, ware die Speicherzellen in kleine Einheiten zu unterteilen um so möglichst viele paralllel adressieren zu können um so das aufsummieren der Latenzen bei mehreren Zugriffen zu verhindern.
andr_gin schrieb:
Das sich die Latenz technisch gesehen nicht so einfach reduzieren lässt und seit 10 Jahren auf einem fast gleichen Niveau ist, kann man nur noch parallelisieren d.h. es muss nach Wegen gesucht werden, wie sich die Daten unabhängig voneinander gleichzeitig adressieren und auslesen lassen. AMD hat den Versuch beim Phenom und dem gunganged mode unternommen, um zumindest die zwei RAM Riegel unabhängig voneinander ansteuern zu können.
Eben, so wie die SSDs bei Randomzugriffen auf kleinere Dateien mit großen Queues besser wird, was bei HDDs wegen der sequentiellen Zugriffe über die Köpf und deren langsamen Bewegungen, nicht wirklich der Fall ist. Je mehr Cores die CPUs haben, umso wichtiger wird das.
andr_gin schrieb:
Dabei muss der Code der CPU nicht zwangsweise multithreaded sein. Ein gleichzeitiges Laden verschiedener Adressbereiche kann z.B. auch durch ein aggressiveres Data Prefetching erfolgen, das der Meinung ist, dass zur gleichen Zeit zwei verschiedene Speicherbereiche benötigt werden.
Und am Ende bremst ein vorsorglicher Zugriff auf hinterher nicht benötigte Daten den Zugriff auf wirklich benötigte Daten noch länger aus.
Je länger st darüber nachdenke, umso mehr komme ich zu dem Schluß, dass die genau das machen. Die ermöglichen den parallelen Zugriff auf viel verschiedene kleine RAM Bereiche und damit nutzen damit die Latenz des einen zum Übertragen des anderen, so dass im besten Fall die Datenleitungen nie unbenutzt sind. Ein einzelner Zugriff wird dadurch nicht schneller, aber über eine größere Menge an Zugriffen wird nach kürzerer Zeit abgearbeitet sein. Das würde auch genau in den Bereichen viel bringen, die Micron nennt: "super-computing", "Advanced networking systems".
Im Desktop zuhause wird es also also ehr weniger bringen und dann auch kaum (so bald) zu finden sein. Allein der Preis dürfte das verhindern.