Digital Access Legends - Die Legende der "immer schlechter werdenden Latenzzeit"!

Unlimited1980

Lieutenant
Registriert
Apr. 2009
Beiträge
966
Ich bin mal so frei, diesen Post als eigenen Thread zu posten.
Im Jahr 2014 wirds langsam Zeit, diese ewige Legende ein für alle mal zu busten!
:D

Digital Access Legends
Die Legende der "immer schlechter werdenden Latenzzeit"!


Es war einmal vor langer Zeit,... Leute,... ich buste hiermit eine der hartnäckisten und ältesten urbanen Hardwarelegenden, die auch jetzt anlässlich der Einführung von DDR4 in Foren erneut massenepidemisch aufgewärmt wird:
Die Legende der angeblich "immer schlechter werdenden Latenzzeit"!
Sehr gut präsentiert sich diese Legende auch in der bisherigen Diskussion hier im Forum...
:D
1000Postern schrieb:
Ach was waren das noch Zeiten mit meinen DDR-400 mit CL2-2-2-5 Latenzen :love::love::love::love:


1.Grundlagen:
Unterscheidung Latenzzeit und Zyklenanzahl


Ja, es ist richtig: Für die Speicherperformance direkt relevant ist die LatenzZEIT.
Zeit wird immer in einer EINHEIT [h,min,sec,...,ns] angeben!
Umso kürzer die LatenzZEIT, umso besser performt der Speicher.
Insofern ist aus der LatenzZEIT direkt ein Rückschluss auf die Leistungsfähigkeit eines Speichertyps zu ziehen.

Wenn jedoch überall in den Foren von "CL2" etc. zu lesen steht, was kann es auf keinen Fall sein, was diese Zahl angibt, weil sie ja dimensionslos ist?
Richtig: "CL2, etc" ist KEINE Zeitangabe und somit auch keine LatenzZEITangabe!
Somit hats auch erstmal nichts mit LatenzZEIT zu tun!

Die auf der Packung von eurem Speicher beworbene CL gibt nämlich lediglich eine Zyklenzahl an, sprich eine Anzahl an Zyklen, die völlig bedeutunglos ist, wenn man nicht dazu angibt wie lange ein solcher Zyklus dauert.
Genauer gesagt gibt die CL an, wie viele Taktzyklen der Speicher benötigt, um Daten bereitzustellen.

Beispiel:
Würde ein solcher Zyklus z.B. 1sec dauern und wir hätten eine CL1, so hätten wir auch eine Latenzzeit von 1sec.
Was sehr langsam wäre! [TrotzCL1]
Fazit:
Man kann anhand der CL keine Leistungsaussage über einen Speicher treffen -zumindest nicht anhand der CL alleine!
Anhand der LatenzZEIT alleine sehr wohl!

Es ist völlig normal, dass die CL mit steigender MHz-Zahl zunimmt, während die Latenzzeit perfekt gleich bleibt.

2. Entwicklung der Latenzzeit

Sehr interessant ist es zu sehen, dass die LatenzZEIT seit dem letzten Jahrtausend :D mit SD-RAM PC66, anno 1997, mehr oder weniger eine Konstante von 10ns darstellt, die seither weder langsamer noch schneller geworden ist!

Speichertyp TimingwerteCLtRCDtRPtRAS
DDR-400CL2-2-2-610 ns10 ns10 ns30 ns
DDR2-800CL4-4-4-1210 ns10 ns10 ns30 ns
DDR3-1600CL8-8-8-2410 ns10 ns10 ns30 ns
DDR4-3200CL16-16-16-4810 ns10 ns10 ns30 ns
DDR4-4000CL20-20-20-6010 ns10 ns10 ns30 ns
DDR4-4800CL24-24-24-7210 ns10 ns10 ns30 ns


Das Verrückte an der Sache ist, dass so viele Leute (auch ganze Generationen an Redakteuren und Artikelschreibern) bis heute immer noch dem Trugschluss unterliegen, dass Speicher mit CL2 per se deutlich schnellere Zugriffszeiten bieten muss als Speicher mit CL20!

Die Realität ist jedoch, dass

DDR - 400 @ CL2 - 2 - 2 - 6 und
DDR4-4000@CL20-20-20-60

in Nanosekunden gemessen EXAKT DIE GLEICHE LATENZEIT von 10ns HABEN!


Das ist ja auch sonnenklar, DDR4-4000 taktet "effektiv" 10x so schnell wie DDR-400.
Daher darf er auch 10x so viele CL-Zyklen benötigen für die selbe Latenzzeit, wie der DDR-400.

Erstaunlich ists auch nur auf den ersten Blick, dass es in punkto Latenzzeit seit so langer Zeit keinen Funken Fortschritt gab.
Eremit hat dazu einen passenden Beitrag gebracht, dass 10ns bereits verdammt schnell ist!

eremit007 schrieb:
In 10ns legt Licht gerade mal 3m zurück. Mit dem Verkürzungsfaktor durch die Permittivität vom PCB liegt die Distanz wohl eher bei 1-2m. Anhand der Zahlen sieht man schon, dass sich da aufgrund physikalischer Grenzen nicht viel verbessern lässt.
Steigern lässt sich nur die Bandbreite, mit der Taktfrequenz und/oder der Breite der Anbindung.


3. Fazit

Man darf die CL nie unabhägig vom Speichertakt bzw. vom "effektiven Speichertakt" betrachten.
Umso höher der Takt, umso höher automatisch die CL, ohne dass die Latenzzeit dabei steigt.

Es wird nie einen DDR4-4800-Speicher geben, der erheblich bessere Timings als CL24-24-24-72 haben wird.
Denn diese Timings sind bereits sehr schnell... sprich genauso schnell wie CL2-2-2-6 bei DDR-400!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krie9er
Danke Unlimited1980!
Sehr schön zusammengefasst und sollte für jeden verständlich sein.
Ich plädiere auf "sticky"
 
THX Leute!
:D
Aber ist schon Hammer, oder?
Seit 15 Jahren oder so wird sich in Foren über die Latenzzeit beschwert, obwohl sie real immer gleich geblieben ist, 10ns forever...!

Würde man alle gesammelten Latenzzeitjammerposts weltweit löschen, könnte man danach sicher 1-2 Kernkraftwerke ausschalten, hehehe...
 
Zuletzt bearbeitet:
Was bringt DDR4 genau?
Lohnt sich das wirklich darauf zu warten?
Wieviel mehr Speed ist zu erwarten?
Wie viel mehr Speicher pro Riegel?

Ich versuchs mal grob über den Daumen gepeilt zu beantworten:

Im Gegensatz zu den bisherigen neuen Speichergeneration hat man bei DDR4 nicht so viel Wert auf schnelleren Speed gelegt.
Von SD-RAM (1GB/sec@133MHz)
zu DDR wurde die Datenrate verdoppelt, indem pro Takt 2 Bit übertragen wurden. (2GB/sec@133MHz)
Von DDR zu DDR2 wurde die Datenrate erneut verdoppelt, indem pro Takt 4 Bit übertragen wurden. (4GB/sec@133MHz)
Von DDR2 zu DDR3 wurde die Datenrate erneut verdoppelt, indem pro Takt 8 Bit übertragen wurden. (8GB/sec@133MHz)
Weiterer Geschwindigkeitszuwachs ergab sich pro DDR-Evolutionslevel durch erhöhte Taktraten>133MHz!

Es fällt auf, dass bei DDR4 weiterhin, wie bei DDR3, nur pro Takt 8 Bit übertragen werden. (8GB/sec@133MHz)
Sprich hier wird man einzig durch höhere Takte mehr Speed erzielen können.... und natürlich durch eine Erhöhung der Anzahl an Speicherkontrollern!

Dadurch kann man nicht mehr so wie früher vorgehen und den Kunden in gewisser Weise "veräppeln".
Sprich nachdem man DDR MHz-mäßig ausgereizt hatte (DDR-400 mit Speichertakt 200MHz!), wurde der, ach so moderne, DDR2-400 eingeführt, welcher aber zu Beginn in Wirklichkeit nur den halben Speichertakt von DDR-400 hatte, also den gleichen Durchsatz bereits mit billig zu produzierendem Lahmarschspeichertakt 100Mhz erreicht hatte!
So konnte man bei jeder neuen SPeichergeneration wieder "von vorne", sprich bei 100MHz Speichertakt anfangen und dem Kunden dennoch einen Fortschritt vorgaukeln.
SD-RAM-100 von 1997 oder so hatte demzufolge den gleichen Speichertakt, wie DDR3-800: Nur 100Mhz!

Ihr werdet lachen, aber immer noch recht "moderner" DDR3-1600 hat in Wirklichkeit EXAKT den gleichen Speichertakt von lediglich 200MHz, wie uralter DDR-400!

Die Zahl "1600" ist in Realität eine Marketinglüge.
OK ganz gelogen ists nicht, denn der Speicher hat immerhin durch die Übertragung von 8 Bit pro Zyklus einen Durchsatz, der so groß ist, wie er bei DDR mit 1600MHz wäre.

Andererseits bedeutet dies jedoch auch:
DDR4 kann nicht schon wieder (das wäre das VIERTE Mal!!) bei Erhalt des Durchsatzes auf Omaspeichertechnik mit ollen 100MHz "zurückschalten" und somit muss z.B. DDR4-3200 REAL einen doppelt so hohen Speichertakt haben, wie DDR3-1600, also 400MHz anstatt der uralt-200MHz.

... und da betreten die Speicherhersteller tatsächlich zum ersten Mal seit gut 10Jahren, in denen der Speichertakt im Schnitt immer nur zwischen 100MHz und 200MHz geschwankt, ist NEULAND!

Daher könnte es evtl. dann doch etwas langsamer mit der Speedsteigerung vorangehen, als geplant.
V.A. oberhalb von 400MHz wird die Luft sicher dünne und dann wird der Speicherduchsatz wohl ähnlich stagnieren, wie die CPU-Leistungen in den letzten Jahren.

Wenn alles läuft wie geplant, sollte ein Herstellungsprozess von DDR4 mit 400MHz Speichertakt zumindest jedoch gut drin sein.
Dies wäre die erste Verdopplung.
Man hat jetzt jedoch noch einen Turbo eingebaut und spendiert einfach doppelt so viele Speichercontroller (Quadcontroller).
Dies wäre die zweite Verdopplung => Vervierfachung.
Auch hier läufts ähnlich wie bei den CPU.
Ich kann die Taktrate nicht weiter steigern?
Dann verdopple ich eben die Zahl der Kerne (Speichercontroller) ... Das ist auch irgendwo eine Verzweiflungstat und nicht beliebig steigerbar.

Insgesamt scheint DDR4 zwar nicht so sehr auf eine Erhöhung des Durchsatzes optimiert zu sein, aber dadurch, dass man in den letzten 10 Jahren absichtlich die Speichertakte real nicht ein einziges Megahertz erhöht hat, hat man jetzt locker Potential für eine MHz-Verdopplung und mit der Erhöhung der Speichercontroller kommt man sogar auf eine Vervierfachung der Performace.

Also um ganz ehrlich zu sein, als Fazit zum Thema Performance kann man sagen:
Das dürfte Summasummarum wider Erwarten der stärkste Performaceschub sein, denn DDR-Speicher jemals erfahren durfte!

Abgesehen davon ist DDR4 auch enorm gut auf die billige Produktion wirklich sehr großer Einzelspeicherreigel vorbereitet.
Bislang größter vorgestellter Einzelriegel ist 128GB groß, es gab jedoch auch bereits Ankündigungen für Größen bis 256GB!

Der größte verfügbare Einzelriegel für DDR2 waren 4GB!
Bei DDR3 wurde dann gerade mal auf 8GB verdoppelt... und jetzt dieser Quantensprung auf mindestens 128GB!
Das ist die 16-fache Speichermenge in einem Riegel!
Also auch von diesem Aspekt her ein echter Superlativ!

Die 3D-TSV-Technologie ermöglicht nicht nur diese gigantischen Speicherriegel, es zeichnet sich bereits ab, dass diese sich auch sehr billig produzieren lassen. TSV ermöglicht es, dass viele, relativ kleine Speichereinheiten (gut für die Ausbeute) auf minimalster Wegstrecke "thru-silicone-via" zusammengelasert werden.

Als Fazit zum Thema Speichermaximalausbau kann man sagen: Warten auf DDR4 lohnt sicherlich auch unter diesem Aspekt.... weil wenn ihr erstmal ein Mainboard habt, wo 8 DDR4-Riegel reinpassen, z.B. http://geizhals.de/msi-x99s-sli-plus-7885-002r-a1148609.html

... dann werdet ihr sicher lange Zeit nicht mehr wegen "zu wenig Speicher" die Plattform wechseln müssen (Dies kam bei mir in vergangenen System gar nicht so selten vor)!

Gesamt Fazit:
Wer bereits JETZT aufrüsten muss oder möchte, aber nicht sparen muss, sollte auf jeden Fall jetzt bereits in ein DDR4-System investieren.
Wer es sich nicht leisten kann, sollte besser kein Geld mehr verschwenden für ein nagelneues, aber "olles" DDR3-System und lieber noch etwas die Zähne zusammenbeißen und warten mit dem Upgrade, bis er sich auch ein DDR4-System leisten kann.

Oder andersrum gesagt:
Nach DDR4 wird es schwer werden, performancetechnisch etwas draufzupacken, weil einfach zu viele Grenzen erreicht sind. MHz-Grenze, Anzahl an Speicherkontrollern, Anzahl an Bits pro Takt.

Oder nochmals andersrum gesagt:
Euer erstes DDR4-System mit Quadchannel-Speicherkontroller wird quasi noch "ewiger" leben, wie euer erster Quadcore.
Nicht weil es so toll oder schnell oder sonstwas wäre, sondern einfach deswegegn, weil danach die Leistungs-Steigerungen noch langsamer voranschreiten werden als sie es es ohnehin schon bei den CPUs heute tun... leider!

Oder nochmals andersrum gesagt:
So wie der Quadcore der letzte wirklich große Performancesprung im CPU-Bereich (fast 100%) war, so wird DDR4 vermutlich der letzte wirklich große Performancesprung im Speicherbereich.
Alles danach wird seichte langsame Evolution!
 
Zuletzt bearbeitet:
Naja du wirfst da viel durcheinander und biegst es dir hin wie du es grade brauchst. Es hat noch niemand ein 256GB DDR4 2 Rank UDIMM in Aussicht gestellt. Das waren Servermodule und die sind bei DDR3 auch bei 64GB angekommen und nicht nur bei 8GB.

EDIT: Die 1600 bei DDR3 sind MT/s, also Mega Transfers per second, und damit 100% korrekt und keine Marketinglüge.
 
Zuletzt bearbeitet:
@TE
Das mit dem Mythos der Latenzen hast du treffend erklärt, 10ns ist natürlich ein grober Anhalt, denn der Speicher damals wie auch heute konnte auch schneller Arbeiten, demzufolge sind so 8 bis 8,5 ns auch kein Problem mehr.

Was DDR4 bringt, wissen wir erst, wenn er regulär im Consumer Bereich angekommen ist.

Das bisher der Takt gleich blieb ist auch nicht ganz wahr, denn DDR3 gibt es auch bis 3100 MHz effektiver Takt und bei diesem liegt der Speichertakt bei 387,5 MHz. Wir sind schon lange nicht mehr bei den 200 MHz.

Im übrigen wurde bei DDR4 kein Quadchannel von Anfang an vorgesehen, sondern jedes Modul sollte seine eigene 64 bit Datenleitung bekommen, sodass mit jedem weiteren Modul theoretisch die Bandbreite weiter angestiegen wäre.
Dies wurde wohl aus Kosten sowie aus Energiegründen verworfen, leider.
Im Consumerbereich wird es wohl bei einem Dualchannel bleiben.

Und ich persönlich denke, das ein Speichertakt bis 600MHz realistisch wäre, sicherlich nicht morgen oder übermorgen aber so in 3 bis 5 Jahren warum nicht, das wären dann DDR4 4800 MHz :D
So ein theoretisches Modul im Dualchannel würde 76800 MB/s Datendurchsatz haben und das wird wohl für Prozessoren, die in 5 Jahren herauskommen auch noch reichen, denn die Speichertransferrate ist im Consumer Bereich selten der limitierende Faktor.
Vermutlich wird es bis dahin schon längst gestapelten Speicher auf der CPU geben.





Cu der Pry
 
Zuletzt bearbeitet:
Pry_T800 schrieb:
Das bisher der Takt gleich blieb ist auch nicht ganz wahr, denn DDR3 gibt es auch bis 3100 MHz effektiver Takt und bei diesem liegt der Speichertakt bei 387,5 MHz. Wir sind schon lange nicht mehr bei den 200 MHz.

Naja, "im Schnitt" sind wirs durchaus noch!
:)
Ich habe ja nirgends geschrieben, dass es kein "Performancesegment" gibt... 387MHz ist jetzt sicherlich nicht langsam, aber in Anbetracht der sonstigen Entwicklungen irgendwo schon sehr langsam... wenn man mal die Jahre zählt, die der Speichermarkt gebraucht hat um von 100MHz zu 387MHz zu kommen, dann wirst du mir schon recht geben, dass dies "langsam" ist, oder?

Worum es mir ging sind nicht die 200MHz, sondern aufzuzeigen, dass der Speichertakt nach jeder neuen Speichergeneration (bis auf DDR4) von 200MHz auf 100Mhz zurückgefahren wurde.
Dieses Langsamertakten wurde durchaus sehr geschickt durch Einführung des MT/s - Ratings verdeckt.
Komischerweise ist auch kaum ein Reviewer darauf eingegangen, dass genau dies ja auch der Grund dafür war, warum die neuen Speichergenerationen Performancemäßig immer nicht so recht mithalten konnten -kein Wunder, sie hatten ja nur die halbe Taktrate wie die Vorgängergeneration!
Alleine, dass du von "3100" Mhz effektiver Takt schreibst, zeigt ja dass es geklappt hat und die viele Leute MHz und MT irgendwie durcheinanderwürfeln...

Und das wieder erklärt auch weswegen wir heute in 2014 immernoch mit so niedrigen Speichertakten arbeiten, dass die schnellsten und teuersten Speicher nichtmal 4x so hoch takten wie jene deutlich vor dem Jahr 2000.

Worum es mir auch ging, ist zu zeigen, dass inzwischen schon recht viel Pulver verschossen ist, die Leistung von RAM weiter zu steigern.... und dass es NACH DDR4 (wenn auch die letzte Chance MHz voll ausgenutzt ist) wohl keine großen Sprünge mehr geben wird und es wohl eher zu einer Evolution, ähnlich wie bei den CPUs kommen wird.... und alle freuen sich bereits wie Schnitzel, wenn die kommende Generation 15% Mehrleistung bringt...
 
Zuletzt bearbeitet:
Mal als Ergänzung, weil es sehr gut in diesen Thread reinpasst, kopiere ich diesen Beitrag ebenfalls hier rein:

Also interessant ist es mal zu schauen, wie viele ns ein Zyklus der CPU dauert und dies dann in Relation zu den 8-12ns des RAM zu setzen!
http://www.heise.de/glossar/entry/Ta...us-396759.html

1 GHz 1 ns
3 GHz 300 ps

somit schafft die CPU in 10ns auch gerade mal 10-30 Zyklen!
in 8ns sind das dagegen 8-24 CPU-Zyklen....

Wenn man bedenkt, dass die CPU ja auch oft für eine Berechnung mehrere Zyklen braucht ... teilweise meine ich, sogar "hunderte Zyklen", bis sie überhaupt wieder aufs RAM zugreifen muss, dann wird einem klar, dass die Zugriffszeit beim RAM erstaunlicherweise gar kein so enger Flaschenhals ist, obwohl das RAM bereits seit über 10 Jahren in der Zugriffszeit nicht schneller geworden ist.

10-30 CPU-Zyklen Wartezeit der CPU aufs RAM (Maximal! nur wenn die CPU mit einem Zyklus bereits fertiggerechnet hat) ist keine extreme Dimension.

Also soooooo wahnsinnig viel sollte man daher nicht von einem RAM mit 8ns vs 10ns profitieren!
Die Technik ist halt im ns-Bereich sehr stark ausgereizt und durch die Leitungsgeschwindigkeit scheinbar prinzipiell begrenzt.

Die gesamte Entwicklung der letzten 10-15 Jahre ging einzig in die Richtung die RAM-Bandbreite zu erhöhen, während die Zugriffzeit und auch die Taktfrequenz des RAM fast gleich blieb!
Das zeigt sich ja auch darin, dass der reale Takt von Durchschnitts-RAM auch heute noch um die 200MHz liegt (DDR3-PC1600)!
Im Vergleich zu den 100MHz von SDRAM-PC100 von vor über einem Jahrzehnt kann man dies als Quasistillstand bezeichnen, der nur marketingtechnisch durch die Einführung des "effekten Taktes" bzw. durch Bezeichnungen wie DDR3-PC3200 ausgeblendet wurde.

Wirklich spürbare Vorteile hätte man vermutlich erst, wenn die CPUs sich in Richtung 10GHz (0,1ns) bewegen würden der RAM **zugleich** von der Zugriffzeit her "spürbar" in Richtung 1ns gehen würde...
Beides -insbesondere letzteres- ist jedoch nicht absehbar.
Von daher halte ich die Zugriffzeit -alleine betrachtet- weiterhin für mystifiziert und überbewertet!

RAM mit einer Frequenz von nur 200MHz kann aus mathematischen Gründen überhaupt nicht kürzer als in 5ns zugreifen, weil der Takt zu langsam ist. Es ist logisch, dass RAM nicht schneller als mit CL1 zugreifen kann.
200 MHz 5 ns

Wenn sich die Takte mit DDR4 endlich in Richtung 400MHz RAM-Takt bewegen, verschiebt sich die theor. untere Grenze auf
400 MHz 2,5 ns
Sprich, bei einer "realen" CL2 hätten wir dann 5ns Zugriffszeit anstatt der 10ns bei 200MHz.
Simple Rechnung.
Ist natürlich rein theor. und setzt voraus, dass bei DDR4@400MHz auch eine reale CL2 beibehalten werden kann.


Alle regen sich über die hohen CL-Zahlen auf, dabei ist das völliger Quatsch!
Die CL-Zahlen sind rein "virtuell" in den letzten Jahren gestiegen.


Heutiger Standard-RAM DDR3-PC1600 mit einer Zugriffzeit von 10ns, wenn man das ganze Marketinggeschwurbel herausrechnet, hat weiterhin nur 200MHz Takt bei einer CL2!!
So wie es vor rund 10 Jahren bereits war!!

Einfach Rechnung: 5ns pro Zyklus mal 2 Zyklen (CL2) = 10ns
Punkt!

Dass DDR3-RAM pro Zyklus 8x mehr Daten als SDRAM überträgt, weiß eh jeder, da muss man nicht erst anfangen es in "effektiven Takt" umzurechnen!
Weil diese Umrechnung zieht nach sich, dass man auch andere Sachen, wie die CL, völlig sinnlos umrechnen muss.

Denn die heute üblichen, offiziellen CL-Angaben (wie z.B. CL16=8xCL2) sind auch keine "realen CL-Angaben", sondern "virtuelle", oder "effektive CL-Angaben".
Das wissen jedoch nur die Wenigsten.

Die ganze CL-Verwirrung ist alles nur eine Folge des Marketing-Wischiwaschi, was "leider" nötig ist, weil man die 200MHz realen Takt künstlich auf 1600 pseudo-MHz (bzw. MT/s bzw. "effektiver Takt" was viele ja verwecheln!) (=8x200MHz) aufgebauscht hat!!!

Eigentlich ist die Angabe des effektiven Taktes ziemlich hirnverbrannt und man sollte sich wieder auf den realen Takt zurückbesinnen, da dann auch sämtlich CL-Verwirrungen automatisch wegfallen.

Ausgehend von dieser Betrachtungsweise noch folgende Denkanregung:
Wenn DDR3-PC1600 mit 200MHz real taktet und eine reale CL2 hat, ergeben sich folgende effektive Werte:
effektiver Takt: 8x 200MHz= 1600MHz
effektiver CL: 8x CL2= CL16

Was wäre der nächstmögliche CL-Erhöhungsschritt? real? ich meine CL gibt ja immer KOMPLETTE ZYKLEN an?
Die nächstmögliche schnellere CL nach CL2 wäre doch CL1, oder nicht?
Somit folgende Werte:
effektiver Takt: 8x 200MHz= 1600MHz
effektiver CL: 8x CL1= CL8

Entscheidende Frage:
Wenn der nächstmögliche reale CL-Erhöhungsschritt von CL2 zu CL1 führen würde (effektiv CL16=>CL8), wie kann es dann RAM geben mit einer effektiven CL von sagen wir CL15 oder CL14???
Was soll das denn bitte REAL für eine CL sein? CL1,9??????

Wäre es logisch möglich, dass RAM mit einer realen CL1,5 zugreift?
Das heißt doch, dass das RAM "zwischen" zwei Zyklen plötzlich zugreifen kann?
Das ist doch praktisch betrachtet völlig Nonsense, weil RAM ja nur dann"zwischen 2 Zyklen" zugreifen kann, wenn er doppelt so schnell taktet.
Ist eine effektive CL-Angabe mit theor. "unmöglichen" Werten zwischen CL8 und CL16 evtl. auch nur eine Marketingtrick?
 
Zuletzt bearbeitet:
Wenn man bedenkt, dass die CPU ja auch oft für eine Berechnung mehrere Zyklen braucht ... teilweise meine ich, sogar "hunderte Zyklen", bis sie überhaupt wieder aufs RAM zugreifen muss, dann wird einem klar, dass die Zugriffszeit beim RAM erstaunlicherweise gar kein so enger Flaschenhals ist, obwohl das RAM bereits seit über 10 Jahren in der Zugriffszeit nicht schneller geworden ist.
Defakto kommen da noch andere Effekte rein als die reine DRAM Zugriffszeit. Hier haben das die Sisoft-Leute mal gebenchmarkt und etwas erklärt:
http://www.sisoftware.net/?d=qa&f=ben_mem_latency
Dabei betragen die Zugriffszeiten auf den Hauptspeicher je nach Zugriffsmuster und System irgendetwas zwischen 7 und 108 ns - also bei einem CPU-Takt von 3 Gigahertz irgendetwas zwischen 21 und 330 Takten. Dies deckt sich gut mit NVIDIAs Dokumentationen, dass man bei ihren GPUs so 400 bis 600 Takte auf einen DRAM-Speicherzugriff warten darf.

Was heißt das nun für die CPU?
Die CPU hat prinzipiell die Möglichkeit nach einem Speicherzugriffsbefehl weiterzurechnen, bis das Ergebnis irgendwann einmal für einen weiteren Befehl als Operanden benötigt wird. Erst dann muss sie auf den Speicherzugriff per Stall warten. Damit es bei einem Cache-Miss zu keinem Stall kommt, muss die CPU gemäß obigen Beispiel den Speicherzugriffsbefehl mindestens 21 Takte im voraus abgeben, damit es nie zu einem Stall kommt sogar 330 Takte! Berücksichtigt man noch, dass aktuelle CPUs dank Superskalarität und out of order Execution mehrere Befehle pro Takt verarbeiten können, (nehmen wir einmal einen Wert von 2 IPC an - ich weiß hier nicht was so aktuell ist und finde es gerade nicht), sind es bereits irgendetwas von 42 bis 660 Befehlen im voraus.


Wie stark wirkt sich das ganze nun auf die Performance aus?
Dies ist stark vom Algorithmus beziehungsweise vom Programm abhängig. Bei vielen Algorithmen weiß man die Speicherzugriffe lange im voraus, die Speicherzugriffe haben ein sehr regelmäßiges Muster, oder sie sind sehr rechenlastig. Dann spielt die Speicherzugriffszeit nur eine untergordnete Rolle. Allerdings gibt es auch Algorithmen bzw Programme mit relativ chaotischen Speicherzugriffen und wenigen Recheninstruktionen. Dann spielt die Speicherzugriffszeit eine große Rolle. Besonders brutal ist zum Beispiel ein Speicherzugriff in direkter Abhängigkeit von einem Speicherzugriff in direkter Abhängigkeit von einem Speicherzugriff (kommt in Programmen öfters vor als man denkt :) ). In diesem Fall sind es bereits mit obigen Werten irgendetwas zwischen 63 und 990 Takten.
 
Euer erstes DDR4-System mit Quadchannel-Speicherkontroller wird quasi noch "ewiger" leben, wie euer erster Quadcore.
Theoretisch. Die Industrie lässt sich schon was einfallen um DDR5 an den Mann zu bekommen. Und wenn man nur die Spannung um 0,1Volt senkt und den DDR5 Sticker drauf pappt. Ein neues Mainboard+CPU wird man benötigen. Zugegeben DDR5 liegt in weiter Ferne, aber das DDR4 Boards länger durchhalten als zb. DDR3 Boards von der Zukunftssicherheit her. Nö, glaube ich nicht.

Ansonsten genialer Artikel, sehr schön zusammen gefasst. Und sehr informativ und gut strukturiert.

Meine (DDR)RAM Riegel Historie: (3800+ A64; Q9450; 4930K)
512MB Riegel DDR-400, CL2-2-2-6
2GB Riegel DDR2-1000, CL5-5-5-15
8GB Riegel DDR3-1866, CL10-11-10-30

(Zukünftiges System mit 32GB Riegel DDR4 4000?)
 
Zuletzt bearbeitet:
Passend zum Ausblick auf DDR5 und da manche Legenden nie aussterben, ergänze ich die Textsammlung in diesem Thread.
Betrachtet wird hier die "Relation der Wichtigkeit" zwischen DDR5 und HBM!

"Ich denke, DDR5 wird "für die Katz" sein.
DDR5 ist in meinen Augen ein absolutes Nonevent, bis es mal so weit sein wird.

DDR4 ist schon nur deswegen am Markt derzeit so stark, weil es einfach eine Plattformfrage ist, welchen Speicher man benutzen muss.

Insofern kommt es mir jetzt doppelt entgegen, dass der Ryzen so stark startet.
Mit einer AM4-Plattform kann man sicherlich als Nichtgamer so lange ausharren, bis wirklich HBM breit und günstig verfügbar sein wird.

Sobald HBM diese Kriterien erfüllt, denke ich, dass DDR5 nur noch als Billigmassen-RAM von Interesse ist.
Vergleichbar mit den HDDs nach dem Übergang zu den SSD.

Es wird einfach eine Cachestufe mehr ins System rein kommen, die "alte" Cachestufe verliert dabei im Laufe der Zeit immer mehr an Bedeutung, bis sie schließlich komplett durch die "neuere" ersetzte wird, sobald diese billig genug dafür geworden ist:

CPU-Cache=> HBM => RAM => PCIe(NVMe)SSD => SATA-SSD => HDD

Interessant ist es also nicht wirklich auf DDR5 zu warten, oder es auch nur seine Systemplanung danach auszurichten.
Wirklich interessant und disruptiv wird der HBM...

Daher sollte das Augenmerk auf HBM liegen.

Von daher wäre es schon okay, sich **jetzt** nochmal ein leistungsfähiges System zuzulegen.
Ich denke mal, wer damit noch 2-3 Jahre wartet, wird nicht sooo viel gewonnen haben, weil alle Systeme der Prä-HBM-Ära werden eh komplett übertroffen und ersetzt durch Systeme der Post-HB-Ära.
HBM könnte dermaßen disruptiv werden!
Man darf auch nicht vergessen, wir krebsen bereits seit SDRAM 1999 mit den exakt gleichen Zugriffzeiten beim RAM herum: 10ns!
20 Jahre Stagnation!
Wenn dieser Flaschenhals durch HBM erstmals durchbrochen wird, werden künftige Systeme vergeichsweise starke Performancesteigerungen durchmachen in sehr kurzer Zeit!

Aber bis HBM an dern Markt kommt wird so gut wie nichts mehr passieren, ausgehend von einem Ryzen 1700 bzw. der AM4-PLattform.
Daher ist eigentlich unter Effizienzgesichtspunkten jetzt ein idealer Zeitpunkt gekommen zum Aufrüsten.

Es ist jetzt somit schon klar:
Die jetzigen System sind schnell genug, um einen bis zum Zeitpunkt "HBM-Breakthrough" zu tragen.
Weil gar keine markante Leistungssteigerung in den kommenden 5-10 Jahren mehr mit "klassischer" Systemtechnik möglich sein wird ist es auch egal, wie lange es dauern wird, bis HBM kommt.
3 Punkte sind dabei Hauptgedanken:

=> In den kommenden 10 Jahren wird es auf jeden Fall zum Durchbruch von HBM kommen (oder einer vergleichbaren Technologie)
=> Bis dahin wird sich leistungstechnisch nicht viel tun
=> Wer jetzt aufrüstet, kann damit mit sehr hoher Wahrscheinlichkeit das System bis zum Zeitpunkt "HBM" halten, egal wie lange es dauern wird.

Ein dritter Gedanke kommt noch hinzu:
In den kommenden Jahren wird es m.E. einen kleinen Sprung geben in der SSD-Technik.
Mit der "PCIe(NVMe)SSD" oben bei den Cachestufen habe ich auch nicht die derzeitige PCIe(NVMe)SSDs gemeint, sondern künftige mit schneller ZUgriffszeit.
Heutige SSDs haben kaum bessere Zugriffszeiten, als die ersten SSDs!
Das ist eine Zugriffszeit-Stagnation vergleichbar mit der bei dem RAM-Speicher!

Künftige SSDs werden durch das NVMe Protokoll in Kombination mit dem PCIe-Interface dazu in der Lage sein mit deutlich kürzeren Latenzen zu arbeiten, als bisher üblich.
Sprich, die Grundlage für künftige superschnelle SSDs ist bereits **jetzt**gelegt!
Heutige PCIe-SSDs nutzen das Potential der neuen Schnittstelle in punkto Zugriffzeit nicht ansatzweise aus.
Sie können es schlicht nicht, sie sind auf Speicherchiptechnikebene limitierend.
Da können auch extrem hohe Bandbreiten nicht drüber hinwegtäuschen.

Man muss dies nur erkennen und dementsprechend handeln...
Sprich, wer sich ein Board jetzt kauft mit der Plan, es lange nutzen zu wollen, der fährt gut, wenn er darauf achtet, dass zumindest ein freier PCIe-Slot mit möglichst hoher Bandbreite im System vorhanden ist.
Im Moment profitiert man davon zwar noch nicht, aber sobald künftige Speicherchips selber endlich schnellere Zugriffszeiten liefern können, ist man auch mit einem "alten" Board schon bereit dafür, wenn man vorgedacht hat und ein Board besorgt hat, welches einen freien, breitbandigen PCIe-Steckplatz bereit hält dafür.

Für ein AM4-System bedeutet das, es kommt nur der x370-Chip in Frage und auch nur mit 2 "vollwertigen" 16x PCIe 3.0-Slots.
Damit wäre man dann wirklich gerüstet, um auch noch in 5 Jahren aktuelle, schnelle SSD-Speichertechnik zu verbauen. "

Fazit:

Was immer wieder viele Forianer gerne behaupten, das stimmt eben nicht:
Es ist nicht egal "wann" man aufrüstet...
Es gibt immer wieder günstigere und ungünstigere Zeitpunkte dafür.
Derzeit erscheint mir ein günstiger Zeitpunkt, weil wir gerade frisch einen "Technologiesprung" gemacht haben (8-core im Mainstream) und zugleich viele Basistechnologien in den Boards verbaut sind, die eine lange Nutzbarkeit versprechen.

Also, was ist denn relevant in den kommenden 5-10 Jahren?
HBM und PCIe(NVMe)SSDs werden wohl die beiden halbwegs disruptiven Techniken der kommenden 5-10 Jahre sein.
Beide basieren ganz "einfach" eigentlich nur darauf, dass bei derzeit bekannter Technik die Zugriffzeiten weiter und deutlich verkürzt werden.
Zumindest für die Nutzung von superschnellen PCIe(NVMe)SSDs ist jetzt bereits die Grundlage in den Boards gelegt.

Und was ist irrrelevant in den kommenden 5-10 Jahren?
Multicore hake ich erstmalk ab!
Mit 16-Core/32-Thread wird der Zusatznutzen immer weiter abnehmen, so dass es fraglich ist, ob das für den Normalanwender in den kommenden Jahren sinnvoll sein wird.
Wir sind da heute mit 8-core bereits an einer Grenze!!
Von 2-core zu 4-core das ging schnell:
Pentium D (2005) => Intel Q6400 (2007)
Von 4-core im Mainstream zu 8-Core im Mainstream, das hat bereits 5x so lange (10 Jahre) gedauert:
Intel Q6400 (2007) bis Ryzen 1700 (2017)

Bis es dann eine weitere Verdopplung der Kerne gibt und somit 16-Core im Mainstream ankommt, das dauert eher noch länger!!
Und daher ist es auch nicht ganz unrealistisch eine Nutzungszeit von ca. 10 Jahren für einen jetzt angeschafften PC anzupeilen... natürlich immer wieder aufgerüstet mit aktuelleren Teilen.
Ich denke, selbst Gamer können mit einem AM4-Board sehr lange durchhalten, so lange wie bislang noch "nie".

Bzgl. DDR5 denke ich, wie bereits in der Einführung geschrieben: "Nonevent"...
;)
 
Zuletzt bearbeitet:
Latenzen sind technisch bedingt, eben dadurch wie DRAM funktioniert und Latenzen sind auch keine Flaschenhälse. Flaschenhälse sind immer auf Durchsatz und damit Bandbreiten bezogen, die hat man mit den immer höheren Taktraten auch entsprechend gesteigert. HBM steht für High Bandwidth Memory und beruht vor allem darauf, dass man die Breite der Speicheranbindung deutlich erhöht, was bei 64 Bit pro RAM Riegel nur mit mal Channels geht. Die Latenz von HBM wird vor allem dadurch besser, weil die Adressierung von Zeilen und Spalten getrennt über eigene Adressleitungen erfolgt. Nur braucht beides viele Pins und daher geht HBM nur auf dem gleichen Interposer mit der CPU/GPU und nicht über externe Slots. Da bei GPUs der RAM Ausbau meist fest ist, es allenfalls zwei Varianten für die gleiche GPU gibt, ist es dort nicht das Thema dieses RAM auch gleich mit der GPU zusammen auf einen Interposer zu packen, nur ist der eben sehr teuer.

Bei CPUs kann man das aber vergessen, außer es würde wie ein große eDRAM als L4 Cache genutzt werden. Der Rest muss dann doch wieder als DDR4 und später eben DDR5 als Riegel auf der Platine installiert werden, weil es eben unmöglich ist so viele Pins an externe Module zu führen wie man für HBM braucht und eben nur mit Interposern realisieren kann, denn dort ist der Pinabstand um den Faktor 10 bis 20 geringer als die 0,5mm die man maximal bei einem Slot oder auch einem BGA Chip realisiert bekommt.
 
  • Gefällt mir
Reaktionen: DJServs, Sansio und Unlimited1980
Zurück
Oben