Warum ist der Takt so unwichtig?

Nunja Engine, der QPI (S1366, intern 1156) oder der HT-Link (AM2,AM3) sind zwar Busse, aber nicht für DatenTransport aus oder zum Speicher verantwortlich. Sie bewältigen den Datenaufwand von PCIe-Lanes an der Northbridge und das was von der Southbridge kommt.
Insofern können die nicht die Speicherbandbreite limitieren.

Was in der Kette, Festplatte -> Ram -> L3 -> L2 -> L1 nach dem Ram noch limitieren kann, ist z.B. die Verbindung Speichercontroller zu L3-Cache, über diesen Bus erfährt man bei AMD oder Intel allerdings fast nichts.

Bei AMD scheint es so, als würde schnellerer Speicher als 1066 ohne "Northbridgefrequenz"-Anhebung keinen höheren Durchsatz mehr bringen.
Das macht den Anschein, dass eben gerade die Verbindung Speichercontroller zu L3 oder gar der L3 selbst ab hier limitieren würde.

Bei Intel muss der Uncoretakt, der auch die Geschwindigkeit des L3 beeinflusst, entsprechend der Ramtaktung angepasst werden.
Der Speichercontroller scheint so immer ausreichend an den L3 angebunden zu sein, da auch mit DDR3-1600 im Tri-Channel hohe Durchsatzraten verhältnismäßig nahe an der theo. Bandbreite gemessen werden.

Allerdings sind das beides Fälle für synthtische Speicherdurchsatzbenchmarks.

In der Praxis hängt es von der verwendeten Software ab, ob die bereitgestellte Bandbreite genutzt wird/werden muss. ToeCutter hat es in seinem 1.Post schön und kurz gesagt.
Die L-Caches mit ihrer schieren Größe mittlerweile sind im Prinzip die Puffer für die meiste Software, dauerhafte hohe Speicheranforderungen sind dann nicht nötig.


Gruß
Raubwanze
 
Immer dieses halbwissen hier im Forum ^^

DDR2-800 Ram hat keine 800mhz ! Also damit fängt es schonmal an. Wenn also das Mainboard Dual Channel 1200+ angibt, dann hat es auch nichts mit dem Speicherriegel an sich zu tun. Die werden weiterhin von 100mhz - 266mhz laufen. Jedoch gibt es das sogenannte Prefetch, welches von ddr1 (2x prefetch) zu ddr2 (4x prefetch) theoretisch verdoppelt wurde. Sprich die Anbindung des Speichers an den Controller ergibt eine verdopplung, sowie der effektive Takt auch wieder doppelt gerechnet wird. So sinds bei DDR2-800 200mhz Takt, 400mhz Anbindung und 800mhz effektiver Takt.
Wenn man nun den Speichertakt erhöht auf 300mhz, so wären dies 600mhz Anbindung und 1200mhz effektiver Takt.

siehe auch de.wikipedia.org/wiki/ddr-sdram .

Kommen wir also zu deinem System. 4 einzelne Kerne, die je nach Aufgabe auch Speicher brauchen, werden den mehrwert von ddr2-800 zu ddr2-1066 oder schneller, recht schnell aufessen. Bei einem SingleCore system wäre es noch so, das der einzelne Kern gar nicht genug vom schnellen speicher profitiert. Schliesslich wäre es nur 1 kern, der aber alles verwalten muss.
Bei 3-4kernen sieht es aber im normalfall so aus, das die zu bewältigende Aufgabe an alle Kerne verteilt wird, sofern unterstützt. Die erhöhung der Geschwindigkeit des Speichers wird sich nur nicht mehr so drastisch zeigen, da der Grundwert des Mhz Wertes des Speichers sich nur noch marginal verändert.

Das ist wie ein Auto mit Fahrgästen. Bei einem Fahrer ist die Beschleunigung sehr gut und jede PS erhöhung spürt man. Bei 4 Fahrgästen ist sie evtl auch noch gut, aber jede PS erhöhung wird sich nur noch minimal auswirken. Und der Trend beim pc ist halt, das man lieber gleichzeitig 4 fahrgäste transportiert von a nach b, als alle nacheinander. (sry, ich mag bildliche darstellungen :) )

lg, fire
 
@raubwanze. Der gesamte Datenverkehr läuft doch entweder über QPI (hier kein Bus) oder FSB von Chipsatz zur CPU. Bei der QPI-Architektur gibt es noch einen unabhängigen Memory Bus. Wenn beim Core i7 920 die Speicherbandbreite bei einer effektiven RAM Frequenz von 800MHz und 3CH 19,2GB/s ist und die theoretische QPI Tranfererate 12,8 GB/s (25,6GB/s Duplex) ist, dann ist doch der 800er RAM falsch. Hier müsste ein 1066er RAM 3CH mit 25,6GB/s Bandbreite her. Ein 1333er RAM 3CH wäre schon überdimensioniert.
Je nach Übertaktung wird QPI oder FSB verändert und bedarf einer Anpassung der Bandbreite des RAMs und kann abgeschätzt werden. Mehr "falsches" wollte ich nicht sagen. Was der L3 Cache für gigantische Auswirkungen hat kann ich leider nicht sagen.:)
 
Dele2k schrieb:
Also das würde ich jetzt einfach mal in Frage stellen, denn der Arbeitsspeicher ist ja genau dazu da, um Dateien, die eine schnelle Zugriffszeit und Transferrate (zum CPU oder GraKa) benötigen, bereit zu stellen. Das, was du erwähnst kommt ja nur ins Spiel, wenn Daten von der Festplatte in den RAM kopiert werden, zB wenn man ein Spiel lädt. Aber dort wird ja dann erst richtig mit diesen Daten gearbeitet. Korrigiert mich, wenn ich falsch liege.

Das kommt ja auch NIE vor, dass Daten von der Festplatte zum RAM geschrieben werden müssen oder wie? Schonmal ne SSD verbaut und den Unterschied bemerkt? Es werden bei jedem Programmstart Daten von der Festplatte geladen und in den RAM geschrieben.

Bei Videoschnitt oder ähnlichem wird sogar dauernd nachgeladen, weil die Datenmengen zu groß für den RAM sind.

Natürlich spielen CPU, Graka etc. auch ne große Rolle (deshalb hab ich ja auch "die restlichen Komponenten" geschrieben). Für mich ist derzeit aber die Festplatte der größte Flaschenhals, wenn wir von SPÜRBARER Leistung ausgehen.
 
Zuletzt bearbeitet:
@Hansdampf12345: Auch hier gilt: das ist nur dann ein Flaschenhals, wenn die Anwendung Daten von einer Festplatte/SSD/etc. nachladen muss.

Dann ist es sicher momentan der grösste (nach dem Netzwerkzugriff) Flaschenhals im Bereich von privater Computernutzung.

In Bezug auf Taktfrequenz beim RAM finde ich den Vergleich aber nicht praktikabel. So würde ich den Zugriff auf den Hauptspeicher nicht vergleichen. Das wäre als wenn in der Formel 1 auch der Transport der Rennwagen zu den Veranstaltungsorten mittels Schiffen mitgewertet würde.
 
Kommt eben immer auf die Anwendung und natürlich auch die Größe des RAM an.
 

Ähnliche Themen

S
Antworten
19
Aufrufe
1.670
Skorpion81
S
Zurück
Oben