Warum ist der Takt so unwichtig?

T

Tandeki

Gast
Hi,

auf meinem Board verwende ich Speicherriegel mit 800 MHz Speichertakt, obwohl mein Board mit "Dual Channel 1200+ MHz" beworben wird. Grund dafür ist die allgemein vorherrschende Meinung, dass auf Systemen, die nicht übertaktet werden, ein Speicher mit 800 MHz ausreicht bzw. ein schnellerer Speicher in der Benutzung des Rechners keinen spürbaren Mehrwert liefert.

Ich frage mich nun, wieso das so ist. Wenn ich mir einen Speicher kaufe, dessen Taktung 50% über der meiner jetzigen Module liegt, wieso hat das keine Auswirkung auf die Performanz meines Systems (Phenom II X4 955 BE)? Gibt es einen Flaschenhals oder woran liegt das?

Vielen Dank,

Deliberation!
 
Deliberation schrieb:
Ich frage mich nun, wieso das so ist.
weil der prozessor nur ein x an daten schaufeln kann bei einer taktfrequenz von y und ein mehr einfach nur vorhanden ist, aber nicht genutzt wird. hier steigt also einfach die speicherbandbreite an. ist wie wenn du im auto die übersetzung des getriebes änderst, damit das auto schneller fahren kann, aber der motor nur bis max 150 km/h kommt, obwohl das getriebe für 300 km/h ausgelegt ist.
 
Die Speicherleistung nimmt schon zu. Das kann man je nachdem auch in Speicher intensiven Anwendungen spüren.

Flaschenhals ist derzeit bei den meisten Rechnern noch die gute alte Festplatte. Es bringt dir also wenig, wenn in deinen Speicher das vielfache der Daten pro Sekunde geschrieben werden könnte, wenn die Festplatte oder die restlichen Komponenten leider nicht genug Daten pro Sekunde liefern können.
 
und wen du den motor deines autos übertaktest schaft der auch 300km/h du kannst deinen motor aber nur so weit übertakten wie auch das getriebe mitspielt

Ps korrigiert mich wen ich mich irre
 
Ich denke das hängt auch noch stark von der Anwendung ab. Wenn die Anwendung eine hohe Lokalität besitzt, d.h. die Speicherzugriffe und die Zugriffe auf den Programmcode sich in einem eher kleineren Rahmen abspielen, dann greifen die Caches und der Speicher bleibt überwiegend aussen vor.
 
Wie Claw schon gesagt hat ist der Datendurchsatz bei 800MHz schon so hoch, dass deine CPU schon diesen nicht auslasten kann. Eine Erhöhung bringt also nichts, weil vorher schon reserven da waren.
 
aufkleber und große zahlen und große bildchen auf schachteln sind alles NUR eins, marketing und eyecatcher

der speicher ist nicht die entscheidende größe im system

er muss ausreichend groß sein, jeh nach system sind heute 3-4gb wohl fast überall drin

ob der nun 677, 800 oder 1000 oder mit 1200 mhz läuft, großen geschwindigkeits rausch wirst du da nirgends feststellen. es sind meistens im durchschnitt der anwendungen wenige %, im bestfall bei speicherlastigen programmen evtl 10-15%, aber das sind dann schon eher wissenschaftliche sachen oder videobearbeitungs software

und wie oben schon beschrieben, ist der speicher ein -speicher-, da werden weder daten verarbeitet noch anderweitig gemorphed.
 
Okay, vielen Dank.

Also gibt es diverse Flaschenhälse, HDD und CPU wurden von euch genannt. Kann man das Flaschhalsphänomen auch quantifizieren? D.h. eine Rechnung aufmachen á la "Eine Speicher DDR2 mit einem Speichertakt von 1066 MHz kann in der Sekunde theroretisch x kb an Daten verarbeiten. Eine CPU kann x-y kb an Daten verarbeiten. Fazit: aufgrund der Differenz von y kann die Leistungsfähigkeit der Speicherriegel nicht voll ausgenutzt werden."?
 
eine interesannte frage nur wer braucht denn nen 1600MHz ramriegel der 100% genutzt wird?
wenn mom 800MHz netmal richtig genutzt wird dann brauch doch niemand soviel leistung, für Hardcore-Benchmarks vieleicht aber sonst? ;)
 
Gandhi08 schrieb:
wenn mom 800MHz netmal richtig genutzt wird dann brauch doch niemand soviel leistung, für Hardcore-Benchmarks vieleicht aber sonst? ;)
speicherlastige anwendungen brauchen z.b. diese enorme bandbreite. es ist ja nicht so, dass auf consumer pcs nur spiele oder irgend eine office suite werkelt, sondern es wird auch 3d modeling betrieben, videos konvertiert und vieles weiteres. in manchen anwendungen brauch man halt diese bandbreiten (speziell bei serveranwendungen) und deswegen gibt es mehr als 800 mhz. ist ja auch nicht so, dass jeder eine quad-core cpu brauch oder eine 5870 im rechner. es brauch ja auch nicht jeder die vollausstattung in einem pkw oder nicht jeder die bestmögliche motorisierung mit 200 ps.
 
Deliberation schrieb:
Eine CPU kann x-y kb an Daten verarbeiten.

Und was bedeutet dann "verarbeiten"? Nur einlesen? Oder hochkomplexe Wettermodelle berechnen? Das kann man nicht eindimensional betrachten, das Problem ist komplex.
 
Hansdampf12345 schrieb:
Flaschenhals ist derzeit bei den meisten Rechnern noch die gute alte Festplatte. Es bringt dir also wenig, wenn in deinen Speicher das vielfache der Daten pro Sekunde geschrieben werden könnte, wenn die Festplatte oder die restlichen Komponenten leider nicht genug Daten pro Sekunde liefern können.

Also das würde ich jetzt einfach mal in Frage stellen, denn der Arbeitsspeicher ist ja genau dazu da, um Dateien, die eine schnelle Zugriffszeit und Transferrate (zum CPU oder GraKa) benötigen, bereit zu stellen. Das, was du erwähnst kommt ja nur ins Spiel, wenn Daten von der Festplatte in den RAM kopiert werden, zB wenn man ein Spiel lädt. Aber dort wird ja dann erst richtig mit diesen Daten gearbeitet. Korrigiert mich, wenn ich falsch liege.
 
@Dele2k, genau.

@Deliberation
Na klar kann man das, abschätzen.
Du musst dir leider die Mühe machen die Verarbeitungs/Übertragungsraten der RAMs auszurechnen und mit dem Übertragungsraten des Buses abzugleichen. Dann siehst Du wann ein höherer Speicherdurchsatz nichts mehr bringt, da der Bus limitiert. Aber das bedeutet lesen.

http://de.wikipedia.org/wiki/DDR2#DDR3-SDRAM

Referenztakt AMD vergleichbar mit BCLK bei Intels QPI
steht sicher auch irgendwo.

FSB, QPI Bus (Intel)
http://de.wikipedia.org/wiki/Front_Side_Bus
http://de.wikipedia.org/wiki/Intel_QuickPath_Interconnect

Fragen kannst Du dann immer noch.
 
@Dele2k: Tja, das sehe ich ähnlich. Kommt auf die Anwendung und den Anwendungsfall an.

Wenn ich mein 15 GB Geburtstagsvideo neu codiere und 4 GB RAM habe, dann fliesst die Festplattengeschwindigkeit in die Gesamtdauer der Berechnung mit ein.

Wenn ich Super Pi benchmarke, ist die Geschwindigkeit der Festplatte auf dem Rechner nahezu wurscht.
 
Toecutter schrieb:
Und was bedeutet dann "verarbeiten"? Nur einlesen? Oder hochkomplexe Wettermodelle berechnen? Das kann man nicht eindimensional betrachten, das Problem ist komplex.

Wirklich? Ich dachte, hochkomplexe Wettermodelle unterscheiden sich von dem Öffnen eines Windows-Programms eigentlich nur in der Anzahl der Einzeldaten. Die Beziehungen zwischen den Elementen sind zwar bei Wettermodellen komplexer. Das hängt aber wiederum mit der Anzahl zusammen, denn jede zu berechnende Menge hat Einzeldaten mit Beziehungen zueinander. Sonst gäbe es ja nichts zu rechnen!?

@engine: da bin ich ja froh, dass ich lesen kann. ;)

Aber ich muss keine veralteten Sockel A-Spezifikationen lesen, um Limitierungen im System zu erkennen... Hansdampf hat alleine mit der Festplattenanbindung schon erklärt, warum mehr als 800 MHz nichts bringen. Selbst wenn die SATAII-Festplatten 3 GB/s machten, so haben 800er-Module mit 12,8 GB/s eine dermaßen große Reserve, dass mehr MHz einfach nicht mehr Leistung bringen kann.
 
Zuletzt bearbeitet:
Deliberation schrieb:
Wirklich? Ich dachte, hochkomplexe Wettermodelle unterscheiden sich von dem Öffnen eines Windows-Programms eigentlich nur in der Anzahl der Einzeldaten. Die Beziehungen zwischen den Elementen sind zwar bei Wettermodellen komplexer. Das hängt aber wiederum mit der Anzahl zusammen, denn jede zu berechnende Menge hat Einzeldaten mit Beziehungen zueinander. Sonst gäbe es ja nichts zu rechnen!?

Beim öffnen von Programmen - und ich denke, nicht nur auf Windows - spielt die Festplatte tatsächlich eine größere Rolle. So lassen sich mit SSD Festplatten bspw. erhebliche Geschwindigkeitsvorteile messen. Beim arbeiten mit bereits geöffneten Programmen allerdings, werden ja auch die Daten, die das Programm nutzt, in den RAM geladen. Andernfalls würde ich mal ein ernstes Wort mit dem zuständigen Coder reden.
 
Die Festplatte würde ich jetzt mal nicht so berücksichtigen. Es geht ja um RAM-CPU und deren Frequenzen/Timings.
 
wie schon gesagt... stark vom BUS der CPU abhängig... bei einem BUS von 1333Mhz hab ich im durchschnitt bei read/write/copy 8.000MB/s mit meinem 1066ér DDR2. wenn ich die CPU aber auf über 4Ghz bringe und dadurch einen BUS von knapp 1.900Mhz habe, erreiche ich raten bei read/write/copy von über 10.000MB/s bei 1148Mhz Speicher...! in wie fern sich dies aber auf die performance des systems auswirkt ist von der software und der restlichen hardware abhängig!
 
Deliberation schrieb:
Wirklich? Ich dachte, hochkomplexe Wettermodelle unterscheiden sich von dem Öffnen eines Windows-Programms eigentlich nur in der Anzahl der Einzeldaten. Die Beziehungen zwischen den Elementen sind zwar bei Wettermodellen komplexer. Das hängt aber wiederum mit der Anzahl zusammen, denn jede zu berechnende Menge hat Einzeldaten mit Beziehungen zueinander. Sonst gäbe es ja nichts zu rechnen!?

Nunja, wenn ich ein "einfaches" Programm öffne/starte, wird desses Programmcode von der Festplatte in den Speicher gelesen und es werden diverse Initialisierungen durchgeführt (Menüs aufgebaut, Daten vorbelegt). Fertig.

Beim Beispiel Wettermodell werden die Daten zigmal zueinander in Relation gesetzt und es wird viel gerechnet. Es fällt mehr Arbeit für die CPU an.

Ich betrachte hierbei hinsichtlich des Wortes "verarbeitet" also nicht nur das Einlesen der Daten von der Festplatte in den Speicher, sondern auch das, was mit den Daten veranstaltet wird.

Damit wollte ich nur darauf hinweisen, daß mit dem Wort "verarbeitet" keine allgemeingültige Definition gegeben ist, mit der man pauschal die von Dir gewünschte Rechnung anstellen kann.
 
Deliberation schrieb:
...Aber ich muss keine veralteten Sockel A-Spezifikationen lesen, um Limitierungen im System zu erkennen... Hansdampf hat alleine mit der Festplattenanbindung schon erklärt, warum mehr als 800 MHz nichts bringen. Selbst wenn die SATAII-Festplatten 3 GB/s machten, so haben 800er-Module mit 12,8 GB/s eine dermaßen große Reserve, dass mehr MHz einfach nicht mehr Leistung bringen kann...

So einen blödsinn habe ich schon lange nicht mehr gehört. Warum fragst Du dann? QPI Bus ist alt. Scheint Du hast doch nicht richtig gelesen.
 
Zurück
Oben