Wie ist das mit dem ECC?

Geicher

Lt. Junior Grade
Registriert
Okt. 2009
Beiträge
466
Hallo,
ich habe hier einen sehr interessanten Artikel gelesen:
http://www.planet-rcs.de/article/ram3/

Kann mir jemand sagen was in der Praxis somit alles passieren könnte?
Theoretisch könnte so ein "umkippendes Bit" doch zum PC Crash oder Fehler in Spielen/Dokumenten etc. führen.

Beispielweise könnten Spiele nicht reproduzierbar abstürzen, was gerade in Benchmarks eigentlich schon sehr ungünstig sein könnte....

Könnt Ihr mir dazu genaueres erklären?

MfG
Geicher
 
Zuletzt bearbeitet:
Wieso fragst du ? Steht doch, im Link, alles drin. Außerdem wird immer eine Prüfsumme ausgegben, wenn da irgendwo eine 0 von der 1 abweicht, stimmt das resultat nicht mehr:D
 
Im Artikel steht auch das Pro GB 1 Fehler am Tag auftritt, das würde ja bedeuten, wenn ich etwa durchschnittlich 3 GB RAM Last habe und meinen PC 24 Stunden am Lauen habe, müsste ich ja bis jetzt schon mal was gemerkt haben...

Deswegen frage ich :)
 
so genau kenne ich mich auch nicht aus. Ich weiß aber das die Daten immer in Paketen übertragen werden und vorher eine Prüfsumme errechnet wird. In etwa 6*7= 42 . Wenn ein Bit fehlerhaft ist kommt dann 6*6 = 36 raus. Dann wird das Paket nochmal neu angefordert...

Wenn das nicht so wäre würden die PC´s ja dauernt abstürzen
 
Die Erklärung klingt plausibel, würde diese Fehlerkorrektur ja aber auch irgendwie wieder sinnlos machen, nicht wahr? :D
 
Wenn ein Bit in einem Bild oder Video kippt wirst du das nicht bemerken. Der größte Teil deines RAM Inhaltes sind solche Daten wo du es einfach nicht merkst.
Zudem ist 1 kippendes Bit pro Tag sehr schwarzmalerisch. In Servern die ECC verwenden und deshalb 1 Bit Fehler bemerken ist die Rate sehr sehr viel geringer.
Prüfsummen gibt es in einem PC in der Regel nicht.
 
ECC RAM macht dann Sinn, wenn man hochkomplexe, wissenschaftliche Berechnungen anstellt und ein solches "umgekipptes Bit" das ganze Ergebnis fälschen würde. Ich sage nur: Chaostheorie/ Jurassic Park/ Ian Malcom :) (man möge mir diese Abschweifung verzeihen)
im Klartext: ein falscher Bit in nem Video produziert nen winzigen Bildfehler, in ner hochkomplexen Berechung ist aber schon sowas winziges sehr schlimm.
Deswegen wird es vielfach in Servern oder Workstations eingesetzt, in Privatrechnern unnötig.
 
Die Frage ist sowieso, ob man ein falsches Bit im Speicher merkt. Denn zum Glück gibt es ja ein Schichten-Modell bei der Programmierung. Das Betriebssystem nimmt schon viel an möglichen Fehlern raus. Man muss sich ja als Programmierer nicht darum kümmern, wo das Programm später im Speicher läuft. Ähnlich ist es nun mit den Bit-Fehlern.
 
mausweazle schrieb:
Die Frage ist sowieso, ob man ein falsches Bit im Speicher merkt. Denn zum Glück gibt es ja ein Schichten-Modell bei der Programmierung. Das Betriebssystem nimmt schon viel an möglichen Fehlern raus. Man muss sich ja als Programmierer nicht darum kümmern, wo das Programm später im Speicher läuft. Ähnlich ist es nun mit den Bit-Fehlern.

Nett, aber in den meisten Fällen totaler Humbug. Wo genau bemerkt das OS denn einen Bitfehler und wie reagiert es darauf?
 
Mumpitzelchen schrieb:
...und wie reagiert es darauf?

Im Zweifelsfall mit einem Blauen :evillol:

Passiert aber recht selten und daher leben wir damit, davon abgesehen ist ECC etwas teurer und dabei langsamer^^
 
Mumpitzelchen schrieb:
In Servern die ECC verwenden und deshalb 1 Bit Fehler bemerken ist die Rate sehr sehr viel geringer.

Auch in Servern mit ECC treten Speicherfehler häufiger auf als angenommen.

Siehe: http://www.heise.de/newsticker/meld...l-haeufiger-als-bisher-angenommen-828883.html, http://www.slashcam.de/news/single/Studie--DRAM-Speicherfehler-viel-haeufiger-als-ange-7922.html oder http://arstechnica.com/business/2009/10/dram-study-turns-assumptions-about-errors-upside-down/

Darum arbeiten teurere Server auch mit Chipkill (im Gegesatz zum SDDC bieten die E7 Xeons sogar DDDC) oder gar RAIM (IBM z196/zEC12 Mainframes).
 
Zurück
Oben