DerBaya schrieb:
Nö. Maschinenbau / Werkzeugbau

"Gamer"RAM ist halt viel schneller, was tlw. bei CAM/CAD richtig von Vorteil ist.
Wenn die Kiste mal abkackt, interessiert es in 99% der Fälle nicht. Restart - weitermachen.
(Kommt aber höchst selten vor!)
Diese Einstellung grenzt schon fast an Kriminell.
In 99,999...% alle fälle führen RAM-Fehler ohne ECC eben nicht zum Absturz sondern "nur" zu veränderten Daten. Bestimmt lustig wenn aus z.B. einem 12mm Blech durch eine gekipptes Bit plötzlich ein 4mm dickes wird oder Bauteile auf einmal an einer ganz Stelle positioniert ist oder eine anderes Material verwendet wird usw. Auch wenn sowas statistisch betrachtet nur alle Schaltjahr mal passiert kann dieses eine mal schon einmal zuviel sein und am ende wird einer Gesucht der bei der Konstruktion den Arbeitsfehler begangen hat.
Bei einer reinen "Spielekiste" oder "Internetbrowser-Kiste" mag das alles völlig egal sein. Bei der Bild und Filmbearbeitung mag ein verändertes Pixel auch nicht weiter Stören. Aber sowie die Daten irgendeine länger anhaltende Relevanz haben können durch RAM verursachte Datenveränderungen richtig eklig werden.
Eigene Erfahrungen dazu aus dem Bereich Softwareentwicklung und Verarbeitung größere Datenmengen.
Als Entwicklungsmöhre nimmt man ja aus Kostengründen ganz gerne mal Consumerhardware die zwar von der CPU-Leistung recht nah an der Späteren Einsatzumgebung sind aber vom Preis her nur einen Bruchteil der Serverversion kosten. Und diese wird dann auch nicht regelmäßig ausgetauscht sondern ggf. benutzt bis sie "auseinander fällt".
Berechnung gestartet die ungefähr einen Tag lang die ganzen Daten umrechnet. Das ganze drei mal laufen lassen und danach vergleichen ob bei allen drei läufen exakt das selbe Ergebnis geliefert wurde. Richtig spaßig wenn man dabei feststellt das jedesmal 1-2 Datensätze (von mehreren Mio.) anders sind. Als Softwareentwickler fängt man dann erstmal an den Fehler bei sich zu suchen und nimmt an das man irgendwo im Programm eine Race Condition drin hat die zu den inkonsistenten Daten führt. Nur wenn man denkt das ist es und verändert was und macht den Test von neuem passieren die Fehler an ganz anderen Parametern für die eine ganz anderer Programmteil für zuständig ist. Da kann man sich wunderbar Wochenlang mit Fehlersuche beschäftigen und jagt am ende nur eine Phantom.
Sehr schön auch wenn die Kiste auf der man größere Programme Compiliert RAM-Fehler hat. Da kann man auch wunderbar Phantome jagen weil nach jedem Compilieren der Berechnungsfehler an einer anderen Stelle auftritt und nicht mehr da wo man was verändert hat. Schön auch wenn man mit den ganzen Tests erfolgreich durch ist und dann nur noch mal eine kleine Kosmetische Korrektur macht und dann von den Abnahmetests die Rückmeldung bekommt was man denn da für eine Fehlerhafte Version geliefert hat.
Wobei mir selbst das bis jetzt zwei mal passiert ist und das jedesmal auf Kisten die schon einige Jahre absolut stabil gelaufen sind und sich erst mit zunehmenden Alter dann immer öfters mal "Merkwürdigkeiten" aufgetreten sind.
Das ganze waren RAM-Fehler wo selbst memtest+ garnichts bzw. nur nach mehrtägigen laufenlassen vereinzelt mal einen Fehler gemeldet hat.
Wenn die Datenmenge nur groß genug ist dann ist auf einmal jeden Tag mindestens einmal "Schaltjahr".
Bei dem einen Rechner stolpere ich über fälschlich beim Speichern veränderte Dateien selbst Jahre Später immer noch wieder mal weil ich damals einfach viel zu lange benötigt hatte bis ich überhaupt mal den RAM in verdacht hatte das der für die "Fehler" verantwortlich war.
Einen Programmabsturz oder gar Bluescreen hat es dabei übrigens keine einziges mal gegeben.
Ganz interessant dabei ist auch das wenn man z.B. solch eine größere Berechnung direkt auf dem Hostsystem laufen lässt alles einwandfrei Funktioniert. Sowie man das ganze aber auf der selben Kiste in einer VM (VMware) laufen lässt sich die Fehlerhäufigkeit um einige Zehnerpotenzen erhöht.
Spätestens wenn man sowas in einer "Produktivumgebung" einsetzt sollte man um so sensibler sein für das Thema Datenintegrität und RAM und nicht nur auf die letzten 0,1% Geschwindigkeit schauen.
Von daher freiwillig keine System mehr ohne ECC (und damit meine ich nicht nur RAM sondern die komplette Kette). Schadet nie und ist auch kein Allheilmittel gegen jedwede art von auftreten Fehlern aber auf einem System wo nicht erkennbare/korrigierbare Mehrbit Fehler auftreten, treten gleichzeitig (oder früher sogar) schon vermehrt Einzelbit Fehler/korrigierbare Mehrbit Fehler) auf.
Von daher hilft das ganze schon ganz gut um zu erkennen das die Kiste in die Jahre gekommen ist und sich so langsam anfangen Fehler einzuschleichen und es zeit wird über einem Austausch nachzudenken bevor man sich ernsthaft Daten zerschießt.
Dem Wunsch generell ECC aus Standard für alle X86 System kann mich als eigener leidvoller Erfahrung nur voll und ganz zustimmen.
An allen möglichen Stellen macht man sich seit Jahrzehnten Gedanken um die Absicherung der Datenübertragung z.B. die CRC-Prüfsummen und Paketwiederholungen bei TCP/IP, Prüfsummen auf der Festplatte und bei der Übertragung vom/zum Kontrolle usw.
Nur im größten Bereich wo alle Daten die in irgendeiner Form durch müssen (oft sogar mehrfach) ist alles ungeschützt.
Ein größeres Problem an dem ganze ist derzeit noch die Unterstützung der gängigen OS das man solche Ereignisse wenigstens in Statistischer Form vernünftig angezeigt bekommt. Wenn ECC die Regel und nicht der Exot wäre, wäre der Support mit einiger Sicherheit hier deutlich besser.