Test Synology DS716+ im Test: Mit Prüfsummen und Snapshots gegen Datenverlust

Moranaga schrieb:
ECC ist ein Mythos.
Selten so einen Blödsinn gelesen und dann noch von jemandem der vorgibt beruflich damit zu tun zu haben. Das ist traurig und lässt mich um meine Rente zittern.

Warum wohl bringt Intel nun erstmal mit Skylake auch einen Xeon für mobile Anwendungen? Die kleinen Xeons (also E3)unterscheiden sich nur durch die ECC RAM Unterstützung von den i5 und i7. Warum hat man beim DDR4 wohl wenigstens eine Prüfsumme bei der Übertragung eingeführt, die es vorher nicht gab und die auch bei None-ECC RAM zumindest Übertragungsfehler zu vermeiden hilft?
Moranaga schrieb:
Es muss auf der gesamten Kette unterstützt werden, um zu greifen.
Das ist richtig und sollte sich von selbst verstehen, da es eben nichts bringt einfach nur ECC Module in ein Board zu packen welches das nicht unterstützt oder eine CPU hat, die das nicht unterstützt. Sonst hängen die zusätzlichen Bits ja nur in der Luft ohne eine Funktion zu haben.
Moranaga schrieb:
Vom RAM übers Mainboard bis zum Datenträger. Ein aktiviertes Kernel-Modul bedeutet noch gar nichts; für den Anwender heißt das, er kann in der Regel nicht überprüfen, ob es funktioniert.
ECC ist eine reine HW Funktion des RAM Controllers, dafür braucht man keine SW Unterstützung im OS. Die wird nur benötigt, wenn man dann auch auslesen will wie viele Fehler erkannt wurden und vor allem, wenn man auf unkorrigierbare Fehler reagieren können möchte oder muss.

Moranaga schrieb:
Ich arbeite beruflich mit (vergleichsweise) gigantischen Datenmengen. ECC ist zwar auf einigen Servern aktiv, aber nicht durchgängig.
Was meinst Du mit aktiv? Nur das Kernel-Modul? Das ist wie gesagt egal, solange durchgehend die passenden RAM Module sind, was bei Servern meist Reg-DIMMs sind und die haben immer ECC, es gibt keine registered Module ohne ECC. Dann funktioniert ECC schon mal.
Moranaga schrieb:
ECC ist ein Marketing-Feature und spielt in der Praxis keine Rolle. Backup early, backup often and forget about it.
So ein Unsinn, informiere Dich mal besser, denn was nutzt es Dir, wenn auf allen vorhandenen Backups bestimmte, wichtige Dateien schon korrupt sind, weil sie schon korrupt abgespeichert wurden?

xamoel schrieb:
Und hier auch nochmal: Die BITROT-Correction wird NICHT UNTERSTÜTZT von Synology! Nur die Bitrot-DETECTION.
Das ist ja wenigstens konsequent, denn sonst würde man bei RAM Fehler nur auch noch Daten kaputt-korrigieren.

xamoel schrieb:
Somit ist das ganze Feature nutzlos!
Nicht ganz, vielleicht erfährt dann ja mal der eine oder andere der es heute noch bezweifelt, dass es das Problem wirklich gibt und es real ist und auch ihn treffen kann.

strex schrieb:
Manche (wohl die meisten) wollen nicht selbst bauen und auf frickel Software ala OMV wechseln. Sondern kaufen einstecken und laufen lassen.
Das ist in Ordnung, die dürfen auch gerne dafür mehr bezahlen, ich werden trotzdem weiterhin die Alternative Microserver aufzeigen, da diese noch nicht jedem bekannt ist und für machen ist es eben die bessere Alternative.
strex schrieb:
Den meisten sind die Filme und co. eh nicht so wichtig und machen eh kein Backup. Der braucht dann auch kein ECC oder ZFS.
Das ist ja auch in Ordnung, schlecht ist es nur, wenn die Daten ihnen doch wichtiger waren als sie gedacht haben und sie das Risiko gar nicht kannten, denen die Daten ausgesetzt sind. Die eigene Urlaubs- und Familienerinnerungen kann man nun einmal meist nicht erneut aus dem Netz runterladen und viele halten Daten auf einen NAS für so sicher wie einen Safe, was auch von Überschriften wie dem des Reviews noch verstärkt wird.

strex schrieb:
Warum ewig frickeln wenn es für ein paar Euro mehr eine fertige Lösung gibt.
Du hast offenbar noch nie eine fertige Distribution von einem der von mir genannten Systeme installiert, denn da muss man nichts frickeln und die Installation dauert auch nicht ewig, sondern ist ruck-zuck gemacht, schneller als die nachfolgende Einrichtung die man auch bei so einem Fertig-NAS machen muss.

strex schrieb:
Beim Lesen kann zwar im laufenden Betrieb das Bitkippen, der falsche Zustand wird aber nicht zurückgeschrieben.
Sicher? Und wenn es ein Dokument ist welches vom Client gelesen, bearbeitet und erneut gespeichert wird? Da muss der Fehler nicht auffallen und wird dann aber wieder mit abgespeichert. Oder die Datei wird kopiert um danach das NAS neu einzurichten und zurückzukopieren oder durch ein anderes NAS zu ersetzen und dann landet die korrupte Datei auf dem NAS.
strex schrieb:
Es gibt zig Millionen wenn nicht Milliarden von Computern ohne ECC. Jedes Smartphone hat kein ECC. Bis dato laufen die alle aber ziemlich reibungslos.
Das ziemlich schränkt es ja schon ein und nicht alle laufen wenigstens ziemlich reibungslos, woran zuweilen auch RAM Fehler schuld sind, nur es steht eben nie dabei das es ein RAM Fehler ist, der einem den Ärger bereitet. Wer mit ziemlich reibungslos laufenden System zufrieden ist, braucht sich ja keine Sorgen machen, es geht ja ziemlich oft alles gut. Die anderen sollten einfach nur wissen, was sie am sinnvollsten machen um die Erfolgsquote zu erhöhen.
strex schrieb:
So oft und so gravierend wie du immer die Bitfehler darstellst sind sie im laufenden Betrieb also doch nicht.
Wie gravierend stelle ich sie dann dar? Das es meistens gut geht, streite ich doch nicht ab und Wahrscheinlichkeiten habe ich trotz Nachfrage nicht genannt, weil ich da auch keine belastbaren Daten haben, die scheint keiner so richtig zu haben. Aber es bleibt dabei, dass der einzige Vorteil von Nicht-ECC RAM der Preis ist, vor allem der des Systems und in Serverumgebungen ECC RAM einfach Standard ist, da RAS dort wichtiger ist als der Preis.

strex schrieb:
Multibit Fehler können zwar erkannt werden aber nicht korrigiert. In Advanced ECC kann zwar ein Multibit Fehler eines DRAM Chips korrigiert werden. Ist das aber ein laufender über zwei oder mehr Chips ist das wieder nicht möglich.
Das ist richtig, aber auch ungleich seltener als Single-Bit Fehler und Memory Scrubbing kann genutzt werden um solche Fehler noch frühzeitiger zu erkennen und die betroffenen Module auszuwechseln.
strex schrieb:
Im schlimmsten Fall habe ich also wieder nur Datenmüll, denn wenn ich nur eine laufende Version im RAM habe und sonst nichts, komme ich nicht wieder zurück zum alten Zustand auch wenn der Kernel in den Panic Mode fällt.
Wenn Du es nicht schaffst zu verhindern das Daten wegen nicht korrigierbarer Bitfehler korrupt gespeichert oder ausgegeben werden, hast Du einen Designfehler in Deinem Serversystem. Wenn ich die Qualifikation so mancher Leute die im IT Bereich arbeiten so ansehen, ist das aber wohl keine Ausnahme.

strex schrieb:
Also bringt mir für absolute Sicherheit auch ECC nichts, dann muss man deiner Meinung ja auch von ECC abraten da es auch nicht zu 100% sicher ist.
Davon habe ich auch nie gesprochen und mehr als einmal gesagt, dass es absolute Sicherheit nicht gibt, wenn man das Maximum erzielen möchte, landet man wie gesagt beim Mainframe Rechner, deshalb sterben die Dinger ja auch nicht aus und finden noch heute bei Banken und Versicherungen, also wo Bitfehler richtig große Schäden anrichten könnten, immer noch ihr Zuhause.

strex schrieb:
Denn wenn Strahlung in einer Speicherchip oder einer Festplatte eintritt können auch Bits flippen.
Genau, Strahlung aller Art ist die Hauptursache für Soft-Errors im RAM, also spontan gekippte Bits. Solche Fehler finden auch Tests wie Memtest86(+) praktisch nie, da diese die Daten zu kurz nach dem Schreiben wieder einlesen. Da bleibt kaum Zeit das sowas passiert. Auf dem Medium ist das dagegen kein Problem, da hier wie schon gesagt, alle Daten immer per ECC abgesichert sind, es also hinter jedem physikalischen Sektor eine HDD eine ECC gibt und auch hinter jeder NANDS Page bei einer SSD. Die Wahrscheinlichkeit das da Fehler unerkannt bleiben, ist extrem gering, schon die Wahrscheinlichkeit das die unkorrigierbar sind, ist ja nur so bei 1:10^14 oder geringer.
strex schrieb:
Da bringt mir aber auch ECC nichts mehr, denn es stellt einfach nur fest das dann die Datei defekt ist.
Falsch, denn auch das einfach ECC wie es z.B. ein Xeon E3 nur beherrscht, kann Singlebit Fehler im RAM korrigieren, die CPU bekommt also auf jeden Fall korrekte Daten geliefert, da ja die ECC Funktion im RAM Controller ist und der hat dann 72 Bits um 64 Datenbits zu erzeugen, was eben ausreicht um Singlebit Fehler zu korrigieren. Ganz früher als es nur das 9. Bit für 8 Datenbits gab, war das in der Tat nicht möglich, da konnte man die Singlebitfehler wirklich nur erkennen und bei Multibitfehlern war die Erkennung Glückssache, aber die Technologie hat sich weiterentwickelt und weniger als 64 Bit Breite hat RAM heute eigentlich in PCs gar nicht mehr, in Servern ist es meist noch mehr, die Quadchannel haben auch den Vorteil noch mehr Sicherheit beim ECC zu liefern, denn wenn ich für 256 Bits 32Bits ECC habe, kann ich mehr Fehler erkennen und korrigieren als wenn ich nur 72Bits für 64 Datenbits habe. Das ist aber aufwendige Mathematik und wer da in der Schule nicht spitze war, wird es wohl verstehen können.
strex schrieb:
Oder was ist mit eindringender Strahlung in die CPU, welche dann keine richtigen Berechnungen durchführen kann. Dann erhalte ich falsche Checksums.. Hmm.
Das ist eine gute Frage, ich weiß nicht wie gut welche CPUs da abgesichert sind, bei einem Xeon würde ich erwarten, dass zumindest der Cache und vielleicht die Register da auch geschützt sind, aber letztlich landet man eben beim Mainframe, da wird wirklich jedes Bit überall überwacht um Fehler soweit es irgendwie möglich ist, ausschließen zu können. Deswegen gibt es diese Dinger noch und da sie nicht aussterben, vermute ich das selbst CPUs wie der Itanium dieses Sicherheitsniveau noch nicht erreicht haben.

strex schrieb:
Das kann man unendlich treiben und trotzdem nicht komplett absichern.
Das ist richtig, das ist aber wie bei Backups, ganz ohne ist ganz schlecht, eines ist schon viel, viel besser, ein zweites noch besser und noch eines im Tresor der Bank noch besser, noch eines im Tresor einer Bank in einer anderen Stadt bringt noch mehr Sicherheit, etc. pp. aber wenn ein Komet einschlägt.....

miac schrieb:
Microserver sind auch eher was für's Business.
Dafür sind sie konzipiert, aber die Preise sind verlockend und die HW ist sehr hochwertig, weshalb sie auch als Heimserver und Selbstbau-NAS sehr beliebt sind, gerade bei Leuten die sich Sorgen um ihre Daten machen.
miac schrieb:
Der Stromverbrauch rechnet sich nur durch ständige Benutzung.
Die neuesten sind auch sparsam und bis man den Mehrpreis eines guten 4 Bay NAS gegenüber z.B. den 205€ eines Microserver Gen 8 durch den Mehrverbrauch über die Stromrechnung bezahlt hat, vergehen schon einige Jahr. Rechnet man einen Stick für das OS drauf, ist der gute 200€ günstiger als diese 2-Bay NAS und wenn er 10W mehr im Idle nimmt, sind das keine 90kWh pro Jahr, also keine 30€, der kann also 7 Jahre laufen bis er den Unterschied aufgeholt hat.
strex schrieb:
Auch ECC oder Advanced ECC gibt keinen 100% Schutz. Also kann man das auch nicht als 100% sichere Lösung verkaufen wie Holt immer meint.
Hast Du meine Beiträge überhaupt gelesen? Das solltest Du aber tun, bevor Du mir was unterstellst! Wo habe ich das denn behauptet? Vielmehr habe ich auch noch einmal im meinem letzten Beitrag vor Deinen klar geschrieben:
Holt schrieb:
Nochmal: Es gibt kein Schwarz - Weiß bei dem Thema, also absolute Unsicherheit oder absolute Sicherheit, sondern mehr oder weniger Sicherheit und für mehr Sicherheit muss man mehr Aufwand treiben und je weiter man die Fehlerwahrscheinlichkeit senken will, umso größer wird der Aufwand.
Das findest Du so auch in meinen anderen Beträgen wieder. Leute zu unterstellen etwas gesagt zu haben was sie nicht gesagt haben um das dann zu widerlegen und sie damit lächerlich dastehen zu lassen, ist typisches Trollverhalten.

Für einen Troll hatte ich Dich aber eigentlich nicht gehalten, denn Dein Beitrag weiter oben zeigt eigentlich klar, dass Du einfach nur vom Thema keine Ahnung hast, dies aber leider selbst nicht einsiehst, also ein klarer Fall von mehr Meinung als Ahnung bist.
strex schrieb:
Ach Holt nicht vergessen, auch Synology hat Systeme mit ECC in Portfolio: Etwa DS3612xs oder DS3611xs.
Habe ich je das Gegenteil behauptet? Außerdem werden sie bestimmten Kunden sonst auch gar nichts verkaufen können, da es ja auch in der IT noch echte Profis gibt die wissen worauf es ankommt und deren Daten wirklich wichtig sind. Es geht aber hier um das getestete DS716+ und das hat eben kein ECC RAM.
 
Zuletzt bearbeitet:
Es gibt einen Fachbegriff bei uns für Leute, die mit beiden Händen in den Hosentaschen breitbeinig zur Tür hereingewalzt kommen und einem die Welt und den Job erklären wollen: Azubi. Bei den meisten gibt sich das nach einigen Tagen. Die anderen ... müssen um ihre Rente bangen.

ECC ist das Äquivalent zum Christophorus-Bildchen auf dem Armaturenbrett. Die einen vertrauen darauf. Andere schnallen sich an, bevor sie losfahren. Nun, Glaube versetzt bekanntlich Berge, und immerhin ist bald Weihnachten.

In diesem Sinne: Allseits ein schönes Wochenende! :)
 
Moranaga schrieb:
ECC ist das Äquivalent zum Christophorus-Bildchen auf dem Armaturenbrett.
Das ist also Dein Beitrag zum dümmsten Spruch des Jahres? Der hat echte Siegchancen, Du bist aber hoffentlich im IT Bereich nicht einmal Praktikant oder darfst dort putzen, das wäre sonst schlimm für den Laden.
 
Manchmal fragt man sich schon... Moranga mit seinen 83 Beiträgen ist sicher voll der Checker daheim in seiner Hacker-Bude.
 
Zumal es eben gerade umgekehrt ist und man ohne ECC das Christophorus-Bildchen auf dem Rechner braucht und darauf vertrauen muss das nichts passiert. Es bekommt ja auch keiner mit, dass eben gerade jetzt aus dem RAM gerade etwas anderes ausgelesen als dort hingeschrieben wurde, weil eben ein Bit gekippt ist oder zwei. Mit ECC RAM merkt der Memorycontroller das sofort und kann den Fehler entweder korrigieren oder löst andernfalls den Alarm aus, auf den das OS reagieren muss. Ohne ECC passiert aber erst einmal gar nichts und je nachdem was das nun für Daten waren die dort falsch ausgelesen wurden, merkt man es allenfalls an den Folgen, wie einem Programmabsturz oder einen BSOD oder eben auch einer korrupten Datei.

Es steht eben nie dabei, dass es ein RAM Fehler war, also kommen dann Reaktionen wie, wieder ein Bug bei dem Schrottprogramm, Scheiß Windows aber auch mal wieder oder die HDDs taugen auch nichts mehr und diesen neumodischen SSDs kann man eben doch nicht trauen. Von Microsoft gibt es eine Analyse zu Hardwarefehlern:
Wobei man letzteres vermutlich relativ sehen muss oder es dem Umstand geschuldet ist, dass Windows wie jedes moderne OS sonst unbelegtes RAM zum Cachen von Diskinhalten nutzt, was auch die Gefahr durch defekte RAMs betroffen zu sein erhöht, zumal wenn die Rechner wie es bei NAS nicht selten ist, dann lange laufen aber wenig zu tun haben und damit die Inhalte lange im RAM gecacht bleiben. Wenn übrigens 80% der Rechner die wegen eines Fehlers gecrasht sind wieder einen Fehler an der Adresse aufweisen, dann deutet das auf Hard-Errors im RAM hin, aber umgekehrt auch auf eine Quote von 20% Soft-Errors im RAM. Während man eben die Hard-Errors noch mit Testtools wie Memtest86(+) relativ gut erkennen kann, ist man gegen Soft-Errors nur mit ECC RAM überhaupt geschützt, zumindest im Rahmen der gewählten Lösung, wobei die bis hin zu RAM Mirroring gehen kann, wobei der Inhalt des RAM wie bei einem RAID 1 gespielt wird.

ECC spielt übrigens nicht nur um RAM des Rechner und hinter dem Sektor eine HDD oder der Page einer SSD eine Rolle, auch die Puffer in anderen HW-Komponenten wie den NICs werden bei Server-HW entsprechend gesichert. Hier ein Überblick über die Intel Modelle:

intel-ethernet-controller-ecc-png.531765


Den i350 findet man auffälligerweise nicht auf einem x99er Board, die haben meist von Intel den I218-V, aber auf vielen Xeon Server Boards mit dem gleichen Sockel. Für Heimanwender ist das ECC über die Puffer des NIC nicht so wichtig, dann wird eben die Übertragung wiederholt, die höheren Protokollebenen haben ja auch eigenen Prüfsummen, oder die Verbindung geht halt mal verloren, aber für Server ist das schon ein Problem. Da darf dann der Netzwerkchip Chip auch mal 20,32USD statt nur die 1,72USD für den 218-V kosten.

Intel-Ethernet-Controller-ECC.png
 
Zuletzt bearbeitet:
Super Test, vielen Dank CB!

Hätte ich das Geld, würde ich mir die Spielerei gönnen und sofort von meiner DS713+ upgraden (für Privatgebrauch) :-D
 
zivilist schrieb:
Worin unterscheidet sich das Journal mit Prüfsummenunterstützung in EXT4 (https://de.m.wikipedia.org/wiki/Ext4) von dem Prüfsummenfeature in BTRFS?
Lies halt mal die Seite dazu auf kernel.org, aber soweit ich das sehe, werden damit sowieso nur die Metadaten von ext4 geschützt, während btfs auch die Userdaten mit Prüfsummen versieht:
Bzgl. btrfs und wie gut es sowieso die Metadaten schützt, bin ich aber kein Fachmann und kann auch nicht sagen wo jetzt der Unterschied von "integrity checker for metadata" zur der checksum verification, die ja wohl auch für die Metadaten verwendet werden dürfte, nun genau ist.

Korrupte Metadaten sind natürlich noch fataler als wenn einzelne Dateien korrupt werden, da man damit schnell das ganze Filesystem unbrauchbar macht und es nutzt dann auch nichts mehr das die Daten der Dateien selbst nicht irgendwo korrekt liegen, wenn an diese nicht mehr zusammenpuzzeln kann, weil die Information was wo liegt falsch oder verloren ist.
 
Zuletzt bearbeitet:
Ja ich bezog mich auch nicht auf genau das Modell. Ich wollte damit nur aufzeigen wie alt Gigabit schon ist ;)
 
Ja es wird Zeit das sich schnellere Standards auch für Heimanwender etablieren. Immerhin kommt 10Gbit Ethernet nun schon bei einigen Boards für die S.1151 Skylake E3 Xeons, was es bisher nur bei Boards für die großen E5 Xeon gab und auch die Xeon-D haben 10Gbit Ethernet, während deren Vorgänger Atom C25xx nur diese 2.5Gbit hatten, die sich wohl nicht mehr durchsetzen werden.
 
@ Holt:
Ich sehe das mit dem ECC-RAM ähnlich, auf Server-Seite ist es wichtig, die richtigen Daten aus dem RAM auszulesen. Man hat ja dieses Jahr auch mit dem Rowhammer-Angriff gesehen, dass dieses Thema auch sicherheitsrelevant sein kann.

Auf Client-Seite sind Geräte mit ECC-RAM aber quasi kaum anzutreffen, da die klassischen Desktop-Prozessoren (Intel iX-Serie) dies gar nicht unterstützt. Wie ist deine Meinung dazu? Sollte man bei Clients auch zunehmend auf Xeon mit ECC-RAM setzen? Gerade im Notebook-Bereich gibt es das bisher meines Wissens noch gar nicht, auch wenn z.B. Lenovo Modelle angekündigt hat.

Gruß und danke
websurfer83.
 
mensch183 schrieb:
Ich quote mich mal selbst. Vielleicht kanns doch jemand beantworten:

Also ich kann deine Frage leider nur teilweise beantworten:
Es gibt, zumindest für einige ARM-basierte NAS-Systeme von Synology, eine Portierung von Debian, die funktionieren sollte. Allerdings ist das meines Wissens eher als experimentell anzusehen. Ein paar Infos gibt es auf folgender Wiki-Seite: http://www.synology-wiki.de/index.php/Debian_auf_der_DiskStation

Ob es auch auf x86-basierten NAS-Systemen möglich ist, alternative Betriebssysteme aufzuspielen (in erster Linie wird es wohl um Linux-Distributionen gehen), kann ich leider nicht beantworten. Ich könnte mir aber vorstellen, dass es mit ein paar Eingriffen ebenfalls funktionieren könnte.
 
2-Platten -> Fail (nur Spiegelung oder Stipping möglich)
Kein ECC -> da lass ich meine Daten nicht in die Nähe
keine ZFS? -> Na ja, für Anfänger halt. Braucht man mehr Sicherheit -> ist das DS716+ nicht die erste Wahl.

Wenn ich mir was wünschen dürfte: 10 Platten/ECC RAM (mind. 16GB evtl erweiterbar), Solaris mit ZFS...
und jetzt kommts: Bitte ein vernünftiger Preis.
Ergänzung ()

@websurfer83
ECC können inzwischen viele Prozessoren, sogar die einfachen Celerons. Was das Problem ist, das die Chipsätze ECC nicht unterstützen.
 
Zuletzt bearbeitet:
websurfer83 schrieb:
Auf Client-Seite sind Geräte mit ECC-RAM aber quasi kaum anzutreffen
Bei Workstations gehört es eigentlich dazu, echte Workstations haben meist auch ECC RAM und einen Xeon verbaut.
websurfer83 schrieb:
da die klassischen Desktop-Prozessoren (Intel iX-Serie) dies gar nicht unterstützt.
Die 2 Kerner und damit auch der i3 unterstützen es schon, da Intel offenbar keine Lust hat auch noch eine ganze Palette an 2 Kern Xeon E3 anzubieten, aber der Chipsatz muss es halt auch unterstützen, also ein C2xx Chipsatz für Xeons sein.
websurfer83 schrieb:
Wie ist deine Meinung dazu?
Also ich fände es gut, wenn sich ECC generell durchsetzen würde, aber solange es auch ohne noch so gut geht, dass viele Leute gar nicht einmal auch nur glauben es gäbe überhaupt ein Problem, wird es sich nicht durchsetzen und weiterhin als Feature zur Abgrenzung der teureren Server- und Workstation-HW gegenüber den billigeren Desktops dienen. Der einzige Vorteil kein ECC einzusetzen ist der Preis und der spielt eben gerade bei Consumer HW die Hauptrolle, da wird auch alles verzichtet, was nicht unbedingt nötig ist um zumindest für die meisten User einen so weitgehend problemlosen Betrieb zu ermöglichen, dass sie sich nicht beschweren. Man sieht ja, dass bei Consumer HW nur überall dort eine Absicherung gegen Fehler vorhanden ist, wo diese zu häufig vorkommen, also bei Übertragungen, sei es über SATA, USB oder Ethernet und auf den Medien selbst, eben mit der ECC für die Daten auf dem Medium bei HDDs und SSDs.
websurfer83 schrieb:
Sollte man bei Clients auch zunehmend auf Xeon mit ECC-RAM setzen?
Das muss jeder selbst entscheiden. Ich hatte gerade Probleme mit dem RAM auf meinem i7, da saß der Kühler auf einer Seite lose, es gab einen Absturz, Dr.Debug meldete 55 (RAM Fehler), nach dem Öffnen bootet er wieder und Memtest86+ meldete massiv Fehler. Nach dem Festziehen aller Schrauben des Kühlers war wieder alles in Ordnung und auch Memtest86+ hat keine Fehler mehr gefunden. Leider hat auch mein altes Notebook einen RAM Fehler, der war nachdem ich die RAM eingebaut hatte noch nicht da, aber da scheint wirklich einer der beiden Riegel einen Defekt zu haben, die können eben auch erst nach einiger Zeit auftreten.

Für mich habe ich die Entscheidung gegen den Xeon und für den i7-4790k schon bereut, auch ich wollte das ASRock Z97 Extreme 6 wegen dessen Ultra-M.2 Slot mit der PCIe 3.0 x4 Anbindung und damit wäre ECC RAM sowieso nicht möglich und Xeon Broads mit dem Slots gab es als ich das Upgrade vor mehr als einem Jahr gemacht habe, ja noch nicht. Aber künftig kaufe ich mir keine HW ohne ECC RAM Unterstützung mehr, da es zumindest nach meinem Gefühl heute mehr Ärger als früher damit gibt, was vielleicht mit den schon sehr klein gewordenen Fertigungsstrukturen von RAM zusammenhängen könnte, auch wenn die Studie von Google damals keine solche Entwicklung von mehr Fehlern bei größeren RAM Riegeln feststellen konnte, aber damals waren die Fertigungsstrukturen allesamt noch vergleichsweise groß und beim NAND sieht man nun ja auch erst bei Sub 20nm wie sehr man an die Grenze gekommen ist.
websurfer83 schrieb:
Gerade im Notebook-Bereich gibt es das bisher meines Wissens noch gar nicht, auch wenn z.B. Lenovo Modelle angekündigt hat.
Naja, die Xeon E3-15xxM für den mobilen Einsatz sind ja auch noch ganz neu und bleiben den High-End Modellen vorbehalten, die als mobile Workstations verwendet werden. Aber wie Du siehst nicht nur von Lenovo, auch von MSI und HP.

mensch183 schrieb:
Ich quote mich mal selbst. Vielleicht kanns doch jemand beantworten:
Wozu willst Du erst viel Geld für ein fertiges NAS statt etwa einem HP Microserver ausgeben und dann doch beim OS rumbasteln? Dann kaufen besser gleich Standard x86er HW, da hast Du alle Freiheiten und bekommst eben auch viel mehr fürs Geld, weil sich bei den NAS natürlich immer auch der Aufwand für Entwicklung und Support des OS im Preis niederschlägt.

the_pi_man schrieb:
keine ZFS? -> Na ja, für Anfänger halt.
Erstens ist btrfs bei den Features die für Sicherheit sorgen auch nicht schlecht, ob besser oder schlechter kann ich nicht beurteilen weil ich dafür beide Filesysteme nicht gut genug kenne und zweitens ist das mit den Prüfsummen im FS meiner Meinung nach auch nicht so nötig wie es oft dargestellt wird, zumindest wenn man wirklich gute HW verwendet und nicht dann doch nur Consumer-Grade-HW. Ich kenne sehr Jahrzehnten Server die teils weit über die vorgesehenen 5 Jahre im Einsatz waren, in kritischen Unternehmenseinsätzen mit Datenbanken mit vielen TB an Daten und nie Ärger mit Datenkorruption hatten, obwohl keine besonders abgesicherten Filesystem zum Einsatz gekommen sind. Dafür war es vernünftige Server-HW mit prof. Storage mit SCSI/SAS/FC Platten meist im RAID 5 (teils mit über 20 HDDs in einem RAID 5, was ich so nicht konfiguriert hätte, aber...), selbstverständlich mit ECC RAM in den Servern, USV, Klimatisierung und allem was zu einem Rechenzentrum gehört. Da fiel mal eine Platte aus, die Hot-Swap hat übernommen, die defekte Platte wurde ersetzt und Scrubbing lief auch immer wenn das Storage mal wenig zu tun hatten.

Diese Enterprise HW hat ja auch praktisch keine Lücken mehr, wo ein Bit unbemerkt kippen kann, anderes als bei Consumer-HW bei der nur größte Fehlerquellen abgesichert werden, also die so massiv stören würden, dass es selbst den normale Heimanwender stören würde. Consumer HW muss billig sein und meistens irgendwie funktionieren, das genügt, denn der Anspruch auf Perfektion ist bei den meisten sehr gering, wie auch diese Diskussion zeigt. Mal ein Absturz, ein falscher Ton aus dem Lautsprecher oder ein paar veränderte Frames im Video, keine komische Anzeigen einer Internetseite, sowas zu vermeiden rechtfertigt die Mehrkosten für einen besseren Schutz vor Datenkorruption eben nur für ganz wenige Heimanwender. Das sind dann meist Leute die eben auch beruflich damit zu tun haben und die Zusammenhänge kennen oder die gebrannten Kinder, nur sollte man denen nicht Pseudo-Sicherheit verkaufen bei der man dann die Grundlagen vergisst und Dinge verspricht, die bestenfalls durch Zufall eintreten.
 
Holt schrieb:
Man sieht ja, dass bei Consumer HW nur überall dort eine Absicherung gegen Fehler vorhanden ist, wo diese zu häufig vorkommen, also bei Übertragungen, sei es über SATA, USB oder Ethernet und auf den Medien selbst, eben mit der ECC für die Daten auf dem Medium bei HDDs und SSDs.

Zumindest USB 2.0 halte ich nicht für vertrauenswürdig. Ich hatte schon mindestens zwei Kombinationen, die bei h2testw zufällige Übertragungsfehler produzierten, ohne dass Windows sich irgendwie zu Wort gemeldet hätte. Die beteiligten Geräte funktionierten in anderen Kombinationen einwandfrei, Stromversorgung und Masseschleife konnten als Ursache ausgeschlossen werden (separates HDD-Netzteil und Laptop im Akkubetrieb).

Wichtige Backups sichere und kontrolliere ich mit md5summer, und zwar alle Kopien. Nur so kann ich einigermaßen sicher sein, alle möglichen Fehlerquellen zu erwischen.
 
Zurück
Oben