fuyuhasugu schrieb:
Darum ist Dir wahrscheinlich auch der Hinweis von Holt entgangen, dass ein solches Programm nicht innerhalb eines Betriebssystems laufen darf, welches schon seine eigene Speicherverwaltung mitbringt. (was eigentlich auf jedes BS zutrifft). Theoretisch kann man natürlich die Speicherverwaltung des BS selbst komplett umschreiben (frag doch mal bei MS), andererseits wäre eine solche Herangehensweise sinnlos, weil man nie wüsste wo der Fehler aufgetreten ist: auf dem Transportweg von der Festplatte zum RAM, im RAM, beim Transport vom RAM zur CPU, der in der CPU, ... Wie Du siehst, gibt es der Möglichkeiten viele. Deshalb ist der einzig sinnvolle Weg die separate Absicherung der einzelnen Teilschritte. Und das solllte tunlichst HW-basiert erfolgen, da die von Dir vorgeschlagene SW-Variante um ein vielfaches langsamer wäre.
danke, nun versteh ichs tatsächlich besser! aber ich merke auch, dass ich mit wohl etwas missverständlich ausgedrückt habe, denn als eine art absicherung - so wie es der ecc z.t. ist - wollte ich dieses programm gar nicht verstanden wissen; es sollte lediglich als testprogramm dienen zum zu überprüfen, wie viel fehler der RAM produziert. dass dies nicht so einfach geht, hast du hier schön verdeutlicht, aber genau dies kommt mir sogar entgegen. nun würde ein solches programm nämlich nicht nur den RAM selbst testen, sondern auch die fehler "auf dem Transportweg von der Festplatte zum RAM, im RAM, beim Transport vom RAM zur CPU, der in der CPU, ..." wie du sagst. toll! damit wird die prüfung des systems sogar erweitert, auch wenn allein durch das testprogramm die genaue lokalisierung der fehler nicht möglich ist...
also wenn ich ein solches testprogramm hätte, dann würde ich es nicht nur für die bestimmung der "güte" meines systems verwenden, sondern damit auch beobachten, wie mein system altert: wie viele fehler gabs nach dem zusammenbau, wie viele nach einem jahr, nach 1,5 jahren...
und ich denke, dass noch einige andere ein solches testprogramm nutzen würden. gerade wer sich gut auskennt, sein system hegt und pflegt, der wünscht sich doch, dass alles reibungslos funktioniert, für den dürfte das interessant sein. gibt ja genug leute, die wegen ihrer "gaming-hardware" nicht auf ecc setzen wollen.
(was bedeutet eigentlich die abkürzung "i.a." die du so oft verwendest?)
Holt schrieb:
Das ist Teil des Algorithmus mit dem diese Prüfsummen gebildet und vergleichen werden, dann natürlich besteht für die Prüfsumme die gleiche Fehlergefahr wie für die Daten selbst, was bei HDDs oder SSDs auch nicht anderes ist, von daher braucht man auch keine extra Kontrolle für die Kontrolleure. Ich hatte doch extra Links zu den verwendeten Techniken gesetzt, da solltest Du mal anfangen Dich einzulesen, wenn Dich das Thema interessiert.
ich hab da mal reingeklickt, aber ehrlich gesagt ist das too much für mich. da sind dann wieder einige fachbegriffe drin und um die zu verstehen... damit ich dann irgenwann den ganzen text kapiere... ich weiß nicht... das würde für mich dann vlt doch schon den rahmen sprengen.
es hört sich (für mich zumindest) unlogisch an, wenn es einerseits klar ist, dass die prüfsumme ebenfalls fehlerhaft sein kann (und hier und da auch wahrscheinlich falsch sein wird), andererseits eine weitere instanz zur "kontrolle der kontrolleure" angeblich nicht gebraucht wird, obwohl sie doch die fehlerquote weiterhin minimieren könnte.
Holt schrieb:
Es geht nicht über weitere Instanzen, aber wie gesagt gibt es Abstufungen von der einfachen ECC über Advanced ECC und am Ende landet man beim Mainframe, wenn man die Fehlerwahrscheinlichkeit weitest möglich reduzieren möchte, weshalb IBM die Dinger auch immer noch baut und verkauft. Die sind eben wirklich maximal gegen alle möglichen Arten von Fehlern abgesichert, bei keiner anderen HW geht das Bestreben um Zuverlässigkeit der Ergebnisse so weit.
wenn man die fehlerwahrscheinlichkeit nur reduzieren und nicht völlig ausschließen kann, dann dürfte es auch keine "maximale absicherung" geben, wenn auch hier gilt:
Holt schrieb:
die Frage ist eben immer, welches Aufwand man treiben möchte oder kann
oder anders formuliert: es ist also eine kosten-nutzen-rechnung. ab wann übersteigen die kosten zur fehlerminimierung den entstehenden nutzen.
Holt schrieb:
holt Jeder oder sagen wir mal 8 von 9 erkannte Singlebitfehler in einem System mit ECC RAM, wären in einem ohne ECC RAM eben ein RAM Fehler von dem man allenfalls aufgrund der Folgen gewusst hätte. Aufgrund der Adresse wo der aufgetreten ist auf die möglichen Folgen zu schließen, geht sowieso nicht, weil man nie weiß was die Speicherverwaltung des OS wann wo genau ablegt.
ich bezweilfel nicht, dass du recht hast, aber das hört sich ja grausam an. die speicherverwaltung des OS muss doch wissen, wo was genau abgelegt wurde, denn sie muss es doch wieder finden? und wenn die speicherverwaltung des OS dies wissen muss, dann sollte es doch möglich sein, dies abzufragen
Holt schrieb:
Man würde damit erfahren, wie viel häufiger die Fehler RAM ohne ECC als bei RAM mit ECC auftreten, aber wie groß müsste die Stichprobe sein, damit man die Ergebnisse wirklich als relevant ansehen kann? Und welche Riegel willst Du mit welchen vergleichen? Bei DDR4 gibt es im Preisvergleich Unbuffered ECC RAM Riegel nur von 6 Anbietern, neben den RAM Herstellern nur von Kingston und Transcend und OC RAM sowieso nicht. Was sagt also ein Ergebnis aus, wenn man welche der anderen RAMs ohne ECC mit denen vergleicht? Und wie viele Rechner willst Du wie lange damit beschäftigen?
ich kann dir auf diese fragen nicht vernünftig beantworten, weil ich, wie gesagt, zu wenig ahnung habe. hier bleibt mir vorerst lediglich fest zustellen, dass diese fragen wirklich gut sind und ferner darauf zu verweisen, dass ein zusätliches neues tool wie dieses, grundsätzlich nützlich sein kann. vlt kann niemand diese fragen genau beantworten, bevor ein solches tool zur verfügung steht und damit experimentiert wurde. womöglich fördert erst der praktische einsatz antworten zu tage, auf die man durch vorheriges erwägen nicht gekommen ist. ansonsten wäre dieses tool vorerst mal ein nettes spielzeug, so wie ich es in meiner antwort an fuyuhasugu geschildert habe.
Holt schrieb:
Nicht unbedingt, zumindest nicht aus Statistiken über Endprodukte, da die Entwicklung von Gegenmaßnehmen die physikalischen Verschlechterungen der zugrundeliegenden Komponenten auch überkompensieren kann. Nimm das Beispiel der CRC über den Übertragungen wie jetzt bei DD4 im Vergleich zu den Vorgängern wie DDR3, damit trotz höher Übertragungsfrequenzen Übertragungsfehler hoffentlich komplett ausgeschlossen und am Ende wird man vermutlich weniger Fehler (soft-errors) haben, weil ein Teil von denen bei DDR3 eben auch Übertragungsfehler sein können. Oder nimm SSDs, die technischen Eigenschaften der zugrundeliegenden NANDs wurde mit jedem Shrink schlechter, die Latenzen höher und die Zyklenfestigkeit geringer, aber besseren Controller haben dies mehr als ausgeglichen und die SSDs wurden schneller und haltbarer.
toll erklärt! so kann man also die mögichkeiten der technik ausreizen und entstehende probleme werden durch ein spezielles modul bearbeitet. praktische tests dazu, ob die fehleranfälligkeit nun insgesamt gefallen oder gestiegen ist, gibt es jedoch nicht?
Holt schrieb:
Die Kühlkörper sind vor allem Optik und solle nicht selten die Beschriftung der Chips verbergen und eben Künden über die Optik anlocken. Außerdem hängt die Wärmeentwicklung immer auch von den Spannungen und Frequenzen ab.
für die RAM, die innerhalb der JEDEC-specs laufen, mag das wohl gelten. vermutlich ist das auch der grund, warum sie keine kühlkörper haben. Aber wie du schon selbst sagst, haben spannung und frequenzen eben einen einfluss auf die wärmeentwicklung und wenn ich noch deine info über die beschleunigte alterung bei hitze hinzunehme, dann haben wir ein gutes motiv für die kühlkörper von OC-RAM - wie auch immer man sie vom äußerlichen erscheinungsbild bewerten mag
xxMuahdibxx schrieb:
gibt es nur indirekt indem die Befehlssätze genannt werden ... die Sprungvorhersagen und wie die Caches funktionieren ist wieder eher geheimniss.
und dann bleibt uns als index nur noch die verschiedenen benchmarks. wobei die ja auch nicht so schlecht sind, wie sie teilweise gemacht werden. gut wenn jmd. weiß, was für ihn wichtig ist und welcher bench ihm da mehr erzählen kann.
xxMuahdibxx schrieb:
Aber wirklich mehr Leistung rausholen geht aktuell über Kerne.
was ich sehr interessant finde, da mehr kerne anscheinend sogar dann ein besseres ergebnis bringen, wenn sie nicht voll ausgelastet werden, z.b. in uhd-gaming. sollten wir demnächst vlt. mal nen entsprechenden thread aufmachen
xxMuahdibxx schrieb:
beim RAM werden wir auch an Grenzen stoßen dann geht halt wieder tripple oder quadchannel oder mehr.
also wie mit den prozessorkernen. wenn die leistung einer einheit kaum noch zu steigern ist, dann setzt man "einfach" mehrere einheiten gleichzeitig ein.
Holt schrieb:
In der Marktwirtschaft ist es eben die Pflicht eines Kunden sich selbst zu informieren
hm, "pflicht" ist vlt ein bisschen viel gesagt, aber ich meine auch, dass jeder, der möglichst selbstbestimmt und bewusst entscheiden möchte, seinen teil zur informationsbeschaffung beitragen muss und zwar ganz gleich, in welchem wirtschaftssystem.
Holt schrieb:
Man muss es nur tun und richtig, also z.B. nicht nur eine Quelle wählen
mir scheint es so zu sein, dass sich viele nur das medium zur informierung wählen, in welchem sie sich in ihrer meinung bestätigt fühlen. doch gerade unterschiedliche, womöglich einander widersprechende quellen zu konsumieren, könnte eine spannung schaffen, in welchem das selbständige denken angeschubst wird

hinzu kommt selbstverständlich die qualität der quellen. oftmals bieten bloße artikel nicht genug tiefgang, weswegen man sich zum glück in foren wie diesem austauschen kann.
wie sagte neil postman schon 1985: "we are overnewsed, but underinformed"
schlauer satz, kann man lange drüber nachdenken.
Holt schrieb:
aber mir scheint sowieso, dass die Leute heutzutage viel schlechter informiert sind, obwohl ihnen so viele Informationen zur Verfügung stehen würden.
vlt. nicht "obwohl", sondern sogar "weil ihnen so viele informationen zur verfügung stehen". die menschen sind teils schlichtweg überfordert durch diese flut an informationen und lassens dann gleich bleben
jeden tag kommt mehr wissen dazu, als man als einzelner mensch bewältigen könnte. selbst wenn wir wissbegierig sind und uns die infos nur so reinschaufeln, kommen wir nicht hinterher. daher brauchen wir in diesem bereich - vlt. mehr denn je - prinzipien, an denen wir uns orientieren können und um sie zu finden, müssten wir uns mit uns selbst und unserer lage beschäftigen...