RAM vom Hersteller der Wafer: warum sind sie besser?

smooth el 4a schrieb:
zum einen kann ich ein solches programm nicht selbst schreiben, dazu fehlen mir einfach die kenntnisse.
Darum ist Dir wahrscheinlich auch der Hinweis von Holt entgangen, dass ein solches Programm nicht innerhalb eines Betriebssystems laufen darf, welches schon seine eigene Speicherverwaltung mitbringt. (was eigentlich auf jedes BS zutrifft). Theoretisch kann man natürlich die Speicherverwaltung des BS selbst komplett umschreiben (frag doch mal bei MS), andererseits wäre eine solche Herangehensweise sinnlos, weil man nie wüsste wo der Fehler aufgetreten ist: auf dem Transportweg von der Festplatte zum RAM, im RAM, beim Transport vom RAM zur CPU, der in der CPU, ... Wie Du siehst, gibt es der Möglichkeiten viele. Deshalb ist der einzig sinnvolle Weg die separate Absicherung der einzelnen Teilschritte. Und das solllte tunlichst HW-basiert erfolgen, da die von Dir vorgeschlagene SW-Variante um ein vielfaches langsamer wäre.


smooth el 4a schrieb:
wenn die verschlechterung physikalisch eine tatsache sein sollte, wird sich dies auch statistisch erfassen lassen. momentan haben wir aber weder eine widerlegung noch eine bestätigung dessen.
Es wurden im Laufe der HW-Weiterentwicklung immer wieder Maßnahmen zur Sicherstellung der Datenintegrität ergriffen. Deshalb haben z.B. Festplatten heutzutage trotz millionenfacher Kapazität auch auch keine millionenfache Ausfallwahrscheinlichkeit. Wenn eine statistisch signifikante Fehlerwahrscheinlichkeit auftritt, heißt das nur, das weitere Maßnahmen notwendig sind. I.a. tun die Ingenieure ihre Arbeit aber schon vor Veröffentlichung des Produktes ausreichend gewissenhaft. Kritische physikalische Parameter sind Frequenzen und Strukturgröße, während die Transistorzahl (Kapazität des RAMs) eine rein statistisch relevante Größe ist.
 
Zuletzt bearbeitet:
darkcrawler schrieb:
Erzähl kein BS, kannst gern nach dramexchange UTT vs testet suchen

UTT ist "evtl noch verwendbarer Abfall" und auch ETT kommt an Originalware (gebranded -> Major IC) nicht ran.
Ich habe jahrelang versucht das Maximum aus ETT (und gezwungenermaßen leider auch auch aus UTT) rauszuholen, aber an die Quali von Original ICs kommt man einfach nicht ran. Und mit Qualität meine ich Ausfallrate beim FAE und/oder beim Kunden aus 1000 Modulen.

Aber der Einwurf ist insofern interessant, dass man natürlich nicht weiß welchen Grade der Modulassemblierer einkauft und verbaut. Aber nicht zu wissen welchen Grade verbaut wird ist doch auch schon wieder ein ein Grund direkt zum Original zu greifen bevor man die Katze im Sack kauft, oder?

Bei der bisherigen Diskussion ging es aber (mMn) darum ob ein Samsung Modul besser ist als ein Major on 3rd mit Samsung Chips. Und meine Erfahrung sagt auch hier ganz klar: Ja, Original ist besser als Major on 3rd. Über die breite Masse hat das Originalmodul definitiv ein besseres Qualitätsniveau als ein Major on 3rd.
Das heißt nicht dass ein 3rd Modul zwangsläufig schlechter sein muss. Lenovo hat beispielsweise lange 3rd Module von Ramaxel verbaut, Acer sogar ETT(?) basierte Ware von takeMS. Ist halt oftmals auch eine Frage des Geldes.

Beim Endkunden ist 1-2€ Unterschied halt ein Witz. Wenn der OEM aber 1€ Unterschied im EK hat sind das bei einer Bestellung ruckzuck mal mehere zig Tausend Euro. Aber die Zeiten in denen man RAM viel günstiger anbieten kann als ein Originalmodul sind spätestens seit der Crucial Preisoffensive vorbei.

fuyuhasugu schrieb:
Insbesondere wichtig, wenn man seine Chips auf dem Spotmarkt direkt vom Hersteller kauft und dann selbst auf ein PCB lötet. :p
DIREKT von Hersteller und Spotmarkt schließt sich aber quasi aus.
 
smooth el 4a schrieb:
grundstätzlich hast du recht, wenn man die steigerung der IPC außer acht lässt. deswegen sehe ich die bloße nennung des taktes als problematisch an. hilfreicher wäre ein index oder eine art wert, welcher die IPC mit einberechnet.

gibt es nur indirekt indem die Befehlssätze genannt werden ... die Sprungvorhersagen und wie die Caches funktionieren ist wieder eher geheimniss.

Aber wirklich mehr Leistung rausholen geht aktuell über Kerne.

beim RAM werden wir auch an Grenzen stoßen dann geht halt wieder tripple oder quadchannel oder mehr.

Problem ist ja am Ende das immer noch Speicherzellen drauf sitzen die einfach zu lahm sind und man deswegen so viele Timings hat das sie Ansprechbar werden.

CAS , RAS u.s.w wandern ja aktuell in den 10-20er Bereich.

Wenn man schaut kommt man nicht unter 9 ns beim Zugriff ...
https://de.wikipedia.org/wiki/DDR-SDRAM#Latenzzeiten_im_Vergleich

da wäre es mal super wenn sich da was tut ..
 
smooth el 4a schrieb:
wenn die verschlechterung physikalisch eine tatsache sein sollte, wird sich dies auch statistisch erfassen lassen.
Nicht unbedingt, zumindest nicht aus Statistiken über Endprodukte, da die Entwicklung von Gegenmaßnehmen die physikalischen Verschlechterungen der zugrundeliegenden Komponenten auch überkompensieren kann. Nimm das Beispiel der CRC über den Übertragungen wie jetzt bei DD4 im Vergleich zu den Vorgängern wie DDR3, damit trotz höher Übertragungsfrequenzen Übertragungsfehler hoffentlich komplett ausgeschlossen und am Ende wird man vermutlich weniger Fehler (soft-errors) haben, weil ein Teil von denen bei DDR3 eben auch Übertragungsfehler sein können. Oder nimm SSDs, die technischen Eigenschaften der zugrundeliegenden NANDs wurde mit jedem Shrink schlechter, die Latenzen höher und die Zyklenfestigkeit geringer, aber besseren Controller haben dies mehr als ausgeglichen und die SSDs wurden schneller und haltbarer.
smooth el 4a schrieb:
ob alt oder aktuell spielt keine rolle, wenn man für die features des aktuellen systems keinen bedarf hat und im eigenen anwendungsfall die "schnellere" CPU dann doch langsamer ist als die ältere, wie es z.b. im vergleich des 5775C mit dem 6700K der fall sein kann.
Der 5775C hat eben eDRAM als eine Art L4 Cache, was der 6700K nicht hat und dürfte damit aber eher weniger von schnellen RAMs profitieren als der 6700K. Trotzdem ist es immer die Frage, ob das Geld in möglichst schnelles RAM gut investiert ist oder ob man für dessen Aufpreis an anderer Stelle nicht mehr erreichen könnte und die lässt sich eben auch nicht pauschal beantworten.

smooth el 4a schrieb:
wenn man von informierten menschen ausgeht, kannst du nur recht haben! leider ist es jedoch so, dass sich viele OC-RAM kaufen, ohne dass ihnen bewusst ist, dass dieser außerhalb der spezifikationen liegt.
Wer sich nicht informiert, dem ist nicht zu helfen. In der Marktwirtschaft ist es eben die Pflicht eines Kunden sich selbst zu informieren und mit dem Internet hat man heute doch schnellen Zugriff auf eine solche Fülle von Informationen, dass jeder die Chance hat sich zu informieren. Man muss es nur tun und richtig, also z.B. nicht nur eine Quelle wählen, aber mir scheint sowieso, dass die Leute heutzutage viel schlechter informiert sind, obwohl ihnen so viele Informationen zur Verfügung stehen würden.

smooth el 4a schrieb:
das ist echt krass und hätt ich SO nicht erwartet! von daher eigentlich verwunderlich, dass der relaiv solide RAM der DRAM hersteller, der extra noch innerhalb der JEDEC-spezifikationen betreieben wird, keinen kühlkörper aufgeklebt hat.
Die Kühlkörper sind vor allem Optik und solle nicht selten die Beschriftung der Chips verbergen und eben Künden über die Optik anlocken. Außerdem hängt die Wärmeentwicklung immer auch von den Spannungen und Frequenzen ab.

smooth el 4a schrieb:
woher will man aber wissen, dass die bits, die der ecc nutzt, nicht selbst einen fehler haben? dann meldet ecc womöglich einen fehler, wo gar keiner ist ^^
damit kommt man wieder zum problem und der uralten frage: wer kontrolliert die kontrolleure?
Das ist Teil des Algorithmus mit dem diese Prüfsummen gebildet und vergleichen werden, dann natürlich besteht für die Prüfsumme die gleiche Fehlergefahr wie für die Daten selbst, was bei HDDs oder SSDs auch nicht anderes ist, von daher braucht man auch keine extra Kontrolle für die Kontrolleure. Ich hatte doch extra Links zu den verwendeten Techniken gesetzt, da solltest Du mal anfangen Dich einzulesen, wenn Dich das Thema interessiert.
smooth el 4a schrieb:
hier gibt es keine endgültige lösung, sondern nur die möglichkeit, möglichst viele weitere instanzen zu installieren, um die fehleranfälligkeit weiter zu minimieren - auch wenn man sie nie gänzlich ausschließen kann!
Es geht nicht über weitere Instanzen, aber wie gesagt gibt es Abstufungen von der einfachen ECC über Advanced ECC und am Ende landet man beim Mainframe, wenn man die Fehlerwahrscheinlichkeit weitest möglich reduzieren möchte, weshalb IBM die Dinger auch immer noch baut und verkauft. Die sind eben wirklich maximal gegen alle möglichen Arten von Fehlern abgesichert, bei keiner anderen HW geht das Bestreben um Zuverlässigkeit der Ergebnisse so weit.

Die Dinger kosten aber eben auch ein Vermögen und für Heimanwender wäre sowas nicht realistisch, die Frage ist eben immer, welches Aufwand man treiben möchte oder kann und welches Ergebnis man haben will. Ohne ECC RAM hat man nur die minimalste Zuverlässigkeit, nämlich das es meisten bei den meisten Usern läuft und wenn man ein Programm abstürzt oder eine Datei oder gar ein Filesystem korrupt ist, hat man eben Pech gehabt. Dann startet man das Programm neu, startet Windows erneut oder installiert eben Windows neu und das Archive sollte hoffentlich nicht wichtig gewesen sein. Passiert es zu oft, kommen die Leute meist von selbst drauf das was nicht stimmt, dann machen sie entweder einen gescheiten RAM Test und finden dort Fehler oder sie tauschen blind die Komponenten durch und irgendwann auch das RAM und dann geht es wieder normal.

Wem das nicht reicht, der macht eben schon mit selbst mit einfachem ECC RAM und der passenden Plattform einen großen Sprung nach vorne und vermeidet zumindest die Singlebit Fehler und kann u.U. auch im System auslesen wie viele es gab, sollte aber wenigstens ermitteln könne, wie viele unkorrigierbare Multibitfehler aufgetreten sind und sollte dann eben auch reagieren und ggf. die RAMs prüfen und tauschen, wenn es viele waren.
smooth el 4a schrieb:
einen prinzipiellen bedarf eines solchen programms fest zu stellen und damit ergibt sich, zum anderen, der nutzen bzw. sinn eines solchen programms, der in der überprüfbarkeit der fehleranfälligkeit des RAMs begründet liegt.
Wenn Du da einen Nutzen siehst, bitte, aber ich sehe keinen. Einmal weil der Rechner ja nichts anderes tun kann als eben dieses Programm laufen zu lassen und auf RAM Fehler zu warten und zum anderen, weil jeder halbwegs gute Server eine Überwachung hat und diese auch über die von der ECC erkannten Fehler Auskunft gibt. Jeder oder sagen wir mal 8 von 9 erkannte Singlebitfehler in einem System mit ECC RAM, wären in einem ohne ECC RAM eben ein RAM Fehler von dem man allenfalls aufgrund der Folgen gewusst hätte. Aufgrund der Adresse wo der aufgetreten ist auf die möglichen Folgen zu schließen, geht sowieso nicht, weil man nie weiß was die Speicherverwaltung des OS wann wo genau ablegt.
smooth el 4a schrieb:
konkret: die bloße existenz von ecc bzw. die möglichkeit dessen nutzung, macht die überprüfbarkeit der fehleranfälligkeit von non-ecc ncht obsolet!
Man würde damit erfahren, wie viel häufiger die Fehler RAM ohne ECC als bei RAM mit ECC auftreten, aber wie groß müsste die Stichprobe sein, damit man die Ergebnisse wirklich als relevant ansehen kann? Und welche Riegel willst Du mit welchen vergleichen? Bei DDR4 gibt es im Preisvergleich Unbuffered ECC RAM Riegel nur von 6 Anbietern, neben den RAM Herstellern nur von Kingston und Transcend und OC RAM sowieso nicht. Was sagt also ein Ergebnis aus, wenn man welche der anderen RAMs ohne ECC mit denen vergleicht? Und wie viele Rechner willst Du wie lange damit beschäftigen?
smooth el 4a schrieb:
im gegenteil: wenn ich mit dem einwand im vorherigen diskussionspunkt recht habe ("wer kontrolliert die kontrolleure"), dann könnte ecc selbst von der verwendung eines solchen programms, als weitere instanz, profitieren.
S.o, die Kontrolleure kontrollieren sich selbst mit und wenn man jeden 9. Fehler bei ECC RAM rausrechnet, sollte man zum korrekten Ergebnis kommen wie viele Fehler es gegeben hätte, wenn das RAM ohne ECC genutzt worden wäre. Wie viel ein anderes RAM welches schon gleich gar kein ECC RAM ist gemacht hätte, sagt das natürlich nicht unbedingt aus, man weiß eben nicht, ob die Qualität der RAM Chips bei beiden gleich ist oder im ECC RAM auch noch die besseren Qualitäten verwendet werden oder umgekehrt die schlechtere, weil es ja sowieso vor Fehlern besser geschützt ist.

h00bi schrieb:
Aber nicht zu wissen welchen Grade verbaut wird ist doch auch schon wieder ein ein Grund direkt zum Original zu greifen bevor man die Katze im Sack kauft, oder?
Das sehe ich auch so.
h00bi schrieb:
Das heißt nicht dass ein 3rd Modul zwangsläufig schlechter sein muss. Lenovo hat beispielsweise lange 3rd Module von Ramaxel verbaut, Acer sogar ETT(?) basierte Ware von takeMS. Ist halt oftmals auch eine Frage des Geldes.
Thecus N5550 NAS Server mit Spectek RAM Chips auf einem Transcend Modul:

"The eight SDRAM chips themselves are from SpecTek, which is a division of Micron Technology. "


Spectek ist die Restrampe von Micron, aber hindert eben auch nicht jeden Hersteller solche RAMs in einem NAS mit gehobenem Anspruch und Preis zu verbauen: "The Thecus N5550 is aimed right at the typical small business owner or advanced home user"
h00bi schrieb:
DIREKT von Hersteller und Spotmarkt schließt sich aber quasi aus.
Wohl nicht nur quasi.
 
h00bi schrieb:
UTT ist "evtl noch verwendbarer Abfall" und auch ETT kommt an Originalware (gebranded -> Major IC) nicht ran.
dass man natürlich nicht weiß welchen Grade der Modulassemblierer einkauft und verbaut. Aber nicht zu wissen welchen Grade verbaut wird ist doch auch schon wieder ein ein Grund direkt zum Original zu greifen bevor man die Katze im Sack kauft, oder?
Weder "untested" noch "effectively tested" bedeutet notwendigerweise "Abfall", sondern genau das, was es sagt. Und Module-Hersteller, die selbst testen brauchen weder fertige Module vom Hersteller der Chips noch die extra Kosten für schon vollständig getestete Chips, auch wenn das vielleicht nicht auf alle bei Geizhals gelisteten Hersteller zutrifft. Wie Du richtig sagtest sind die Chips gibtes einen monetären Vorteil, und wenn der Modulhersteller sowieso testen muss reicht ihm eine statistische Aussage zur Zuverlässigkeit der eingekauften Chips. (Nein, 100% gibt es grundsätzlich nicht!).

DIREKT von Hersteller und Spotmarkt schließt sich aber quasi aus.
Klar, die Chips hat der Weihanchstmann gebastelt. Der Markt ist einfach der Platz, um an CHips ranzukommen "ohne" einen direkten Vertrag mit dem eigentlichen Hersteller. In der Frage ging es um die Hardware (Chips & Module), aber du sprichst hier von dem finanztechnischen und vertraglichen Rahmenbedingungen. Man kann es auch absichtlich falsch verstehen. (Ist man bei manchen Nutzern man aber schon gewohnt). :rolleyes:
 
Zuletzt bearbeitet:
Da schreibt er "DIREKT (vom Hersteller)" schon groß und es wird doch überlesen. Es ist klar, dass alle DRAMs aus den Fabs der paar DRAM Hersteller kommen, aber auf dem Spotmarkt dürften die Hersteller diese kaum anbieten, dort landen die über andere, die mehr eingekauft als gebraucht haben und die Überschüsse abgeben oder Qualitäten die sie nicht haben wollen, etc.
 
fuyuhasugu schrieb:
Darum ist Dir wahrscheinlich auch der Hinweis von Holt entgangen, dass ein solches Programm nicht innerhalb eines Betriebssystems laufen darf, welches schon seine eigene Speicherverwaltung mitbringt. (was eigentlich auf jedes BS zutrifft). Theoretisch kann man natürlich die Speicherverwaltung des BS selbst komplett umschreiben (frag doch mal bei MS), andererseits wäre eine solche Herangehensweise sinnlos, weil man nie wüsste wo der Fehler aufgetreten ist: auf dem Transportweg von der Festplatte zum RAM, im RAM, beim Transport vom RAM zur CPU, der in der CPU, ... Wie Du siehst, gibt es der Möglichkeiten viele. Deshalb ist der einzig sinnvolle Weg die separate Absicherung der einzelnen Teilschritte. Und das solllte tunlichst HW-basiert erfolgen, da die von Dir vorgeschlagene SW-Variante um ein vielfaches langsamer wäre.

danke, nun versteh ichs tatsächlich besser! aber ich merke auch, dass ich mit wohl etwas missverständlich ausgedrückt habe, denn als eine art absicherung - so wie es der ecc z.t. ist - wollte ich dieses programm gar nicht verstanden wissen; es sollte lediglich als testprogramm dienen zum zu überprüfen, wie viel fehler der RAM produziert. dass dies nicht so einfach geht, hast du hier schön verdeutlicht, aber genau dies kommt mir sogar entgegen. nun würde ein solches programm nämlich nicht nur den RAM selbst testen, sondern auch die fehler "auf dem Transportweg von der Festplatte zum RAM, im RAM, beim Transport vom RAM zur CPU, der in der CPU, ..." wie du sagst. toll! damit wird die prüfung des systems sogar erweitert, auch wenn allein durch das testprogramm die genaue lokalisierung der fehler nicht möglich ist...

also wenn ich ein solches testprogramm hätte, dann würde ich es nicht nur für die bestimmung der "güte" meines systems verwenden, sondern damit auch beobachten, wie mein system altert: wie viele fehler gabs nach dem zusammenbau, wie viele nach einem jahr, nach 1,5 jahren...

und ich denke, dass noch einige andere ein solches testprogramm nutzen würden. gerade wer sich gut auskennt, sein system hegt und pflegt, der wünscht sich doch, dass alles reibungslos funktioniert, für den dürfte das interessant sein. gibt ja genug leute, die wegen ihrer "gaming-hardware" nicht auf ecc setzen wollen.

(was bedeutet eigentlich die abkürzung "i.a." die du so oft verwendest?)


Holt schrieb:
Das ist Teil des Algorithmus mit dem diese Prüfsummen gebildet und vergleichen werden, dann natürlich besteht für die Prüfsumme die gleiche Fehlergefahr wie für die Daten selbst, was bei HDDs oder SSDs auch nicht anderes ist, von daher braucht man auch keine extra Kontrolle für die Kontrolleure. Ich hatte doch extra Links zu den verwendeten Techniken gesetzt, da solltest Du mal anfangen Dich einzulesen, wenn Dich das Thema interessiert.

ich hab da mal reingeklickt, aber ehrlich gesagt ist das too much für mich. da sind dann wieder einige fachbegriffe drin und um die zu verstehen... damit ich dann irgenwann den ganzen text kapiere... ich weiß nicht... das würde für mich dann vlt doch schon den rahmen sprengen.

es hört sich (für mich zumindest) unlogisch an, wenn es einerseits klar ist, dass die prüfsumme ebenfalls fehlerhaft sein kann (und hier und da auch wahrscheinlich falsch sein wird), andererseits eine weitere instanz zur "kontrolle der kontrolleure" angeblich nicht gebraucht wird, obwohl sie doch die fehlerquote weiterhin minimieren könnte.

Holt schrieb:
Es geht nicht über weitere Instanzen, aber wie gesagt gibt es Abstufungen von der einfachen ECC über Advanced ECC und am Ende landet man beim Mainframe, wenn man die Fehlerwahrscheinlichkeit weitest möglich reduzieren möchte, weshalb IBM die Dinger auch immer noch baut und verkauft. Die sind eben wirklich maximal gegen alle möglichen Arten von Fehlern abgesichert, bei keiner anderen HW geht das Bestreben um Zuverlässigkeit der Ergebnisse so weit.
wenn man die fehlerwahrscheinlichkeit nur reduzieren und nicht völlig ausschließen kann, dann dürfte es auch keine "maximale absicherung" geben, wenn auch hier gilt:

Holt schrieb:
die Frage ist eben immer, welches Aufwand man treiben möchte oder kann

oder anders formuliert: es ist also eine kosten-nutzen-rechnung. ab wann übersteigen die kosten zur fehlerminimierung den entstehenden nutzen.

Holt schrieb:
holt Jeder oder sagen wir mal 8 von 9 erkannte Singlebitfehler in einem System mit ECC RAM, wären in einem ohne ECC RAM eben ein RAM Fehler von dem man allenfalls aufgrund der Folgen gewusst hätte. Aufgrund der Adresse wo der aufgetreten ist auf die möglichen Folgen zu schließen, geht sowieso nicht, weil man nie weiß was die Speicherverwaltung des OS wann wo genau ablegt.

ich bezweilfel nicht, dass du recht hast, aber das hört sich ja grausam an. die speicherverwaltung des OS muss doch wissen, wo was genau abgelegt wurde, denn sie muss es doch wieder finden? und wenn die speicherverwaltung des OS dies wissen muss, dann sollte es doch möglich sein, dies abzufragen :confused_alt:

Holt schrieb:
Man würde damit erfahren, wie viel häufiger die Fehler RAM ohne ECC als bei RAM mit ECC auftreten, aber wie groß müsste die Stichprobe sein, damit man die Ergebnisse wirklich als relevant ansehen kann? Und welche Riegel willst Du mit welchen vergleichen? Bei DDR4 gibt es im Preisvergleich Unbuffered ECC RAM Riegel nur von 6 Anbietern, neben den RAM Herstellern nur von Kingston und Transcend und OC RAM sowieso nicht. Was sagt also ein Ergebnis aus, wenn man welche der anderen RAMs ohne ECC mit denen vergleicht? Und wie viele Rechner willst Du wie lange damit beschäftigen?

ich kann dir auf diese fragen nicht vernünftig beantworten, weil ich, wie gesagt, zu wenig ahnung habe. hier bleibt mir vorerst lediglich fest zustellen, dass diese fragen wirklich gut sind und ferner darauf zu verweisen, dass ein zusätliches neues tool wie dieses, grundsätzlich nützlich sein kann. vlt kann niemand diese fragen genau beantworten, bevor ein solches tool zur verfügung steht und damit experimentiert wurde. womöglich fördert erst der praktische einsatz antworten zu tage, auf die man durch vorheriges erwägen nicht gekommen ist. ansonsten wäre dieses tool vorerst mal ein nettes spielzeug, so wie ich es in meiner antwort an fuyuhasugu geschildert habe.

Holt schrieb:
Nicht unbedingt, zumindest nicht aus Statistiken über Endprodukte, da die Entwicklung von Gegenmaßnehmen die physikalischen Verschlechterungen der zugrundeliegenden Komponenten auch überkompensieren kann. Nimm das Beispiel der CRC über den Übertragungen wie jetzt bei DD4 im Vergleich zu den Vorgängern wie DDR3, damit trotz höher Übertragungsfrequenzen Übertragungsfehler hoffentlich komplett ausgeschlossen und am Ende wird man vermutlich weniger Fehler (soft-errors) haben, weil ein Teil von denen bei DDR3 eben auch Übertragungsfehler sein können. Oder nimm SSDs, die technischen Eigenschaften der zugrundeliegenden NANDs wurde mit jedem Shrink schlechter, die Latenzen höher und die Zyklenfestigkeit geringer, aber besseren Controller haben dies mehr als ausgeglichen und die SSDs wurden schneller und haltbarer.

toll erklärt! so kann man also die mögichkeiten der technik ausreizen und entstehende probleme werden durch ein spezielles modul bearbeitet. praktische tests dazu, ob die fehleranfälligkeit nun insgesamt gefallen oder gestiegen ist, gibt es jedoch nicht?


Holt schrieb:
Die Kühlkörper sind vor allem Optik und solle nicht selten die Beschriftung der Chips verbergen und eben Künden über die Optik anlocken. Außerdem hängt die Wärmeentwicklung immer auch von den Spannungen und Frequenzen ab.

für die RAM, die innerhalb der JEDEC-specs laufen, mag das wohl gelten. vermutlich ist das auch der grund, warum sie keine kühlkörper haben. Aber wie du schon selbst sagst, haben spannung und frequenzen eben einen einfluss auf die wärmeentwicklung und wenn ich noch deine info über die beschleunigte alterung bei hitze hinzunehme, dann haben wir ein gutes motiv für die kühlkörper von OC-RAM - wie auch immer man sie vom äußerlichen erscheinungsbild bewerten mag ;)


xxMuahdibxx schrieb:
gibt es nur indirekt indem die Befehlssätze genannt werden ... die Sprungvorhersagen und wie die Caches funktionieren ist wieder eher geheimniss.
und dann bleibt uns als index nur noch die verschiedenen benchmarks. wobei die ja auch nicht so schlecht sind, wie sie teilweise gemacht werden. gut wenn jmd. weiß, was für ihn wichtig ist und welcher bench ihm da mehr erzählen kann.

xxMuahdibxx schrieb:
Aber wirklich mehr Leistung rausholen geht aktuell über Kerne.
was ich sehr interessant finde, da mehr kerne anscheinend sogar dann ein besseres ergebnis bringen, wenn sie nicht voll ausgelastet werden, z.b. in uhd-gaming. sollten wir demnächst vlt. mal nen entsprechenden thread aufmachen :)

xxMuahdibxx schrieb:
beim RAM werden wir auch an Grenzen stoßen dann geht halt wieder tripple oder quadchannel oder mehr.

also wie mit den prozessorkernen. wenn die leistung einer einheit kaum noch zu steigern ist, dann setzt man "einfach" mehrere einheiten gleichzeitig ein.


Holt schrieb:
In der Marktwirtschaft ist es eben die Pflicht eines Kunden sich selbst zu informieren
hm, "pflicht" ist vlt ein bisschen viel gesagt, aber ich meine auch, dass jeder, der möglichst selbstbestimmt und bewusst entscheiden möchte, seinen teil zur informationsbeschaffung beitragen muss und zwar ganz gleich, in welchem wirtschaftssystem.

Holt schrieb:
Man muss es nur tun und richtig, also z.B. nicht nur eine Quelle wählen

mir scheint es so zu sein, dass sich viele nur das medium zur informierung wählen, in welchem sie sich in ihrer meinung bestätigt fühlen. doch gerade unterschiedliche, womöglich einander widersprechende quellen zu konsumieren, könnte eine spannung schaffen, in welchem das selbständige denken angeschubst wird :freaky:
hinzu kommt selbstverständlich die qualität der quellen. oftmals bieten bloße artikel nicht genug tiefgang, weswegen man sich zum glück in foren wie diesem austauschen kann.
wie sagte neil postman schon 1985: "we are overnewsed, but underinformed"
schlauer satz, kann man lange drüber nachdenken.

Holt schrieb:
aber mir scheint sowieso, dass die Leute heutzutage viel schlechter informiert sind, obwohl ihnen so viele Informationen zur Verfügung stehen würden.

vlt. nicht "obwohl", sondern sogar "weil ihnen so viele informationen zur verfügung stehen". die menschen sind teils schlichtweg überfordert durch diese flut an informationen und lassens dann gleich bleben
jeden tag kommt mehr wissen dazu, als man als einzelner mensch bewältigen könnte. selbst wenn wir wissbegierig sind und uns die infos nur so reinschaufeln, kommen wir nicht hinterher. daher brauchen wir in diesem bereich - vlt. mehr denn je - prinzipien, an denen wir uns orientieren können und um sie zu finden, müssten wir uns mit uns selbst und unserer lage beschäftigen...
 
smooth el 4a schrieb:
dieses programm ... sollte lediglich als testprogramm dienen zum zu überprüfen, wie viel fehler der RAM produziert. ... nun würde ein solches programm nämlich nicht nur den RAM selbst testen, sondern auch die fehler "auf dem Transportweg von der Festplatte zum RAM, im RAM, beim Transport vom RAM zur CPU, der in der CPU, ..." damit wird die prüfung des systems sogar erweitert, auch wenn allein durch das testprogramm die genaue lokalisierung der fehler nicht möglich ist...

also wenn ich ein solches testprogramm hätte, dann würde ich es nicht nur für die bestimmung der "güte" meines systems verwenden, sondern damit auch beobachten, wie mein system altert: wie viele fehler gabs nach dem zusammenbau, wie viele nach einem jahr, nach 1,5 jahren...
Zur Fehlerbehebung (z.B. durch HW-Tausch) oder -vermeidung willst Du doch nicht dem langsamen Verfall eines Systems zuschauen, sondern konkret wissen, wo es klemmt. Da Fehler ganz unvermeidlich auftreten, dienen all diese Maßnahmen der Fehlerkorrektur, übrigens nicht nur in Deinem Computer sondern auch auf mehreren Ebenen des OSI-Modell implementiert. Du kannst Dir auch die Smart-Werte der Festplatte mit CrystalDiskInfo anzeigen lassen und wirst unter den IDs 01, C3 und C7 oft Werte ungleich Null finden, was aber aber wegen der Fehlerkorrektur meist kein Problem ist. Bei RAMs gibt es mit ECC zwar auch eine solche Prüfung, nur kommt sie ausschließlich auf speziellen ECC-Modulen zum Einsatz und auch die meisten der Speichercontroller in den CPUs fehlt die Unterstützung dieser Funktionalität. Letztendlich sind also nicht nur die RAM-Module sondern auch CPU und Mainboard, die das unterstützen müssen und das Gesamtsystem teurer machen.

i.a. in Abgrenzung zu i.A.
 
Zuletzt bearbeitet:
smooth el 4a schrieb:
wenn man die fehlerwahrscheinlichkeit nur reduzieren und nicht völlig ausschließen kann, dann dürfte es auch keine "maximale absicherung" geben,
Die maximale Absicherung bieten wie gesagt die Mainframes, auch wenn sie schon seit Jahrzehnten totgesagt werden, gibt es sie genau deswegen immer noch.
smooth el 4a schrieb:
oder anders formuliert: es ist also eine kosten-nutzen-rechnung. ab wann übersteigen die kosten zur fehlerminimierung den entstehenden nutzen.
Eben, ein Mainframe zuhause wäre unrealistisch, aber wenigstens einfaches ECC, also eben einen Xeon E3 mit passendem Board und RAMs, wäre schon mal ein großer Schritt. Vielen kaufen die kleinen Xeons aber vor allem um billiger an eine 4 Kern CPU mit HT zu kommen und haben die dann auf die Desktopboards gepackt. Bei Skylake hat Intel dem einen Riegel vorgeschoben, nun laufen die nur noch mit den Xeon Chipsätzen (C232 und C236) und sind wohl auch bei Gamern nicht mehr so beliebt, aber trotzdem dürften dann noch so manche die dort zugreifen beim RAM sparen und auf die etwas teureren ECC Riegel verzichten, obwohl die Plattform es unterstützen würde.
smooth el 4a schrieb:
ich bezweilfel nicht, dass du recht hast, aber das hört sich ja grausam an. die speicherverwaltung des OS muss doch wissen, wo was genau abgelegt wurde, denn sie muss es doch wieder finden?
Natürlich weiß die Speicherverwaltung wo was liegt, aber sie weiß nicht, welches Bits sie wo geschrieben hat, sondern nur wo eben das Programm liegt und wo seine Daten liegen. Ob die Bits die sie dann dort wieder ausliest auch die waren die dort geschrieben wurden, kann sie nicht wissen, dafür ist ECC RAM zuständig um dies sicherzustellen oder es ist eben reine Glückssache, wenn man auf ECC RAM (und die passende Plattform) verzichtet. Eine SW könnte das nie mit akzeptabler Performance selbst sicherstellen, diese Aufgabe muss immer die HW übernehmen.

smooth el 4a schrieb:
toll erklärt! so kann man also die mögichkeiten der technik ausreizen und entstehende probleme werden durch ein spezielles modul bearbeitet. praktische tests dazu, ob die fehleranfälligkeit nun insgesamt gefallen oder gestiegen ist, gibt es jedoch nicht?
Die Hersteller werden sowas sicher haben, aber kaum mal veröffentlichen. Die wollen ja auch nicht mehr Aufwand als nötig treiben. Die Normen wie die der JEDEC die bei DDR4 RAM nun eine CRC bei der Übertragung eingeführt hat, fallen ja auch nicht vom Himmel, die JEDEC ist eine Organisation der Speicherhersteller, also ein Branchenverband und die Mitglieder beschließen diese Normen eben aufgrund der Gegebenheiten und werden in diesem vermutlich festgestellt haben, dass eine so schnelle Übertragung wie sie nun bei DDR4 spezifiziert wurden, eine so hohe Fehleranfälligkeit aufweist, dass man eben etwas dagegen tun musste und getan hat.

smooth el 4a schrieb:
dann bleibt uns als index nur noch die verschiedenen benchmarks. wobei die ja auch nicht so schlecht sind, wie sie teilweise gemacht werden. gut wenn jmd. weiß, was für ihn wichtig ist und welcher bench ihm da mehr erzählen kann.
Eben, denn Benchmarks werden meist immer von den Leute kritisiert, die deren Ergebnisse auf etwas übertragen wollen, worauf die nicht übertragbar sind. Ein reiner Speicherbenchmark misst eben wie schnell die CPU Daten vom RAM lese und ins RAM schrieben kann, da macht OC RAM sich richtig gut. In realen Anwendungen machen CPUs aber noch viel mehr als nur RAM Zugriffe und damit kann es sein, dass die Bandbreite des RAMs eben am Ende überhaupt keine Rolle spielt und man mit dem OC RAM überhaupt kein besseres Ergebnis bei einer bestimmten Anwendung hat, was aber dann nicht Schuld des RAM Benchmarks ist, sondern der falschen Erwartung an die Übertragbarkeit von dessen Ergebnissen auf andere / reale Anwendungen.

smooth el 4a schrieb:
mir scheint es so zu sein, dass sich viele nur das medium zur informierung wählen, in welchem sie sich in ihrer meinung bestätigt fühlen.
Das ist der generelle Tendenz geschuldet, dass Leute lieber eine Bestätigung ihrer Meinung haben möchten als sich mit konträren Meinungen auseinandersetzen zu müssen.
smooth el 4a schrieb:
doch gerade unterschiedliche, womöglich einander widersprechende quellen zu konsumieren, könnte eine spannung schaffen, in welchem das selbständige denken angeschubst wird
Auf jeden Fall, nur ist das vielen Leuten dann zu unangenehm und wer möchte schon gerne zu der Erkenntnis kommen müssen, dass er lange was falschen angenommen hat? Zwar kann man nur so dazulernen und sollte auch ständig alles hinterfragen was man zu wissen meint, aber die wenigsten machen das wirklich. Die Börse ist übrigens ein guter Ort um das zu lernen, dort ändern sie die Tatsachen und Meinungen ständig und wer bei seiner alten Meinung bleibt, wird nicht selten bestraft. Man schau sich z.B. die Banken und Versorger an, die Jahrzehnte als sichere Investments galten oder auch auch die ganze Klasse der Anleihen, bei denen die Negativzinsen die Welt auf den Kopf gestellt haben.
smooth el 4a schrieb:
wie sagte neil postman schon 1985: "we are overnewsed, but underinformed"
schlauer satz, kann man lange drüber nachdenken.
Und nur zu wahr.
 
Wobei ECC nicht gleich ECC ist ... hier gehts oft nur dadrum das ein oder maximal 2 Bits aus der Reihe hopsen dürfen.

Wenn es mehr werden gehts auch damit in die Hose.

Zur Erkennung von Hauptspeicherfehlern gibt es mehrere Verfahren. Eines dieser Verfahren stammt vom US-Mathematiker Richard W. Hamming: Der Error Correction Code (ECC) ist eine Art Hashwert über die 64 Bits jeder Speicherzeile. Diese redundanten Informationen werden vom Speichercontroller berechnet und in 8 weiteren Bits abgelegt (bei 32 Bit Speicherzeilen sind es 7 weitere Bits), weshalb ECC-Speicher 72 Bits pro Zeile hat. Das Verfahren selbst heißt Error Checking and Correcting.

ECC kann alle 1-Bit-Fehler korrigieren und alle 2-Bit-Fehler sowie manche Mehr-Bit-Fehler erkennen. ECC-Speicher kommt in Desktop-PCs kaum zum Einsatz.

Weitere Techniken zur Fehlererkennung sind unter den Namen Chipkill, Active Memory, Memory Resiliency oder Memory RAID bekannt.


Und der CRC Check von DDR4 sagt ja eigentlich nur aus ... ey wir haben einen Fehler gefunden ... korrigieren -> nein.

Also Parity Check eigentlich. Aber der nicht immer sondern Zyklisch.
 
xxMuahdibxx schrieb:
Wobei ECC nicht gleich ECC ist ... hier gehts oft nur dadrum das ein oder maximal 2 Bits aus der Reihe hopsen dürfen.
Das es unterschiedliche aufwendige Techniken gibt, hatte ich ja schon erwähnt.

xxMuahdibxx schrieb:
Wenn es mehr werden gehts auch damit in die Hose.
Dann sollte man ein OS haben, welches darauf reagieren kann und dies ggf. so konfigurieren, dass es passend reagiert. In aller Regel wird man eine Kernel Panik auslösen, dann reagiert der Rechner zwar nicht mehr, liefert aber eben auch keine falschen Ergebnisse raus und irgendjemand muss nachsehen, was denn da mit dem los ist. Der findet im Log hoffentlich den Hinweis wieso das passiert ist und reagiert entsprechend, spätestens wenn es zum zweiten oder dritten mal passiert.

xxMuahdibxx schrieb:
Und der CRC Check von DDR4 sagt ja eigentlich nur aus ... ey wir haben einen Fehler gefunden ... korrigieren -> nein.
Nein, die Übertragung wird ja nur abgesichert, die Bits in den Zellen können trotzdem gekippt sein, es ersetzt eben kein ECC RAM. Vermutlich dürfte wie bei SATA dann einfach die Übertragung wiederholt werden.
 
fuyuhasugu schrieb:
Letztendlich sind also nicht nur die RAM-Module sondern auch CPU und Mainboard, die das unterstützen müssen und das Gesamtsystem teurer machen.

wobei der preis eigentlich noch geht:

bei den prozessoren
ist der i5-6600 im vergleich zum XEON E3 1225 gerade mal 12,- euro günstiger. gut der turbo ist beim i5 um 200 mhz höher, dafür hat er aber kein ECC. ansonsten sind sie gleich

verzichtet man auf die iGPU legt beim XEON 38,- euro drauf, bekommt man mit dem E3 1230 je 100 mhz im basis- und turbotakt und hat das begehrte hyper-threading, was für 264,- euro schon verlockend ist ^^

interessant finde ich, dass die nächsten 100 mhz zwar nur 24,- euro mehr kosten, die übernächsten dann aber, mit dem E3 1270 gleich satte 55,- euro mehr. liegt wohl daran, dass hier die "magischen" 4 ghz im turbo erreicht werden. naja ;)
zumindest ist man hier leistungsmäßig wieder in nem bereich, der sich gut verleichen lässt mit dem i7 6700, dabei hat der XEON eben nicht nur ECC sondern auch 200 mhz mehr grundtakt, für 41,- euro mehr, was 13% sind.

-> mir ist aufgefallen, dass die TDP bei den XEON um 15 watt höher ist und immer 80 watt beträgt. weiß jmd warum?


für die boards zahlt man wohl mindestens 30,- bis 40,- euro mehr, je nachdem welche anschlüsse man möchte. zudem hat man ne sehr bescheidene auswahl :/

fast schon ein wenig verblüffend finde ich, dass hier auch bling bling zu finden ist (zumindest bei namen und farbe) mit dem ASUS E3 Pro Gaming V5 und dem ASRock Fatal1ty E3V5 Performance Gaming/OC
-> warum eigentlich "OC" beim asrock? man wird den XEON doch nicht übertakten können? zumindest hat das board auch 10 phasen...


der RAM kostet mit ECC ~15,- euro mehr pro 16 gb riegel.

-> "transcend" sind übrigens auch beim ECC schon wieder mit abstand die teuersten. auf der hompage steht, dass sie z.b. auch RAM für das militär, die medizin und die industire machen (klick) un könnte deren RAM tatsächlich besser sein, als von den DRAM herstellern selbst?


fürs gesamte system, mit 16 gb RAM und dem kleineren vierkerner komme ich auf ca. 55,- mehr mit XEON und ECC. sollte es ein größerer XEON sein mit 32 gb RAM sind das gut und gerne über nen hunni mehr. der sweet spot bei der preis-leistung dürfte bei dem E3 1230 liegen, da man zusätzlich zum ECC noch hyper-threading bekommt...


Holt schrieb:
aber wenigstens einfaches ECC, also eben einen Xeon E3 mit passendem Board und RAMs, wäre schon mal ein großer Schritt.

hier frag ich mich, wie groß der schritt nun ist, denn

xxMuahdibxx schrieb:
Wobei ECC nicht gleich ECC ist ... hier gehts oft nur dadrum das ein oder maximal 2 Bits aus der Reihe hopsen dürfen.

es ist wirklich schade, dass es hier keine genaueren zahlen zu den fehlern gibt.

zudem es ist immer wieder mal zu lesen, dass ECC für heimanwender uninteressant wäre. also wenn programme nicht so funktionieren wie sie sollten, weil es am RAM liegt und das mit der zeit häufiger vorkommt... gibt ja doch einige, die nutzen ihren rechner 8 oder 10 jahre oder noch länger...

Holt schrieb:
Vielen kaufen die kleinen Xeons aber vor allem um billiger an eine 4 Kern CPU mit HT zu kommen und haben die dann auf die Desktopboards gepackt. Bei Skylake hat Intel dem einen Riegel vorgeschoben, nun laufen die nur noch mit den Xeon Chipsätzen (C232 und C236)
was da wohl falsch gelaufen ist, dass intel das nicht so schnieke fand? manche werden sicherlich auf den teureren i7 verzichtet haben, andere wiederum werden ein bisschen was drauf gezahlt haben, um den XEON statt einen i5 zu nehmen.

Holt schrieb:
Die Normen wie die der JEDEC die bei DDR4 RAM nun eine CRC bei der Übertragung eingeführt hat, fallen ja auch nicht vom Himmel, die JEDEC ist eine Organisation der Speicherhersteller, also ein Branchenverband und die Mitglieder beschließen diese Normen eben aufgrund der Gegebenheiten

wie diese "gegebenheiten" wohl aussehen? ich mein: da verhandeln unterschiedliche firmen miteinander und manche werden in der entwicklung sicherlich schon weiter sein als andere. am schluss muss sich aber auf etwas geeinigt werden, das alle gebacken bekommen, also kommen die specs nur so schnell voran, wie der langsamste hersteller noch hinterherkommt. dann müssen die andern dem lansamsten vlt. sogar mal infos rüberschieben, um gemeinsam den nächsten schritt nach vorne machen zu können.

und dann kanns natürlich sein, dass die besten hersteller viel schnelleren RAM produzieren können, als es die specs vorsehen. da sie aber nur innerhalb der specs verkaufen: was tun mit dem schönen schnellen RAM? vlt. doch ab damit zur 3rd party? dieser RAM wäre dann weitaus mehr als nur die "katze im sack", die katze wär ein tiger, roar! und das könnte und kann man vlt. daran sehen, dass man diesen RAM viel höher takten kann, als die riegel der DRAM-hersteller selbst...



Holt schrieb:
Das ist der generelle Tendenz geschuldet, dass Leute lieber eine Bestätigung ihrer Meinung haben möchten als sich mit konträren Meinungen auseinandersetzen zu müssen.

leider ja, doch damit fällt es schwer, sich weiter zu entwickeln. merkt man z.b. auch am diskussionsstil der leute, ob sie nun darum streiten, wer recht hat oder ob es ihnen darum geht, was richtig ist. wer voran kommen möchte, sollte kein problem damit haben, fehler ein zu gestehen. alles andere wäre sowieso fragwürdig, denn wir alle machen fehler. jeden tag. gleich mehrere... deswegen ist eines der größten fehler soz. der, zu meinen oder so zu tun, als mache man keine...

Holt schrieb:
Auf jeden Fall, nur ist das vielen Leuten dann zu unangenehm und wer möchte schon gerne zu der Erkenntnis kommen müssen, dass er lange was falschen angenommen hat? Zwar kann man nur so dazulernen und sollte auch ständig alles hinterfragen was man zu wissen meint, aber die wenigsten machen das wirklich.

hier seh ich auch unsere kultur in der verantwortung. fehler werden oft sanktioniert, wer fehler macht, oder besser, wessen fehler aufgedeckt werden, der erntet womöglich spott, bekommt das evtl. gefühl vermittelt, er wäre schlechter als die anderen. da wir aber "herdentiere" sind, möchte jeder irgendwie "dazugehören" und nicht schlechter sein als die anderen. also werden fehler nicht zugegeben, um "das gesicht zu wahren", was dann aber sowohl den einzelnen als auch die gesellschaft im ganzen in der entwicklung bremst.
deswegen liegt es mal wieder an jedem einzelnen (auch sich selbst) zu hinterfragen, wie wir miteinander umgehen.


Holt schrieb:
Die Börse ist übrigens ein guter Ort um das zu lernen, dort ändern sie die Tatsachen und Meinungen ständig und wer bei seiner alten Meinung bleibt, wird nicht selten bestraft. Man schau sich z.B. die Banken und Versorger an, die Jahrzehnte als sichere Investments galten oder auch auch die ganze Klasse der Anleihen, bei denen die Negativzinsen die Welt auf den Kopf gestellt haben.

mit dieser aussage bin ich nicht so ganz glücklich. ja, an der börse sollte man fehler schnell eingestehen und sich an neue gegebenheiten schnell anpassen können. doch wird dies dort womöglich nicht aus dem grund der persönlichen weiterentwicklung getan, sondern des geldes wegen. ich will hier nicht moralisieren, aber ich frage mich, ob sich dieses "fehler-zugeben" dann nicht nur auf geldgeschäfte beschränkt oder ob es sich auch auf das "normale" leben abfärbt. wahrscheinlich mal wieder von mensch zu mensch unterschiedlich.
immerhin wird hier zumindest deutlich, wie das befolgen eines prinzips ("geldvermehrung") dem handeln (-> doppeldeutig) eine orientierung ("fehler zugeben") gibt ;)
 
Zuletzt bearbeitet:
Das ECC Zeugs ist aber auch deshalb teurer, weil es da keinen Preiskampf gibt. Würden sich die Hersteller und vorallem die Händler da so gegenseitig unterbieten wie sie das beim normalen Desktop Stuff machen wären die Aufpreise lächerlich.
 
smooth el 4a schrieb:
-> mir ist aufgefallen, dass die TDP bei den XEON um 15 watt höher ist und immer 80 watt beträgt. weiß jmd warum?
Einmal dürfte die Spannungen eher etwas höher gewählt sein, damit sie stabil laufen und dann dürfte es auch um mehr Kühlung gehen, die TDP gibt ja nicht die tatsächliche Leistungsaufnahme an sondern wie viel Kühlleistung zu gewähren ist, damit die CPUs nicht so leicht throtteln.
smooth el 4a schrieb:
für die boards zahlt man wohl mindestens 30,- bis 40,- euro mehr
Dabei kosten die Chipsätze zumindest laut Preisliste nicht wirklich mehr, so ein C236 steht mit 49$ in der Liste und hat dafür auch 2 SATA 6Gb/s Ports mehr als ein Z170 der mit 47$ angegeben ist. Hier machen also vor allem die Boardhersteller den Reibach.
smooth el 4a schrieb:
fast schon ein wenig verblüffend finde ich, dass hier auch bling bling zu finden ist (zumindest bei namen und farbe) mit dem ASUS E3 Pro Gaming V5 und dem ASRock Fatal1ty E3V5 Performance Gaming/OC
-> warum eigentlich "OC" beim asrock? man wird den XEON doch nicht übertakten können? zumindest hat das board auch 10 phasen...
Das hängt mit der Sperre zusammen die Intel bei den Skylake Xeon E3 eingeführt hat, diese laufen eben nun nicht mehr auf den Boards mit Desktopchipsätzen, sondern nur noch auf denen mit C232 und C236 Chipsätzen. Umgekehrt laufen die i5 und i7 (wie die Celeron, Pentium und i3) auf den Boards mit C232/C236 und ASRock wirbt beim Fatal1ty E3V5 Performance Gaming/OC mit "ASRock BCLK Full-range Overclocking". Mehr dazu kannst Du hier lesen, aber auch hier und hier schon den Abgesang darauf.

smooth el 4a schrieb:
könnte deren RAM tatsächlich besser sein, als von den DRAM herstellern selbst?
Keine Ahnung, vielleicht kaufen sie dafür spezielle DRAM Chips ein oder gehen einfach ein größeres Risiko, welches andere Firmen nicht eingehen möchten. Es gibt z.B. den Thielert Centurion 4.0 V8 Diesel Fulgmotor der ein angepasster Mercedes-Benz OM 629 ist, ist der nun besser als das Original? Mercedes könnte den auch selbst als einen Flugzeugmotor anpassen und anbieten, aber möchte es gar nicht, denn damit sind Prüfungen, Auflagen und Verantwortung verbunden, die man selbst nicht auf sich nehmen möchte, weil das kein Markt ist an dem man Interesse hat.
smooth el 4a schrieb:
hier frag ich mich, wie groß der schritt nun ist, denn
Das ist die Frage die Dir aber keine beantworten kann. Wenn Du jetzt keine größeren Probleme mit Instabilitäten des Systems oder korrupten Dateien hast, würdest Du ja sowieso keinen Unterschied merken. Umgekehrt wird nicht jeder Programmabsturz oder BSOD verhindert, manche sind eben auch einfach auf Bugs zurückzuführen und gegen die hilft ECC RAM auch nicht.

smooth el 4a schrieb:
es ist wirklich schade, dass es hier keine genaueren zahlen zu den fehlern gibt.
Genaue Zahlen kann es sowieso nicht geben, weil jedes System anderes ist und dann hängt es davon ab, wo es steht, etc.

Du kannst aber sicher sein, dass Singlebitfehler viel, viel wahrscheinlicher sind als Multibitfehler und damit erschlägt man schon mit dem einfachen ECC wie es die Xeon E3 bieten, die allermeisten Fehler und obendrein sollte man deren Zahl oder zumindest die Zahl der unkorrigierbaren Multibitfehler auch irgendwo (z.B. im UEFI) auslesen und ggf. entsprechend reagieren können, wenn ein Riegel wirklich eine Macke hat. Ohne ECC RAM merkt man das dann i.d.R. erst, wenn es gehäuft Probleme gibt.
smooth el 4a schrieb:
zudem es ist immer wieder mal zu lesen, dass ECC für heimanwender uninteressant wäre.
Was für wen interessant ist, ist ja immer relativ. Die meisten Heimanwender starten eben ein Programm oder den Rechner nach einem Absturz neu und machen dann weiter, außer sich zu ärgern, passiert nichts. Ebenso wenn mal eine Datei korrupt ist, dann ist es ärgerlich, aber kein Weltuntergang wenn das Urlaubsfoto eben nicht mehr sichtbar oder verfälscht ist. In Unternehmen wo Leute die teuer bezahlt werden müssen an Daten arbeiten die wichtig sind, kann es schnell anderes aussehen, wenn da plötzlich Daten korrupt sind, an denen lange gearbeitet wurde und die nun dringend gebraucht werden.
smooth el 4a schrieb:
also wenn programme nicht so funktionieren wie sie sollten, weil es am RAM liegt
Wobei das meistens einmalig ist, beim nächsten mal landen die Daten oder der Programmcode sehr wahrscheinlich in einem anderen Speicherbereich oder es kippt eben nicht gerade dort mal wieder zufällig ein Bit.
smooth el 4a schrieb:
was da wohl falsch gelaufen ist, dass intel das nicht so schnieke fand? manche werden sicherlich auf den teureren i7 verzichtet haben, andere wiederum werden ein bisschen was drauf gezahlt haben, um den XEON statt einen i5 zu nehmen.
Das war die Motivation und vermutlich hat Intel für die Xeon E3 ohne iGPU die i5 und i7 Dies verwurstet, bei denen die iGPU defekt war. Nur gab es vermutlich weit weniger davon als man entsprechendes Xeons verkauft hat und damit musste man eigentlich komplett heile CPUs günstiger als Xeon wie als i7 verkaufen. Oder man wollte das Image der Xeons schützen, einige haben die ja schon regelrecht als Gaming-CPU verstanden.
smooth el 4a schrieb:
wie diese "gegebenheiten" wohl aussehen? ich mein: da verhandeln unterschiedliche firmen miteinander und manche werden in der entwicklung sicherlich schon weiter sein als andere. am schluss muss sich aber auf etwas geeinigt werden, das alle gebacken bekommen
Zwar weiß ich nicht wie es genau aussieht, aber ich könnte mir schon vorstellen, dass es nicht alles einstimmig beschlossen werden wird und die Schwergewichte der Branche dann auch das gewichtigere Wort mitreden. Das sieht man z.B. am GDDR5X: JEDEC Publishes GDDR5X Specifications und wer baut GDDR5X RAM? Nur Micron. HIGH BANDWIDTH MEMORY (HBM) DRAM ist auch in der JESD235A spezifiziert und nicht jeder DRAM Hersteller hat welches im Angebot, der kleinste gemeinsame Nenner wird dort sicher nicht verfolgt.
smooth el 4a schrieb:
und dann kanns natürlich sein, dass die besten hersteller viel schnelleren RAM produzieren können, als es die specs vorsehen.
Die werden die DRAMs so designen und fertigen, dass die Ausbeute an Dies die die Spezifikationen einhalten, möglichst groß ist und wenn sie große Mengen an DRAM Dies mit besseren Spezifikationen fertigen können, werden diese dann auch in der JEDEC eingereicht und verabschiedet.
Ähnliche sind vom Februar bzw. Juni für normale DIMM, Unbuffered und auch Registered zu finden. Leider sind die Dokumente nicht öffentlich zugänglich, aber das Dokument beschreibt "4.20.25 - 260-Pin, 1.2 V (VDD), PC4-1600/PC4-1866/PC4-2133/PC4-2400/
PC4-2666/PC4-3200 DDR4 SDRAM SO-DIMM Design Specification
DDR4 SDRAM SO-DIMM Design Specification
Revision 1.20
June 2016" Demnach sind auch DDR4-2666, DDR4-2933 und DDR4-3200 wohl schon seit ein paar Monaten spezifiziert, übrigens mit 1,2V und nun fehlen nur noch die RAM Controller die diese auch offiziell unterstützen. Wenn der RAM Controller nur bis DDR4-2400 spezifiziert ist, dann ist alles darüber weiterhin Overclock!

Die Norm gibt sogar für die 6, 8 oder 10 Layer Platinen der Riegel genaue Vorschläge wie die Schichten anzuordnen sind und wie dick sie sein sollten.
smooth el 4a schrieb:
immerhin wird hier zumindest deutlich, wie das befolgen eines prinzips ("geldvermehrung") dem handeln (-> doppeldeutig) eine orientierung ("fehler zugeben") gibt ;)
Wenn es weh tut und Geld zu verlieren tut den meisten Leuten weh, ändert man sein Fehlverhalten eben meist sehr schnell.
 
DDR4-3200 ist schon seit DDR4 Release spezifiziert. Evtl. nicht in den Design Files, aber in der normalen Spec auf jeden Fall. Die alten Revisionen werden aber scheinbar nicht gehostet.
Wenn du JEDEC Dokumente willst, schau mal auf der Thaiphoon Burner Seite. Vitaliy hat da einige zum Download.
 
Zuletzt bearbeitet:
Holt schrieb:
Umgekehrt laufen die i5 und i7 (wie die Celeron, Pentium und i3) auf den Boards mit C232/C236 und ASRock wirbt beim Fatal1ty E3V5 Performance Gaming/OC mit "ASRock BCLK Full-range Overclocking".

schon als das thema BCLK OC für non K CPUs aufkam, fand ich das so sinnvoll, wie ein steak mit dem löffel zu schneiden :D ich hab ja keine große anhnung von OC, aber der weg geht normalerweise eben über multi + vcore- erhöhung. also ob es intel nun unterbindet oder nicht, ich kann mir nicht wirklich vorstellen, dass das auf dauer gut gewesen wäre. wenn das so toll wäre, dann würde man es doch auch im "normalen" OC verwenden. also ok, wird ja glaub ich auch teilweise gemacht, auch wenn da nicht mehr viel zu holen ist. naja, jedenfalls war das alles wohl mehr zucker für den affen...

aber die boards mit den c-chipsätzen sollten das ohne BCLK OC sondern über den multi können, sofern es das uefi eben zulässt. die C236A Workstation von MSI sieht da auch ganz interessant aus mit ihrem "award winning click bios 5". 11 phasen haben die da reingeknallt und von gigabyte gibts auch welche mit vielen phasen. somit haben sich alle gamer-brett-hersteller auch bei diesen boards positioniert, wenn auch mit geringer auswahl.

ich frag mich, ob sich vlt sogar ECC RAM übertakten lässt...

Holt schrieb:
Keine Ahnung, vielleicht kaufen sie dafür spezielle DRAM Chips ein oder gehen einfach ein größeres Risiko, welches andere Firmen nicht eingehen möchten. Es gibt z.B. den Thielert Centurion 4.0 V8 Diesel Fulgmotor der ein angepasster Mercedes-Benz OM 629 ist, ist der nun besser als das Original?

wo ein "besser" ist, ist auch immer ein "für was?" oder "für wen?". so ist der OC-RAM besser für hohe leistung, während der non OC-RAM besser für die langlebigkeit und kompatibilität sein dürfte, so wie eben der original motor von mercedes besser für autos und der modifizierte besser für flugzeuge ist.

Holt schrieb:
Genaue Zahlen kann es sowieso nicht geben, weil jedes System anderes ist und dann hängt es davon ab, wo es steht, etc.

du hast ja gesagt, dass dein N54L nun schon 6 unkorriegierbare fehler hat nach knapp 3 jahre, 5 davon aus diesem jahr. kannst du auch sagen, wieviele fehler auftraten, die korrigiert wurden? damit hätte man dann ja schonmal einen eindruck von der größenordnung, in welcher sich diese fehler abspielen könnten.

cool wär eigentlich auch ne art datenbank mit disskussionsthread. also ich denk, dass einige leute, die sich für ECC interessieren und/oder solchen gekauft haben, so etwas ganz hilfreich fänden. wo kann man sich denn über ECC groß austauschen, wo findet man andere user? ok, hier und da, aber die sind alle verstreut...

wenn dann einige ihre ergebnisse in die datenbank eintragen würden, hätte man schonmal nen eindruck, welche systeme unter welchen bedingungen welche größenordnung an fehlern produzieren. möchte jmd. ein neues system kaufen, hilft ihm das zwar nicht direkt weiter, weil es in der zwischenzeit wahrscheinlich wieder neues gibt, zu dem noch keine erfahrungswerte vorliegen; indirekt jedoch könnte man vlt. dennoch eine bestimmte tendenz aus den vorherigen systemen ziehen...

Holt schrieb:
Die meisten Heimanwender starten eben ein Programm oder den Rechner nach einem Absturz neu und machen dann weiter, außer sich zu ärgern, passiert nichts. Ebenso wenn mal eine Datei korrupt ist, dann ist es ärgerlich, aber kein Weltuntergang wenn das Urlaubsfoto eben nicht mehr sichtbar oder verfälscht ist.

wenn ich so in mein umfeld gucke, dann seh ich immer wieder leute mit ihrem uralten system, welches mittlererweile so viele macken hat, dass selbst nach einer kompletten neuinstallation der rechner nicht mehr so läuft, wie einst. vlt. könnte das auch am RAM liegen?
dann kaufen sie sich halt auch mal wieder einen neuen rechner und vlt. ist genau DAS auch der grund, warum ECC "künstlich" teuer gehalten wird? ;)

aber selbst, wenn das nicht zuträfe: es gibt leute, die geben für das OC der CPU wieviel kohle aus, um ein paar hundert mhz mehr zu haben? ist ja auch legitim und genauso verhält es sich mit den heimanwendern, die eben ECC wollen.

Holt schrieb:
Zwar weiß ich nicht wie es genau aussieht, aber ich könnte mir schon vorstellen, dass es nicht alles einstimmig beschlossen werden wird und die Schwergewichte der Branche dann auch das gewichtigere Wort mitreden. Das sieht man z.B. am GDDR5X: JEDEC Publishes GDDR5X Specifications und wer baut GDDR5X RAM? Nur Micron. HIGH BANDWIDTH MEMORY (HBM) DRAM ist auch in der JESD235A spezifiziert und nicht jeder DRAM Hersteller hat welches im Angebot, der kleinste gemeinsame Nenner wird dort sicher nicht verfolgt.

wahrscheinlich werden die sich alle auf etwas spezialisiert haben. von demjenigen, der den größten absatz hat (samsung?), würde ich dann solide, aber nicht die besten chips erwarten. micron bastelt dann vlt an der zukunft und hynix spezialisiert sich auch auf die sparte für DRAM mit dem besten OC-potential oder so ähnlich...

Holt schrieb:
Demnach sind auch DDR4-2666, DDR4-2933 und DDR4-3200 wohl schon seit ein paar Monaten spezifiziert, übrigens mit 1,2V und nun fehlen nur noch die RAM Controller die diese auch offiziell unterstützen. Wenn der RAM Controller nur bis DDR4-2400 spezifiziert ist, dann ist alles darüber weiterhin Overclock!

und da der RAM controller in der CPU sitzt, kann die umsetzung des nächst höheren standards auch erst mit der nächten CPU generation erfolgen, richtig? also kaby lake dann mit 2666 und der nexte lake mit 2933. dann kann man sich ja ungefähr ausrechnen, in welchem jahr wir bei 3200 als standard sind ^^
 
Zuletzt bearbeitet:
smooth el 4a schrieb:
da auch ganz interessant aus mit ihrem "award winning click bios 5". 11 phasen haben die da reingeknallt
Da ist auch ein guter Teil Werbung dabei.
smooth el 4a schrieb:
ich frag mich, ob sich vlt sogar ECC RAM übertakten lässt...
Bei Registered RAM vielleicht nicht, da keine Plattform die das unterstützt auch wirklich OC ermöglicht. Bei Unbuffered ECC RAM sollte es wie bei normalen RAMs sein, die haben ja einfach nur 72 Bit statt 64 Bit bei den RAM Riegeln ohne ECC.

smooth el 4a schrieb:
wo ein "besser" ist, ist auch immer ein "für was?"
Eben, daher ist die Frage was besser ist wie sie im Titel des Threads gestellt wird, eben auch schwer zu beantworten. Dem einen geht es um das OC-Potential, da kann man zumindest bei den OC-RAMs erwarten, dass man eine gute Chance hat die vom Hersteller angegebenen Taktraten wirklich zu erreichen (das hängt ja auch vom Board und der CPU ab). Die RAMs der DRAM Hersteller halten vielleicht länger fehlerfrei durch oder haben überhaupt seltener Fehler?

smooth el 4a schrieb:
wieviele fehler auftraten, die korrigiert wurden?
Dazu habe ich im Log des BIOS keine Informationen gefunden, aber es dürften um ein Vielfaches mehr sein.

smooth el 4a schrieb:
cool wär eigentlich auch ne art datenbank mit disskussionsthread
Da solche Informationen nur mit ECC RAM möglich ist, wäre es für Leute die kein ECC RAM haben wohl komplett irrelevant.

smooth el 4a schrieb:
wenn ich so in mein umfeld gucke, dann seh ich immer wieder leute mit ihrem uralten system, welches mittlererweile so viele macken hat, dass selbst nach einer kompletten neuinstallation der rechner nicht mehr so läuft, wie einst. vlt. könnte das auch am RAM liegen?
Solche Fehler sollte man mit RAM Tests mit Memtest86 oder Memtest86+ aber eigentlich erkennen können.
smooth el 4a schrieb:
wahrscheinlich werden die sich alle auf etwas spezialisiert haben. von demjenigen, der den größten absatz hat (samsung?), würde ich dann solide, aber nicht die besten chips erwarten. micron bastelt dann vlt an der zukunft und hynix spezialisiert sich auch auf die sparte für DRAM mit dem besten OC-potential oder so ähnlich..
Zwar manchen nicht alle das Gleiche, aber so eine Aufteilung wie Du sie da vermutest, gibt es meines Wissens nicht.
smooth el 4a schrieb:
also kaby lake dann mit 2666 und der nexte lake mit 2933. dann kann man sich ja ungefähr ausrechnen, in welchem jahr wir bei 3200 als standard sind ^^
Abwarten, die RAM Controller können ja meist auch mit schnelleren RAMs umgehen, sonst wäre OC-RAM ja total sinnlos, wenn es gar nicht funktionieren würden, wenn schon die RAM Controller nicht RAM mit höheren Taktraten arbeiten würden, als offiziell freigeben wird.
 
Mit 2 Modulen @ 2133 im Dual Channel auf nem Z170 langweilt sich der Speichercontroller natürlich.
Steck mal auf nen Haswell-EP 3 DPC und versuch an der Taktschraube zu drehen. Da geht so gut wie nix mehr.
Und dafür wird der Speichercontroller designt, nicht für hohen Takt im Desktop.
 
Holt schrieb:
Da ist auch ein guter Teil Werbung dabei.

fand ich auch witzig, deswegen die anführungszeichen beim "award winning click bios 5". womöglich ist MSI nun z.b. bei der lüftersteuerung endlich auf dem niveau von asrock oder asus angekommen, dafür gibts dann natürlich nen award :D

hab mich mal versucht wegen dem OC vom XEON schlau zu machen, aber wenn man so die infos zusammenträgt, kann man da leider nur doof bleiben: da gibts meldungen wonach die möglichkeit zum OC abgestellt wurde oder zumindest werden soll, aber dann schaut man in den preisverglich und sieht, dass OC boards noch monate nach diesen meldungen erschienen sind.
dann schreiben neubesitzer in ihren bewertungen, wie hoch sie den XEON getaktet haben, aber kein wort darüber, mit welcher methode. BCLK OC find ich immer noch nicht verlockend und ne info, ob das auch per multi und spannungserhöhung klappt, habe ich auch nicht gefunden.
dann werden die boards auch hier und da wieder getestet, aber ohne dass über die übertaktungsmöglichkeiten berichtet wird.

als ich die boards vor ein paar tagen entdeckt habe, hatte ich mich schon gefreut, ein schönes system mit einem übertakteten XEON aufzubauen mit ECC RAM, aber das kann ich wohl vergessen, zumindest bei intel. vlt gibts diese mögichkeit aber schon bald mit ZEN?

-> weiß jmd, wie das bisher bei AMD aussah? ließen sich dort die CPUs übertakten, wenn sie auf boards mit ECC RAM gesteckt haben?

Holt schrieb:
Eben, daher ist die Frage was besser ist wie sie im Titel des Threads gestellt wird, eben auch schwer zu beantworten. Dem einen geht es um das OC-Potential, da kann man zumindest bei den OC-RAMs erwarten, dass man eine gute Chance hat die vom Hersteller angegebenen Taktraten wirklich zu erreichen (das hängt ja auch vom Board und der CPU ab). Die RAMs der DRAM Hersteller halten vielleicht länger fehlerfrei durch oder haben überhaupt seltener Fehler?

ich denke ein guter weg zu einer antwort über den besten RAM führt über die frage, ob und wie "übertaktungsfreudigkeit" mit "qualität" bzw. "stabilität" zusammenhängt. das wesentliche am RAM ist doch der chip, der DRAM; die platine mit dem bisschen lötzinn sollte nicht wohl nicht den ausschlag geben.

also, bei prozessoren ist es doch zumindest so, dass man innerhalb einer prozessorreihe, z.b. aktuell dem 6700k, von besonders guter qualität spricht, wenn er sich besonders hoch takten lässt. das kann man sich ja gut vorstellen, dass etwas, das besonders stabil ist, auch besondes gut belastet werden kann.

demnach müsste man ja auch beim RAM sagen: je höher er sich takten lässt, von desto besserer qualität ist er und wer ganz besonderen wert auf stabilität legt, holt sich OC RAM und taktet ihn weit runter.

doch halt! die RAM die wir vergleichen, kommen von unterschiedlichen herstellern und die DRAM chips sind sogar von unterschiedlicher größe! das bedeutet, dass wir nicht einfach quervergleiche ziehen können, wenn ich mich nicht täusche. würden wir chips von der selben serie vergleichen, müsste sich der beste RAM im übertaktungsfreudigsten RAM zeigen (wenn meine theorie von belastung und stabilität stimmen sollte). doch wie vergleichen wir unterschiedlich gebaute chips von unterschiedlichen herstellern? ist da vlt. der größte chip der stabilste? wäre ja oberflächlich betrachtet einleuchtend und das was du über die instabilitäten bei der strukturverkleinerung bei SSDs gesagt hast, könnte auch hier vlt gelten...

btw.: welcher hersteller baut den größten DRAM-chip? und wieso sind die überhaupt unterschiedlich groß? baun die einen z.b. in 24 nm und die andern in 14 nm?

Holt schrieb:
Zwar manchen nicht alle das Gleiche, aber so eine Aufteilung wie Du sie da vermutest, gibt es meines Wissens nicht.

vermutlich ergibt sich eine solche aufteilung ganz von selbt im laufe der zeit. die einen bringens fertig, aus ein und der selben maschine und in der selben zeit viel mehr produkte herzustellen als andere. damit können sie sie auch günstiger anbieten. damit die anderen hersteller sich da noch behaupten können, müssen sie sich was einfallen lassen und so werden die einen zwar langsamer produzieren, dafür aber in höherer qualität und die nächsten entwickeln dafür schon 3 schritte weiter.

Holt schrieb:
Abwarten, die RAM Controller können ja meist auch mit schnelleren RAMs umgehen, sonst wäre OC-RAM ja total sinnlos, wenn es gar nicht funktionieren würden, wenn schon die RAM Controller nicht RAM mit höheren Taktraten arbeiten würden, als offiziell freigeben wird.

da die offizielle freigabe aber immer einen schritt in der spezifikation weiter nach oben steigt mit jeder neuen CPU generation und da wir wissen, dass bereits spezifikationen vorliegen für die nächsten drei generationen, können wir darüber spekulieren, dass der aktuelle RAM noch mindestens weitere drei CPU generationen verbaut werden könnte. also wirds für den mainstream noch die nächsten 3 generationen vermutlich kein HBM geben z.b.

zudem bekommen wir einen kleinen ausblick darauf, wie hoch die mhz des RAM in den nächsten jahren steigen könnte. also in der drittnächsten generation, wenn der 3200er offiziell unterstützt wird, wirds dann vlt schon 5000er RAM zu kaufen geben. würde doch prozentual ungefähr hinkommen wenn man sich die specs und den höchsttaktenden kaufbaren RAM so anguckt...

ist natürlich aber nicht gewiss, sondern nur ne kleine spielerei aufgrund von indizien ;)
 
Zurück
Oben