dilemma speicherplatzerweiterung

Ja_Ge schrieb:
OK, ich ging von einem Server aus da du schriebst der PC hat keine Grafikkarte.



Wenn du denn schon hast, warum fragst du dann was du kaufen sollst? Ein einfacher RAID Controller reicht in deinem Fall aber völlig aus zum Erweitern, das RAID auf dem Mainboard ist genauso ein Software RAID.
Ergänzung ()



Genau so. Ich hatte dich so verstanden, dass du ältere Hardware als Backup-Server benutzt. Ist ggf. trotzdem auch eine Möglichkeit für dich. Im Prinzip wie eine NAS, nur flexibler was die Festplatten angeht. Energieverbrauch lässt sich mit Wake On Lan und automatischem Shutdown in den Griff bekommen. Nutzt du auf beiden Rechnern Windows 10, kannst du auf dem „Server“ Storage spaces nutzen (und beliebig Platten jeder Größe und jedes Anschlusses inklusive USB) und mehrere Gigabit-Leitungen bündeln, nennt sich SMB Multichannel.

Nebenbei hast du noch eine große Auswahl an allen möglichen Diensten, von FTP bis JDownloader. Aber ich schweife wohl ein wenig vom Thema ab.

nun, mir wurde erste heute morgen wieder an die möglichkeit errinert dass man externe
raid-gehäuse nutzen könnte, habe mich in letzter zeit nur mit nas beschäftigt dass ich das vergessen hatte.
die interne raidkarte von ebay--kann man auch zurueckgeben, man hat ja 1 monat rueckgabefrist.
werde die aber wegen meinen nerven behalten :-)
 
Zuletzt bearbeitet von einem Moderator:
ich habe aktuell sockel z270 (intel)
damit kann ich kein raid machen im bios , oder ?

wie sieht es aus bei sockel x399 von amd ?
kann ich da ein raid im bios machen ...ich meine ohne eine zusätzliche karte ?
 
Zuletzt bearbeitet von einem Moderator:
ksjdgzagt schrieb:
jedoch waren nach geraumer zeit etliche dateien kauputt ..
Dies kann viele Ursachen haben, RAM Fehler zählen zu den häufigen Ursachen, werden aber zugleich selten als Ursache erkannt. Wenn man Datenkorruption vermeiden will, sollte man es mit Matthew Ahrens, Mitentwickler des ZFS-Dateisystems, halten:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM und dann erst oben drauf ein Filesystem mit Prüfsummen wie ZFS zu verwenden, wenn man seine Daten liebt und vor Korruption schützen möchte!

Übertragungsabbrüche können natürlich zu Datenkorruption führen und die Folge zu langer Kabel sein, aber auch von Wackelkontakten etc., da bei DAS (Direct Attached Storage) immer der Host das Filesystem verwaltet, riskiert man dabei immer ein korruptes Filesystem und damit Datenverlust und Datenkorruption. Die NAS haben die DAS nicht umsonst verdrängt, denn bei denen verwalten die CPU und das OS des NAS das Filesystem und eine Unterbrechung der Verbindung betrifft nur Dateien die gerade offen waren bzw. geschrieben wurden während dies passiert ist. Auch beim NAS / Heimserver gilt natürlich, dass ECC RAM das Risiko von Datenverlust und Datenkorruption deutlich mindert.
ksjdgzagt schrieb:
ich habe aktuell sockel z270 (intel)
Damit ist keine ECC RAM Funktion möglich, wenn Du also Datenkorruption und damit Datenverlust künftig vermeiden willst, solltest Du zuerst mal auf eine andere Plattform umsteigen, eine die auch die ECC RAM Funktion unterstützt. Dann würde ich immer zu einem RAID mit Redundanz raten, bei 4 Exos 14TB wäre ein RAID 5 eine gute Wahl, dazu dann entsprechend viele USB Platten für die Backups, wo ich die WD MyBook oder Elements mit 8 oder 10TB nehmen würde. Wie ich Dir schon damals geschrieben habe:
Holt schrieb:
Dieses Backup gehört zweckmäßigerweise auf ein Medium welches in einem anderen Gehäuse steckt, z.B. in die Cloud, auf ein NAS oder USB Platten die nur fürs Backup dienen und nur zum Erstellen, Prüfen und Updaten des Backups angeschlossen werden und danach gleich wieder abgemeldet und entfernt werden um sie wieder sicher zu lagern, z.B. im Schrank.
Im übrigen hat Dir Madnex damals auch geschrieben:
Madnex schrieb:
Ich gehe eher davon aus, dass die Docks daran grundsätzlich schuld waren. Per USB angeschlossen liegt es am USB/SATA-Bridge-Chip bzw. dessen Firmware, ob Festplatten mit mehr als 2 TB unterstützt werden. Per SATA angeschlossen ist es abhängig vom Treiber des SATA-Host-Controllers des Rechners, ob mit so großen Festplatten fehlerfrei umgegangen werden kann. Nutzt du nun mehrere Docking-Stations oder eine, die beide Anschlüsse hat, abwechselnd, reicht es aus, wenn eine diese Docking-Stations oder einer der verwendeten Anschlüsse (USB bzw. eSATA) ein Problem mit großen Platten hat (Stichwort: 32-Bit-LBA-Limit) um den Datensalat anzurichten.
Genau das Problem das die USB-SATA-Bridgechips in den Dockingstations nicht mehr als 2TiB adressieren können, ist für solche mit USB2 typisch und andererseits ist es typisch das Dockingstations die USB und eSATA haben, nur USB2 unterstützen, denn sobald USB3 draußen war, ist eSATA überflüssig geworden und sehr bald von USB3 verdrängt worden, so dass nicht einmal die angedachte Spezifikation für eSATA mit 6Gb/s finalisiert wurde, weshalb eSATA nur bis 3Gb/s wirklich spezifiziert ist.

Mit den 3TB HDDs gibt es auch bei der Fehladressierung die auftritt wenn Adressen mit mehr als 32 Bit nötig wären, nur Probleme wenn jenseits der 2TiB Grenze geschrieben wird, bei größeren HDDs und vor allem den 10TB Modellen, gibt es aber noch früher Probleme, da normalerweise der für den MFT reservierte Bereich etwa in der Mitte des Volumens liegt und dies ist bei 3TB Platte eben noch unterhalb der 2TiB Grenze, bei Platten mit mehr als 4TB aber komplett über ihr und damit kann schon der MFT nicht mehr gelesen werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ksjdgzagt
@Holt: vielen vielen dank fuer die antwort !
mir war schon klar dass ecc ram besser ist aber dass es so wichtig ist war mir nicht klar.
 
Wie wichtig es gewesen wäre, weiß man selbst dann nicht wenn man Probleme hatte, denn es steht ja nie dabei das RAM Fehler diese Probleme verursacht haben. Die zeigen sich nur an den Auswirkungen und es können ganz unterschiedliche Auswirkungen sein, es müssen nicht zwangsweise regelmäßig BSOD sein, dazu belegt Windows einen viel zu kleinen Teil des RAMs, korrupte Daten sind viel häufiger die Folge von RAM Fehlern, denn die Daten werden ja immer über RAM gepuffert, bei allem was man mit ihnen macht.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
dazu habe ich noch eine frage:
meine letzten zwei daten-katastrophen , das letzte 2015, erfolgten unter diesen voraussetzungen:

  • billige customer-hdds (jetzt die teuersten helium-enterprise)
  • hdds waren über externe docking-stations per usb 3 am pc angeschlossen.
  • die usb 3-kabel sind alle über einen meter lang gewesen, vielleicht auch ueber 2 m ...
genau weiss ich es nicht mehr...

seit 2015 nutze ich keine externe dockingstations mehr und betreibe alles nur intern
per sata mit möglichst kurzen kabel..und ich hatte bisher keine negativen vorkommnissen,
auch wenn ich auf meiner z270-plattform ja zwangsweise non-ecc-ram nutzen muss.

es kann also damal so gewesen sein, dass nicht die blosse übertragung der daten beim backup
zwischen dockstation und pc mit über 2m langen usb3-langen kabel schuld war
sondern der non-ecc-ram ? das wäre heftig...aber eher unwahrschenilich denn solange die
daten nicht hin und her zwischen pc und docking station verschoben wurden
gabs kein problem, trotz non-ecc-ram.

nun sagt ein youtuber, den ich durchaus schätze, dass man von den daten auf einer nas
auch eine örtlich getrennte sicherung machen soll, die per usb 3-dockingstation erfolgen soll:
da sträuben sich mir die haare.
was gibt es da sonst für möglichkeiten die daten auf einer nas örtlich getrent zu sichern
ohne usb3 zu nutzen ? eine nas und docking station mit thunderbolt ? oder eine zweite
kleiner nas mit 10gb-netzwerkkarte ?

vielleihct auch fuer andere interessant:
womit ich unter windows probleme hatte mit kaputte daten sind windows updates,
nach dem wiederhochfahren des rechners meint win er muesse die hdds auf fehler überprüfen
und reparieren und danach sind daten kaputt. kann das auch am non-ecc-rama liegen ?
jedenfalls mache ich nur noch win-updates ohne angeschlossene daten-hdds und fahre
danach den pc 10 mal hoch und runter. zwar ein sonderbares ritual aber mit der
strategie gabs nie wieder daten-probleme nach einem win-update.
 
geimt war wenn man bereits eine nas hat. man sollte trotzdem als letzte sicherheits.instanz noch ein
backup machen mit räumlcihern trennung zur nas, denn der youtuber hat schon recht...was
wenn bei dir eingrbrochen wird oder es einen brand gibt. dann ist die nas hin.

ich meinte wie man eben dieses externe nas-backup sicher auf andere datenträger schafft. denn usb3 ist mir
ein wenig zu unsicher. aber die beste lösung scheint eine zweite nas mit 10gb lan und diese verfrachtet man dann
räumlich getrennt wonaders.
 
ksjdgzagt schrieb:
hdds waren über externe docking-stations per usb 3 am pc angeschlossen.
Das ist im Prinzip noch kein Problem, sofern das Dock eine Probleme mit HDDs mit mehr als 2TB hat, was bei den USB3 Dockingstations meistens so ist, aber bei denen mit USB2+eSATA i.d.R. schon. Dann geht es über eSATA, sofern der Treiber des eSATA Host Controllers diese unterstützt, aber über USB nicht.
ksjdgzagt schrieb:
die usb 3-kabel sind alle über einen meter lang gewesen, vielleicht auch ueber 2 m ...
Die Kabellänge ist eher nicht so das Problem, wenn die Kabel zu lang sind, merkt man dies gleich an einer schlechte Performance oder Verbindungsabbrüchen. Die Übertragungen werden ja meines Wissens nach auch bei USB mit Prüfsummen abgesichert und daher könnte Datenkorruption nur als Folge von Verbindungsabbrüchen entstehen. Gab es denn damals Verbindungsabbrüche?
ksjdgzagt schrieb:
es kann also damal so gewesen sein, dass nicht die blosse übertragung der daten beim backup
zwischen dockstation und pc mit über 2m langen usb3-langen kabel schuld war
sondern der non-ecc-ram ?
Wenn es damals keine Verbindungsabbrüche gab und die Dockingstation HDDs mit der vorhandenen Kapazität wirklich unterstützt hat, dann könnte dies durchaus der Fall gewesen sein. Es steht eben wie gesagt nie dabei, dass es RAM Fehler waren, die bemerkt man nur an ihren Auswirkungen und dies können alle möglichen Probleme sein.
ksjdgzagt schrieb:
das wäre heftig...aber eher unwahrschenilich denn solange die
daten nicht hin und her zwischen pc und docking station verschoben wurden
gabs kein problem, trotz non-ecc-ram.
Es ist fast unmöglich nachträglich sicher zu sagen, woran es gelegen hat. Aber wenn die Daten nur auf der Platte liegen, werden sie selten durch RAM Fehler korrupt, außer bei einem Schreibvorgang wird die Adresse verfälscht und daher wird auf die falsche Adresse geschrieben oder die Metadaten werden korrupt. Größer ist aber die Gefahr, wenn von einer schnellere Quelle auf ein langsameres Ziel kopiert wird, denn Explorer puffert die Daten in sonst unbelegtem RAM zwischen, weshalb dann auch Anfangs hohe Transferraten angezeigt werden da die angezeigten Kopierraten eben auf Basis des gelesenen Datenvolumens berechnet werden die abfallen wenn der Puffer voll ist und gerade bei Win 7 scheint der Vorgang scheinbar beendet zu sein aber nicht ende zu wollen. Dann wird nämlich noch aus dem RAM auf die Zielplatte geschrieben und wer dann die Platte anzieht, hat natürlich hinterher korrupte Dateien. Auch wenn es RAM Fehler gibt, ist das Risiko das diese zu Datenkorruption führen, weitaus höher als wenn die Zielplatte schneller schreiben kann als die Quellplatte die Daten liefern kann und daher fast nichts im RAM gepuffert wird.
ksjdgzagt schrieb:
man von den daten auf einer nas
auch eine örtlich getrennte sicherung machen soll, die per usb 3-dockingstation erfolgen soll:
Ja, ein NAS alleine ist kein sicherer Ort für Daten, man sollte davon immer auch ein Backup haben.
ksjdgzagt schrieb:
da sträuben sich mir die haare.
Das Video habe ich nun nicht gesehen, ich schau mir nicht alle Videos an die in den Foren verlinkt werden, aber wo liegt das Problem? USB Platten sind ja nicht automatisch unsicher, zumal wenn man Fertig-USB Platten nimmt, bei denen man sicher sein kann, dass es eben keine Probleme wie das mit der 2TiB Adressierung und Platten größerer Kapazität, welches bei Selbstbauern immer wieder zu Datenverlust geführt hat.
ksjdgzagt schrieb:
womit ich unter windows probleme hatte mit kaputte daten sind windows updates,
nach dem wiederhochfahren des rechners meint win er muesse die hdds auf fehler überprüfen
und reparieren und danach sind daten kaputt. kann das auch am non-ecc-rama liegen ?
Auch dafür kann es viele Ursachen geben und RAM Fehler sind eine der möglichen Ursachen, aber auch bei Dual Boot Systemen mit Win 8 oder höher, ist dies häufig und liegt daran, dass Windows ab Win 8 beim normalen Runterfahren nicht mehr wirklich runterfährt, sondern eine Art hybriden Standby macht und dabei das Dirty Flag der Filesysteme nicht löscht. Bootet man dann das anderen Windows, erkennt dies das gesetzte Dirty Flag und will ein chkdsk ausführen. Auch hier gibt es viele möglich Erklärungen und wir haben viel zu wenig Informationen um mehr als nur Rästelraten zu können.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
Raid 0 ist eine ganz schlechte Idee, wenn du an deinen Daten hängst. Du verdoppelst damit die Chance, Daten zu verlieren. Raucht eine Platte ab, sind die Daten auf der zweiten auch verloren, da bei Raid 0 die Datenblöcke abwechselnd auf beiden Platten landen.

Achtung: Datenrettungssoftware ist in diesem Fall nutzlos. Falls spezialisierte Firmen das wieder hinkriegen sollten, dann nur zu horrenden Preisen.

Ist es denn von absolut entscheidener Bedeutung, dass deine Daten auf einem einzigen Volume liegen? Laufwerksbuchstaben hat Windows genug für deinen Fall. Linux sogar noch mehr (gut, sind keine Buchstaben).
Für den Hausgebrauch reicht ein wenig Ordnung. Videos auf Platte A. Pragrammdaten von xy auf Platte B, usw.

Wenn du ein Volume haben willst, um dir das Backup zu erleichtern, würde ich mal über 'ne gescheite Backupsoftware nachdenken, anstatt Raid 0. Dann ist es nämlich Wurst, wie viel Lauwerksbuchstaben im Explorer stehen.

Von langsamerer auf schnellere Platte kopieren: Windows anweisen, den Ram nicht als Cache zu verwenden, befreit von solchen Einschränkungen.

Ansonsten würde sich noch JboD anbieten. Windows selbst kann auch Plattenübergreifende Volumes erstellen. Da wissen andere aber vielleicht mehr.
Ergänzung ()

Damals sind Daten korrumpiert worden? Ich würde die Ursache in der Verbindung suchen. Jede Steckverbindung zieht die Signalqualität in den Keller. Vom Mainboard zur Front des Gehäuses - von dort zu einem Hub - von diesem zum Festplattendock. Das Dock selbst (ist hier womöglich so ein Ding gemeint, in dass man eine nackte HD stellt? Dann kann der Verlust auch auf Erschütterungen zurückzuführen sein). Wenn noch Verlängerungen (die in den USB-Spezifikationen generell nicht vorgesehen sind) zum Einsatz kommen, wird es noch schlimmer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ksjdgzagt
hi, das was ich will ist ersteinmal vodergründlich moeglichst kostenguenstige speicherplatzerweiterung.

einer nicht so teure variante über die ich nachgedacht hatte , war mir eine raid-karte zu kaufen,
gebraucht guenstig, und zwar die: broadcom megaraid sas 9361-8i
vorteil: 1gb cache.

ich hatte wie es aussieht ein denkfehler gemacht und hatte angenommen
dass mich das ganze einrichten überforden würde...aber...

wenn ich die sata-system-ssd regulär am mainboard anschliesse (also nicht über die raid-karte)
und lediglich die 4 x hdds in je 2 x raid 01 ueber die raidkarte laufen lasse, dann muss ich
keine raid treiber während der windows installation installieren oder ?

der ablauf wäre doch so ? :

  • win 10 regulär installieren auf die ssd.
  • dann alle treiber mit hilfe von zb "snappy driver installer" installieren.
  • dabei sollten auch die treiber fuer den broadcom-raid-controllers installiert werden ?
  • dann unter win 10 die benutzeroberfläche des raid-kontrollers aufrufen (wie mache ich das ?)
und dort die 2 x raid 0 einrichten ? fertig ? da es sich nur um datenplaten handelt und nicht um
system-sachen, müsste das so hinhauen ?

was aber wenn ich win 10 neu installieren sollte ?
bleiben die 2 x raid 0 bestehen ?

was bios-einstellingen des mainboards betrifft:
dort muss ich nur das mb-bios auf "raid" einstellen, mehr nicht ?
 
Zuletzt bearbeitet von einem Moderator:
Pheodor schrieb:
Raid 0 ist eine ganz schlechte Idee, wenn du an deinen Daten hängst. Du verdoppelst damit die Chance, Daten zu verlieren. Raucht eine Platte ab, sind die Daten auf der zweiten auch verloren, da bei Raid 0 die Datenblöcke abwechselnd auf beiden Platten landen.

es gibt aktuell keine einzel-hdds die ich kaufen kann
damit ich weiterhin mit einer hdd pro volume arbeiten kann.

ICH MUSS auf raid umsteigen, entweder nas oder interner-controller
weil ich sonst nicht mein speicherbedarf erhöhen kann.

ich muss aus kostengrueden raid 0 machen weil ich nur 4 hdds habe.
also 2 mal raid 0 und ich mache manuelle backups von einem raid 0 auf dem anderen.
genauso wie ich es beim szenario 2 einzel-hdds all die vergangenen jahren gehändelt habe.

durch raid 0 verdoppelt sich mein speicherplatz pro volume.
was ich unbedingt benötige.
sicher ist das ein risiko aber ich habe sehr gute enterprise hdds, die hoffentlich nicht so schnell den geist aufgeben werden (wd ultrastar 14tb)


FRAGE ZUR CACHE-GRÖßE EINES RAID-CONTROLLERS:
ich sehe gerade dass es raid-controller mit 4gb cache gibt.

wenn ich meine daten intern von einem raid 0 auf dem anderen raid 0
kopiere/absichere ueber den raid controller, spielt es eine rolle
ob der cache des raid-controllers 1gb oder 4gb gross ist ?

kann ich diesen cache ausreizen mit datentransfers zwischen zwei
internene raid 0 bestehend aus 2 x wd ultrastar 14tb
die selbst 500mb cache haben ?

oder würde ich nicht mal 1gb ausreizen ?
 
Zuletzt bearbeitet von einem Moderator:
ksjdgzagt schrieb:
wenn ich die sata-system-ssd regulär am mainboard anschliesse (also nicht über die raid-karte)
und lediglich die 4 x hdds in je 2 x raid 01 ueber die raidkarte laufen lasse, dann muss ich
keine raid treiber während der windows installation installieren oder ?
Richtig, den RAID Treiber kannst Du dann auch erst nachher installieren, da der für die Systemplatte (also SSD) ja nicht gebraucht wird.
ksjdgzagt schrieb:
dann alle treiber mit hilfe von zb "snappy driver installer" installieren.
Zwar kenne ich dieses Tool nicht, würde aber generell dazu raten die Treiber selbst direkt von den Seiten der Hersteller der Hardware runter zu laden und zu installieren, da man nie weiß was die Tools auswählen und ggf. noch mit installieren.
ksjdgzagt schrieb:
ich muss aus kostengrueden raid 0 machen weil ich nur 4 hdds habe.
also 2 mal raid 0 und ich mache manuelle backups von einem raid 0 auf dem anderen.
Dann liegen nicht nur die Original- und die Backupdaten auf Medien die im gleichen Gehäuse sitzen und am gleichen Netzteil hängen, sondern auch noch am gleichen RAID Controller. Es war noch nie billig große Datenmengen sicher aufzubewahren, aber ich würde eine solche Konstruktion nicht empfehlen. Ein RAID 5 über die 4 HDDs und Backup auf USB Platten wäre deutlich sinnvoller.

Bei Dir werden ja beide RAIDs ständig mitlaufen, wenn Du Dir einen Verschlüsselungsvirus einfängt, verschlüsselt er beide und wenn Window mal abstützt, riskierst Du, dass beide Filesystem korrupt werden. Das ist so wirklich nur ein Backup welches einen minimalen Schutz bietet, nämlich wirklich nur bei Ausfall einer Platte.
ksjdgzagt schrieb:
sicher ist das ein risiko aber ich habe sehr gute enterprise hdds, die hoffentlich nicht so schnell den geist aufgeben werden (wd ultrastar 14tb)
Es geht ja nicht nur um Totalausfälle, bei einem Lesefehler hast Du sofort Datenkorruption beim RAID 0, welches eigentlich AID 0 heißen müsste, denn das R in RAID steht für Redundanz und die fehlt beim RAID 0 eben. Bei einem echten RAID, also einem mit Redundanz und nicht einem RAID 0, bekommt man keine Lesefehler wenn eine HDD mal einen Sektor nicht lesen kann, weil die RAID Controller (ggf. RAID SW) bei Lesefehlern die Daten aus den Daten der anderen Platten rekonstruiert und den Sektor überschreibt bei denen der Lesefehler aufgetreten ist. Deshalb zeigen die HDD in solchen echten RAID normalerweise auch keine schwebenden Sektoren.

Das Problem der Lesefehler ist, wie die Programme die den Aufrag zum Lesen bekommen haben, damit umgehen und wenn das Programm den ignoriert, dann merkst Du gar nicht, dass eine Datei falsch eingelesen wurde.
ksjdgzagt schrieb:
wenn ich meine daten intern von einem raid 0 auf dem anderen raid 0
kopiere/absichere ueber den raid controller, spielt es eine rolle
ob der cache des raid-controllers 1gb oder 4gb gross ist ?
Wir reden von zwei RAID mit je 28TB, wie viel Prozent machen 1 bzw 4GB davon aus? Ein Cache funktioniert auf dem Prinzip wiederholte Zugriffe zu beschleunigen, aber wenn Du da 28TB von einem auf das andere RAID kopierst, wird da nicht viel wiederholt gelesen. Vergiss also die Cachegröße, zumindest für die Dauer des Backups wird diese keine Rolle spielen und achte besser darauf, dass es ECC RAM ist, denn manche stecken da auch gerne einen größeren Riegel auf einem alten PC rein der dann kein ECC hat.
 
  • Gefällt mir
Reaktionen: Racer11 und ksjdgzagt
ist es ersteinmal sch...egal ob der ecc-ram registered ist oder non-unbuffered ?
hauptsache ecc-ram ranschaffen weil besser und sicherer als non-.ecc ?

ich dachte als neues mb an: asus rog zenith extreme alpha
und asus sagt:

8 x DIMM, Max. 128GB, DDR4 3600(O.C.)/3200(O.C.)/2800(O.C.)/2666/2400/2133 MHz ECC and non-ECC, Un-buffered Memory
 
Erstmal ist wichtig das zu nehmen was dein Board unterstützt. Also in deinem Fall nicht registered und non-unbuffered. Das ist für Server und hätte im Prinzip zusätzliche Treiber für die RAM Bausteine. Aber da wo du das gefunden has,t war auch ein Verweis auf die Liste des unterstützten Speichers.
 
ich habe noch kein board...
das war geplannt als anschaffung...weil die amd t4 cpus guenstiger sind
aber wenn ich alles wegen ecc-ram umkrempele dann erscheint mir das hier besser:
asus ws c621e sage

da habe ich keine diskussionen ob registered ode nicht.
preis wäre ungefaehr gleich und ich will einige jahre ruhe haben ! :-)
 
WIe gesagt "registered" brauchen nur Serverboards die sonst nicht in der Lage sind mit der Last auf dem Speichbus klar zu kommen.
Aber ehrlich Boards dieser Klasse würde ich nicht gerade bei Asus kaufen. Entweder nimmst du was fertiges von HP/Krenn/Dell oder wenn du unbedingt basteln willst schau dich bei Herstellern um, die eher im Servergeschäft sind wie zB. Supermicro.
 
ksjdgzagt schrieb:
egal ob der ecc-ram registered ist oder non-unbuffered ?
non-unbuffered?? Du meinst wohl non-buffered, also unbuffered.
ksjdgzagt schrieb:
asus rog zenith extreme alpha
Das ist ein X399er Board und die X399er unterstützen nur unbuffered RAM.
ksjdgzagt schrieb:
und asus sagt:

8 x DIMM, Max. 128GB, DDR4 3600(O.C.)/3200(O.C.)/2800(O.C.)/2666/2400/2133 MHz ECC and non-ECC, Un-buffered Memory
Es hängt immer vom Board ab was für RAM Typen man braucht, es gibt da UDIMM (unbuffered), RDIMM (Registered) und LRDIMM (Load Reduced und buffered).
Groug schrieb:
WIe gesagt "registered" brauchen nur Serverboards die sonst nicht in der Lage sind mit der Last auf dem Speichbus klar zu kommen.
Nein, mit der Last hat dies nichts zu tun, die ist bei RDIMM sogar höher, weshalb ja auch das LRDIMM eingeführt wurde.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
"Nein, mit der Last hat dies nichts zu tun, die ist bei RDIMM sogar höher, weshalb ja auch das LRDIMM eingeführt wurde."

also wäre lr-ecc am sinnvolsten wenn ich dich richtig verstehe ?
wieviele riegel sollte man mindestens nutzen ?

ich frage weil asus fuer das "asus ws c621e sage" nur ein riegel nennt auf deren kompatibilitätsliste:
https://dlcdnets.asus.com/pub/ASUS/...194.817460944.1568378645-268841467.1567434223

CT64G4LFQ4266.36DB2 (= 64gb = ca 400 eur)
kann ich nur dieses 64 riegel laufen lassen oder wäre besser dualchannel mit 2 zu machen ?[/QUOTE]
 
Zurück
Oben