News QNAP TS-h3077AFU: All-Flash-NAS für 30 SSDs setzt auf Ryzen 7000

Nagilum99 schrieb:
Hast du den Artikel gelesen
Ja hab ich und habe das Produkt technisch und preislich danach für unattraktiv befunden.

Nagilum99 schrieb:
oder wolltest du nur draufschlagen und dich lächerlich machen?
Es sind Erweiterungsslots vorhanden - und ab Werk leer. Explizit z.B. für 100G.
Hab ich gelesen und gesehen, nützt aber nichts, weil offensichtlich bei 30 Platten Schluss ist und es Geräte gibt, die 100G ab werk liefern. Auch im Entrylevel.

Nagilum99 schrieb:
Üblicherweise beherrschen die Kisten RSYNC o.ä. methoden um zumindest zyklisch einen Sync auf ein Backupsystem zu machen.
Weiß ich, ich muss damit mein Geld verdienen.

Nagilum99 schrieb:
Aber nicht nur, dass du weder gelesen noch geschaut hast: 100G für zusätzliche Shelves? Da fehlt wohl mehr Know-How.
Das fehlt offenbar dir. Du bist wie xexex ein Klugsheißer (Entschuldigung) mit viel Meinung, ohne das Gleiche Maß Ahnung.
RDMA, RoCE, schon mal gehört? Wenn nicht, frisch dein fehlendes
Nagilum99 schrieb:
auf.

Nagilum99 schrieb:
Shelves bindet man üblicherwiese über PCIe (unüblicher) oder SAS (üblicher) an, ggf. auch FC.
Ich wüsste keinen der da einen Umweg über 100G hampelt.
Euer, oder dein Problem ist, dass Speichersysteme für euch/dich lediglich ein lokaler Computer mit vielen Festplatten sind. In eurer/deiner Heim-PC-Denkweise glaubt ihr dann, Festplatten werden nur mit SAS, S-ATA, ATA, SCSI, oder PCIe angeschlossen. Leider ist das im professionellen Bereich der Speichersysteme nicht der Fall. Weil man eine PCIe Lane nicht einfach über 100 Kilometer an den Cluster/HA-Partner rausgeben kann.
Es wird sogar noch verrückter, Speichersystem und Platten werden nicht mal direkt miteinander verbunden, sondern über dedizierte 100G Switche, um dem Partner 100 Km entfernt direkten zugriff auf die Platten und die Backendkommunikation untereinander zu gewähren.
Auch das umsetzen von SAS zu FC ist gebräuchlich, um größere Distanzen zu überwinden.
Die Firma ATTO hat da geeignetes Zubehör im Sortiment.

Nagilum99 schrieb:
wolltest eigentlich nur du, auf mich und hast dich damit nur selbst
Nagilum99 schrieb:
gemacht.

Wie ich weiter oben schon einmal schrieb, egal, du hast recht und ich (jetzt hoffentlich) meine Ruhe.
 
Zuletzt bearbeitet:
Weil ZFS aus Beschleunigungsgründen viel im RAM puffert/vorhält, speziell wenn man Funktionen wie Deduplizierung nutzt. Deswegen ist die große Menge an RAM auch sinnvoll. Es gibt viel Literatur zu ZFS, wenn du neugierig bist, einfach mal etwas googlen (ich hab grad keinen Link zur Hand).
Ergänzung ()


Edit: Super, der Compterbase Automergebot schnibbelt Zitate weg und entfernt damit auch das Tagging. Scheint mir nicht so zuendegedacht...

Dr. MaRV schrieb:
Ja hab ich und habe das Produkt technisch und preislich danach für unattraktiv befunden.
Was ich im Übrigen weiter oben schon angemerkt habe.

Dr. MaRV schrieb:
In eurer/deiner Heim-PC-Denkweise
[...]
Wie ich weiter oben schon einmal schrieb, egal, du hast recht und ich (jetzt hoffentlich) meine Ruhe.
Nice try, das mit dem Recht nehme ich dennoch an. ;)
(X... Beiträge erscheinen bei mir aus gutem Grund nicht mehr)
Ergänzung ()

Dr. MaRV schrieb:
Es gibt diese Geräte nur mit Platten, der endgültige Preis richtet sich nach Art und Kapazität.
Jede Platte verfügt über zwei Datenpfade und weist dadurch andere Anschlüsse auf, als das was in Qnap, Synology und Heimrechnern Anwendung findet.
Prinzipiell übrigens falsch. Es gibt auch von QNAP & co SAS-Systeme, IIRC von Synology sogar als Dual-Head.

Dr. MaRV schrieb:
Kleine HA-Systeme bestehen aus zwei separaten Systemen, welche auf die selben Platten zugreifen und sich dabei ein Gehäuse teilen.
Sämtliche Komponenten und Datenpfade sind mind. doppelt vorhanden, womit Redundanz gegeben ist und erfüllt wird,

Egal, du hast recht und ich meine Ruhe.
Ein Prominenter Vertreter ist HPEs MSA-Serie. Laufen bei uns seit vielen Jahren (und haben im Übrigen den erwähnten SAS-Anschluss, genau wie die SMB Hitachi Systeme für weitere Shelves, nicht anders als QNAP/Synology das z.T. machen). Klassisches Heimanwenderzeug halt.
Die größeren EVA arbeiten, AFAIK wie Netapp, dort primär mit FC.
 
Zuletzt bearbeitet:
Nagilum99 schrieb:
Ein Prominenter Vertreter ist HPEs MSA-Serie. Laufen bei uns seit vielen Jahren (und haben im Übrigen den erwähnten SAS-Anschluss, genau wie die SMB Hitachi Systeme für weitere Shelves, nicht anders als QNAP/Synology das z.T. machen). Klassisches Heimanwenderzeug halt.
Die größeren EVA arbeiten, AFAIK wie Netapp, dort primär mit FC.
NetApp arbeitet seit über 10 Jahren nicht mehr mit FC zur Shelfanbindung. Sie nutzen SAS 12 Gb/s (IOM12) mit Mini-SAS HD, oder 100GbE mit QSFP. Vor einigen Jahren nutzte man noch SAS 6Gb (IOM6) mit QSFP. Das ist alles andere als Heimanwenderzeug, nicht mal das Protokoll findet im Heim PC (großartig) Anwendung.
Du kannst in solchen Systemen nicht einfach irgendwelche Festplatten einbauen. Sie würden nicht erkannt werden und demzufolge auch nicht funktionieren. Systeme dieser Art stehen nur im Support, wenn sie innerhalb der vom Hersteller vorgegebenen Kompatibilitätsmatrix betrieben werden. Dabei geht es nicht um den Hersteller der Festplatte, sondern vielmehr um die richtige Kombination aus Firmware auf dieser, Betriebssystemversion und Speichersystemmodell. Das zieht sich durch bis zu den Backendswitchen, deren Modell und OS-Version. Die Kröte die man schlucken muss, passende Platten mit passender FW gibt's nur vom Hersteller, ist also auch kein Heimanwenderzeug. Im Heimrechner kann man den Krempel teils auch nur mit Aufwand und Umwege benutzen, da sie mitunter mit anderer Blocksize formatiert sind, bspw. 520 statt 512 Kb.

FC wurde zuletzt ausschließlich beim MC-FC genutzt, per ATTO Bridge, um von SAS auf FC umzusetzen und so dem Partner direkten zugriff auf die eigenen Spiegelplatten über eine Backend-Fabric zu gewähren. Der MC-FC wird seit Jahren vom MC-IP verdrängt. Man spart sich die dedizierte FC Infrastruktur und die Protokollumsetzer. Shelves werden, je nach Shelfmodell mit 100 GbE (NSxxx), oder mini-SAS HD (DSxxxx) angeschlossen. Die Platten-Daten laufen beim MC-IP zwischen den Partnern über ein separates dediziertes VLAN per iSCSI auf dedizierten Ethernet-Ports. FC ist nicht sonderlich schnell und damit für Flash-Systeme nachteilig. Die Daten des NVRAM gleichen die Partner mit iWARP über Ethernet ab. Sind die Shelves direkt mit dem Controller verbunden kommt RoCE zum Einsatz, oder eben SAS (je nach Shelfmodell).


Nagilum99 schrieb:
Prinzipiell übrigens falsch. Es gibt auch von QNAP & co SAS-Systeme, IIRC von Synology sogar als Dual-Head.
Ich bezog mich nicht auf doppelte Controller, oder SAS als Protokoll, sondern darauf, dass die Festplatten über einen A- und einen B-Datenpfad verfügen und jeder der beiden Controller, jede Platte über jeden dieser Pfade erreichen kann. Es gibt jemanden der spricht HA-Systemen die Redundanz ab, wenn sie sich nicht in getrennten Gehäusen an verschiedenen Standorten befinden. Dabei wird auf "abgebrannte" Backplanes rumgeritten. Die wiederum nichts anderes als dumme Epoxidplatten mit ein paar Widerständen, Kondensatoren und Leiterzügen aus Kupfer sind. Wenn die abbrennen, hast du ganz andere Probleme, dann geht in deinem System grundsächlich etwas völlig daneben, auch Backplanes sind und kann man redundant auslegen.


Des Pudels Kern dieser News war, so glaube ich, auch nicht das Speichersystem sondern viel mehr der AMD-Prozessor im inneren, der bei diesen Geräten eher selten zum Einsatz kommt. Intel Xeon sind hier eigentlich dominierend.
 
  • Gefällt mir
Reaktionen: Nagilum99
Nagilum99 schrieb:
Weil ZFS aus Beschleunigungsgründen viel im RAM puffert/vorhält, speziell wenn man Funktionen wie Deduplizierung nutzt. Deswegen ist die große Menge an RAM auch sinnvoll. Es gibt viel Literatur zu ZFS, wenn du neugierig bist, einfach mal etwas googlen (ich hab grad keinen Link zur Hand).
Ist aber noch immer keine Begründung für: Bei ZFS ist fehlendes ECC fragwürdig. Im RAM Cachen machen andere OS / Dateisysteme auch.

Andere User haben es ja schon dargelegt, bzw. mit Links untermauert: ECC ist bei ZFS genauso sinnvoll, wie es bei anderen Dateisystemen auch ist, bzw. das Feheln überall „gleich fragwürdig“.

Aber das ECC ZFS Märchen hält sich wacker.
 
Dann beleg doch mal was 'andere' Dateisysteme so an RAM belegen.
Ich hab für dich Google benutzt: https://www.truenas.com/community/resources/zfs-de-duplication-or-why-you-shouldnt-use-de-dup.205/
Jetzt bitte deine Angaben, welche anderen Dateisysteme ähnlich viel RAM benötigen (oder haben sollten um optimal zu performen) - natürlich mit Quellen. ;-)
Ergänzung ()

Dr. MaRV schrieb:
NetApp arbeitet seit über 10 Jahren nicht mehr mit FC zur Shelfanbindung. Sie nutzen SAS 12 Gb/s (IOM12) mit Mini-SAS HD, oder 100GbE mit QSFP. [...]

FC wurde zuletzt ausschließlich beim MC-FC genutzt, per ATTO Bridge, um von SAS auf FC umzusetzen und so dem Partner direkten zugriff auf die eigenen Spiegelplatten über eine Backend-Fabric zu gewähren. Der MC-FC wird seit Jahren vom MC-IP verdrängt. Man spart sich die dedizierte FC Infrastruktur und die Protokollumsetzer. Shelves werden, je nach Shelfmodell mit 100 GbE (NSxxx), oder mini-SAS HD (DSxxxx) angeschlossen. Die Platten-Daten laufen beim MC-IP zwischen den Partnern über ein separates dediziertes VLAN per iSCSI auf dedizierten Ethernet-Ports. FC ist nicht sonderlich schnell und damit für Flash-Systeme nachteilig. Die Daten des NVRAM gleichen die Partner mit iWARP über Ethernet ab. Sind die Shelves direkt mit dem Controller verbunden kommt RoCE zum Einsatz, oder eben SAS (je nach Shelfmodell).



Ich bezog mich nicht auf doppelte Controller, oder SAS als Protokoll, sondern darauf, dass die Festplatten über einen A- und einen B-Datenpfad verfügen und jeder der beiden Controller, jede Platte über jeden dieser Pfade erreichen kann. Es gibt jemanden der spricht HA-Systemen die Redundanz ab, wenn sie sich nicht in getrennten Gehäusen an verschiedenen Standorten befinden. Dabei wird auf "abgebrannte" Backplanes rumgeritten. Die wiederum nichts anderes als dumme Epoxidplatten mit ein paar Widerständen, Kondensatoren und Leiterzügen aus Kupfer sind. Wenn die abbrennen, hast du ganz andere Probleme, dann geht in deinem System grundsächlich etwas völlig daneben, auch Backplanes sind und kann man redundant auslegen.


Des Pudels Kern dieser News war, so glaube ich, auch nicht das Speichersystem sondern viel mehr der AMD-Prozessor im inneren, der bei diesen Geräten eher selten zum Einsatz kommt. Intel Xeon sind hier eigentlich dominierend.
Wir hatten neulich eine ältere Netapp in der Hand, die - sehr weird - SAS mittels QSFP-Kabeln umgesetzt hat, wenn ich mich richtig erinnere. Vermutlich ein Baustein von "kauf unseren teuren Kram".
Ich selbst habe Netapp nur einmal versucht und aus Preisgründen nicht mehr erwogen. Ja, tolles Zeug, große Versprechen (die sie zumindest zum Teil wohl auch einhalten) aber auch sackteuer.

Die HPE EVA bzw. 3PAR nutzen/nutzten FC für den Uplink, IIRC zum Teil sogar komplett bis an die Platten - wobei sie letzteres sie aber irgendwann AFAIK aufgegeben haben.

Ich hätte erwartet dass 100GE RDMA/RoCE hin oder her zu hohe Latenzen erzeugt - was ja auch ein Grund für immernoch währende Existenz von IB ist. Ich bin nach wievor mehr von FC als von iSCSI überzeugt.
Du willst sagen 100G iSCSI performt signifikant besser als FC64G?
Mit iWARP habe keine Erfahrung, vielleicht habe ich mal die Muße im Internet nach tiefergehenden Vergleichen zu suchen.
Immerhin hat SAS24G langsam Verbreitung gefunden, ob 48 noch folgt ist aber wohl fraglich.

Die MSA können, AFAIK, nur Pfad A -> Controller A, B -> B. Das reicht mir allerdings auch.
Das Risiko, dass das Ding ganz abraucht ist nochmal erheblich geringer als das versterben eines Controllers.
Im Zweifel gibt es Backups oder Replikationen mit minimalen Datenverlusten.
Echzeitspiegelung mit nur 2 Systemen sind auch nicht ohne Stolperfallen.

AMD Ryzen in NAS Systemen sind ja aber nun nicht mehr SOO unüblich, wobei die Nutzung von ECC natürlich naheliegt, wenn die CPUs es schon können - und der Aufpreis eher moderat ist.
 
Zuletzt bearbeitet:
Zurück
Oben