HP ProLiant N36L

jnreinwa schrieb:
hdparm -Y geht anscheinend nicht. Wie hdparm -C zeigt, ist die Platte danach ebenfalls in standby (-y) und nicht sleep.
hdparm -S macht anscheinend leider auch nichts... Jedenfalls geht sie nicht nach einiger Zeit in standby. Hab schon ein bisschen geschaut, hab aber keine Anleitung gefunden, die mir erklärt wie man es unter Linux am Besten macht. Vielleicht macht es ja sogar der Kernel... Ich werde weiter nachforschen...

Achja: Bei meinen beiden WD20EARS habe ich mit wdidle3 diesen "Idle3-Timer" von 8 auf 60 erhöht. Ist so sicherer mit Linux. Auch wenn das wohl nur für die root Partition wichtig ist. Aber wer weiß wo die Platten noch landen... Jedenfalls scheint es auch ein bisschen bei der Leistungsaufnahme der Platten zu helfen.

hdparm funktioniert bei mir auch nicht. Deswegen würde ich wdidle3 auch verwenden wollen. Wie genau ist die Vorgehensweise? Ich habe mir von WD (http://support.wdc.com/product/download.asp?groupid=609&sid=113&lang=en) das Tool besorgt und von FreeDOS die Full-CD (http://www.ibiblio.org/pub/micro/pc-stuff/freedos/files/distributions/1.0/fdfullcd.iso). Ist das korrekt soweit?
 
cbuilder schrieb:
hdparm funktioniert bei mir auch nicht. Deswegen würde ich wdidle3 auch verwenden wollen. Wie genau ist die Vorgehensweise? Ich habe mir von WD (http://support.wdc.com/product/download.asp?groupid=609&sid=113&lang=en) das Tool besorgt und von FreeDOS die Full-CD (http://www.ibiblio.org/pub/micro/pc-stuff/freedos/files/distributions/1.0/fdfullcd.iso). Ist das korrekt soweit?

Das ist so weit korrekt. Du musst nur noch von der CD booten. Es könnte sein, dass das auch per USB-Stick geht! Im BIOS kann man nämlich einstellen, dass er den Stick als CD-ROM emuliert. Da müsste man vermutlich einfach das ISO direkt in das Device schreiben. Also sowas wie
Code:
cat /tmp/fdfullcd.iso > /dev/sdX
Das hab ich aber selbst noch nicht ausprobiert.

Bei mir hat das aber mit Grub geklappt. Die Anleitung hier funktioniert also nicht nur mit richtigen Floppies, sondern auch mit der FDD-Emulation im BIOS. Allerdings hat der Grub auch bei Verwendung der HDD-Emulation gebootet.

Falls dir das jetzt alles zu viel Linux-Wissen voraussetzt, frag einfach nach. Ich habe mich bewusst kurz gefasst ;)

FreeDOS müsste dann relativ einfach auf andere Laufwerke zugreifen können. Zumindest wenn sie FAT formatiert sind. Ich empfehle einen (zweiten) USB-Stick. Dort das wdidle3 drauf kopieren und unter FreeDOS dann einfach ausführen. Ist relativ einfach zu benutzen und die Doku wdidle3.txt ist auch brauchbar. Man muss halt die Laufwerksbuchstaben rauskriegen, unter denen die USB-Sticks zu finden sind... Falls du dich nicht gut genug mit DOS auskennst, auch einfach nachfragen. Bevor ich Linux hatte, war ich "überzeugter" DOS-Benutzer ;)

Nebenbei: hdparm -S funktioniert doch! Ich werde noch ausführlicher Posten, wenn ich es genauer analysiert habe :)
 
Ich habs geschafft, war aber etwas ungewohnt für mich. FreeDOS habe ich vom USB-Stick gebootet, der mittels Unetbootin präpariert wurde. Der Bootloader war etwas verwirrend, da viele Optionen angeboten wurden. Letztendlich hat dann der Eintrag "fdos" funktioniert. Das wdidle3-Tool hatte ich vorher noch in einen Unterordner auf dem Stick kopiert. Das "Betriebssystem" an sich ist fürchterlich, aber wenigstens konnte ich den Timer auf 300 Sekunden setzen.

@jnreinwa: Wie du hdparm zum Laufen bringst, würde mich mal interessieren :)
 
cbuilder schrieb:
@jnreinwa: Wie du hdparm zum Laufen bringst, würde mich mal interessieren :)

Sorry, die Antwort hat etwas gedauert. Hab zur Zeit ein bisschen was um die Ohren...

Hab die Sache nochmal weiter untersucht. Also das hdparm funktioniert bei mir "irgendwie" einfach.

Wie schon die Manpage von hdparm sagt, müssen die Werte nicht unbedingt nach Standard interpretiert werden...

Die zweite Aussage der folgenden Zeile der "hdparm -I " Ausgabe sollte man aber ernst nehmen:
Standby timer values: spec'd by Standard, with device specific minimum
Und genau so ist es! Kleine Werte werden wie größere interpretiert. Ich hab mal einige Werte ausprobiert:
  • 0 schaltet das Feature in der Tat aus.
  • 1 und 2 sorgen dafür, dass die Platte nach ziemlich exakt 10 oder 15 Minuten einschläft. Vermutlich geht das so weiter, bis man das "device specific minimum" erreicht. Was auch immer das ist...
  • 10 hat bei ein paar Versuchen zu einem Einschlafen nach 10 oder 20 Minuten geführt.
  • 100 setzt 10 Minuten oder wahrscheinlich einfach im Wesentlichen das selbe wie die anderen davor.
  • 200 führte zu ziemlich exakt 16 Minuten! Das ist ungewöhnlich verglichen mit den anderen Werten, aber entspricht genau dem Standard (200*5/60=16.67)!
  • 240 ist der höchste Wert, der zu exakt 240*5/60=20 Minuten führen sollte. Bei mir liefen die Platten aber fast immer 30 Minuten ehe sie einschliefen...
  • 241 sollte laut Standard dann einen Sprung auf (241-240)*30=30 Minuten machen. Aber so schlafen die Platten auch nach 2 Stunden nicht ein... Höhere Werte habe ich nicht probiert, weil ich keine Lust mehr hatte ;)

Ich hab jetzt einfach in /etc/init.d/boot.local beide auf 240 gesetzt. So taugt es mir. Schlafen sei ein, sinkt die Leistungsaufnahme von 25 W auf 20 W nicht schlecht! Wenn dann wieder auf die Platten zugegriffen wird, dauert es 1 bis 2 Sekunden, bis sie aufwachen.

Achja: Platte mit "hdparm -C" auf den aktuellen Status überprüfen. Der Befehl und auch SMART-Abfragen wecken die Platten auch nicht auf, bzw halten sie nicht vom Einschlafen ab. "hdparm -S" selbst weckt die Platten allerdings, bzw verhindert das Einschlafen.
 
Ich wollte meine qnap-210 auch durch so einen kleinen HP-Server ersetzen.

Meine Hauptgedanke war aber, dass ich Windows Server 2008 einsetzen möchte. Hat damit jemand Erfahurng? Ich möchte die alten 2 x 1TB als JPOD einsetzen so dass es 2 TB ergibt.

Kann man das Teil auch gleich mit Windows 2008 bestellen, wenn ja wo?

Vielen Dank
 
zum Thema Stromverbrauch:
der Server läuft bei mir jetzt ca. seit 3 Wochen durch. Zu Anfang lag er im Leerlauf (Platte
Spin down, OS auf SSD) bei 18,5W hat sich aber nach ein paar Tagen auf ca. 20W eingependelt. Ich habe nie rausgefunden was diesen Anstieg verursacht hat, weil ich viele
Experimente gemacht habe habe ich den Überblick verlohren *G*. Nun habe ich am
WE einmal durchgebootet und danach war er wieder bei ca. 18,5W. Da lief also irgendwas
und hat Strom verbraucht, ich muss mal testen ob alles noch wie gewünscht läuft.
 
es gibt ein neues BIOS: 2011.01.17 (A) (28 Feb 2011)

von den Änderungen hört sich das hier evtl. sinnvoll an:
Resolved an issue where incorrect information was contained in the SMBIOS Memory Array Mapped Address (Type 19) which can result in system hang if certain applications use the incorrect information.
 
Was mich noch interessieren würde. Habt ihr DAten über den Netzwerkdurchsatz in MB/s?

Mich würde v.a. Windows Server 2008 interessieren oder FreeNAS mit dem smb-Protokoll
 
@termito: ich habe neulich das SP1 von Windwos7 auf einem ebensolchen Rechner runtergeladen und auf den Server (Suse 11.3) geschrieben. Das ging laut Windows-
Kopierdialog mit ca. 100MB/Sek, das dürfte auch das Obere Maximum sein,
von einem alten XP Rechner aus komme ich auf gemessene 60MB. Das Tempo
schwank merkwürdigerweise auch etwas, obwohl ich meist gleich große (ca. 1GB)
Dateien hochlade habe ich auf dem W7-Rechner auch schon mal nur 66MB gehabt.
Hm, ich denke man kann sagen: die Hardware ist für 100MB gut, aber die Software
will nicht immer :-)
 
Das Gerät klingt ziemlich interessant! Danke für die ausführlichen Infos an dieser Stelle.

Hat auch jemand Windows 7 auf dem Gerät laufen? Das sollte ja wahrscheinlich auch kein Problem sein? Der Server könnte damit einen momentan laufenden Windows XP Rechner ersetzen, auf den ab und zu auch einmal per VPN zugegriffen werden soll, um mal ein Word Dokument lokal zu bearbeiten oder ähnliches.

Ist es heutzutage noch empfehlenswert SATA Server Platten für den 24 Stunden Betrieb zu kaufen, oder geben sich die Platten von der Haltbarkeit her nicht mehr viel?

Viele Grüße
Sascha
 
zitronenzüchter schrieb:
@termito: ich habe neulich das SP1 von Windwos7 auf einem ebensolchen Rechner runtergeladen und auf den Server (Suse 11.3) geschrieben. Das ging laut Windows-
Kopierdialog mit ca. 100MB/Sek, das dürfte auch das Obere Maximum sein,
von einem alten XP Rechner aus komme ich auf gemessene 60MB. Das Tempo
schwank merkwürdigerweise auch etwas, obwohl ich meist gleich große (ca. 1GB)
Dateien hochlade habe ich auf dem W7-Rechner auch schon mal nur 66MB gehabt.
Hm, ich denke man kann sagen: die Hardware ist für 100MB gut, aber die Software
will nicht immer :-)

Dir ist schon klar, dass diese Transferraten ungefähr im Bereich aktueller Festplatten liegen, oder? Mach doch den Test mal lokal und vergleiche die Geschwindigkeit. Sollte dann noch ein paar Prozent (Overhead, der lokal wegfällt) schneller sein, wenn du von einer Platte auf eine andere kopierst. Geht bei RAID natürlich nicht. Das müsste lokal deutlich langsamer sein...
Da du Linux hast, ist hdparm -t auch ein guter Hinweis. Meine Hitachi HDT721050SLA360 (500GB) hier auf Arbeit macht knapp über 100 MB/s beim lesen.
Ergänzung ()

SaschaB schrieb:
Ist es heutzutage noch empfehlenswert SATA Server Platten für den 24 Stunden Betrieb zu kaufen, oder geben sich die Platten von der Haltbarkeit her nicht mehr viel?

Es ist wohl immer sinnvoll Platten für den 24h-Betrieb zu kaufen, wenn man genau das vorhat!
Gerade in einem MicroServer muss man da aber gut überlegen! Die c't in Ausgabe 2/2011 ab Seite 146 wurden Festplatten für die kleinen NAS-Teile getestet. Sie stellen gleich klar, dass man für zu Hause wohl eher stromsparende, leise Platten haben will. Da können auch lange laufen, wenn sie sich meistens im Idle-Zustand befinden. Erst wenn wirklich ständig auf die Platten zugegriffen wird, sollen sich Server-Platten rentieren.
Der Artikel ist sehr interessant! Er weißt auch auf einen Kompromiss hin: Western Digital Caviar RE4-GP. Stromsparend, leise, aber auch "Server-tauglich". Nur der Preis richtet sich anscheinend leider nach dem von Server-Platten...

Fazit: Kommt ganz darauf an, was du mit dem N36L "anstellen" willst.
 
@jnreinwa: ganz einfach kannst du es dir jetzt nicht machen *g*
a) schwankt die Transferrate auch auch von der selben Platte
b) habe ich mir natürlich auch Gedanken zu den beteidigten
Platten gemacht und ein paar Tests mit einem 4GB Ramdrive
auf der Clientseite und der SSD vom OS auf der Serverseite
gemacht. Die Datenplatte macht lokal ca. 130 MB/s und die
SSD 180. Abschließend kann ich nur sagen, der Sever kommt
auf 100MB/s oder etwas drüber, macht bei mir (liegt evtl.
auch am Netzwerk) aber immer mal wieder etwas
schlapp und bricht auf 60 ein. Alles mit großen Dateien
natürlich! Kann man aber mit zufrieden mit sein denke ich :)
 
zitronenzüchter schrieb:
@jnreinwa: ganz einfach kannst du es dir jetzt nicht machen *g*

Ich meinte damit auch eher, dass das alles schwerer macht! Wenn du an der Grenze der Leistungsfähigkeit der Platte misst, ist der Schuldige letzten Endes nicht leicht zu ermitteln. Es können da durchaus so Probleme im Zusammenspiel auftreten, die sich bei den Einzelkomponenten nicht verifizieren lassen. Eine SSD und/oder RAM-Disk zu verwenden schließt schon mal die Plattenleistung aus. Jetzt könnte man noch nach schauen, wie viel über das nackte Netz geht. Ist gar nicht so einfach! Gehen da aber 1Gbps (netto gut 120 MB/s) rüber, dann ist es auch nicht das Netz. Bleibt das IO-System. Das sollte es nun wirklich nicht sein (ungefähre Werte bekommt man mit hdparm -T, wenn ich mich recht entsinne). Wäre da noch das CIFS-Protokoll von Samba. Das kann man wohl nicht einzeln testen... Und gerade das hängt auch vom Prozessor ab...

a) schwankt die Transferrate auch auch von der selben Platte

Ja! Schuld daran sind sogar verschiedene Faktoren:
- Festplatten bestehen intern aus mehreren Einzelplatten, die jeweils im Außenbereich deutlich schneller sind.
- Die Daten können in dieser internen Struktur ungünstig verteilt sein.
- Die internen Caches und Controller der Platte machen eine Vorhersage der zu erwartenden Transferrate schwierig. Das Betriebssystem hat dann ja nochmal einen Cache...
- Die Partitionsgrenzen können bei modernen Platten, die intern 4KB-Sektoren benutzen, dies aber nicht nach außen melden, nach altem MS-DOS/WinXP/Linux-Standard ausgerichtet sein. Dadurch bricht die Schreibperformance (und nur die!) um bis zu 20% ein.
- Liegt da auch noch ein RAID dazwischen wünsche ich viel Spaß bei weiteren Überlegungen wie sich das auswirkt :)

Diese Liste erhebt keinen Anspruch auf Vollständigkeit...

b) habe ich mir natürlich auch Gedanken zu den beteidigten
Platten gemacht und ein paar Tests mit einem 4GB Ramdrive
auf der Clientseite und der SSD vom OS auf der Serverseite
gemacht. Die Datenplatte macht lokal ca. 130 MB/s und die
SSD 180. Abschließend kann ich nur sagen, der Sever kommt
auf 100MB/s oder etwas drüber, macht bei mir (liegt evtl.
auch am Netzwerk) aber immer mal wieder etwas
schlapp und bricht auf 60 ein. Alles mit großen Dateien
natürlich! Kann man aber mit zufrieden mit sein denke ich :)

Denke ich auch. Bei gut 120 MB/s liegt die Grenze des Netzes und damit wohl insgesamt der Flaschenhals. Den Rest wird vermutlich der Overhead von CIFS/Samba fressen. Ein schnellerer Prozessor könnte hier wohl nur ein bisschen beschleunigen.
Danke jedenfalls für die ausführlichen Messungen!

Irgendwie hast du mein Interesse geweckt. Vielleicht werde ich zu Hause noch ein paar Tests machen. Vor allem mit dem Netzwerk. Ich werde heute oder morgen einen neuen Switch in Betrieb nehmen. Den könnte ich dann gleich mit testen. Sollte schneller sein als der alte. Außerdem ist er "Smart-Managed", mit QoS. Ob ich darauf aber Lust habe...
 
@jnreinwa:
ich habe bei mir schon eher das Netz mit in Verdacht. Der Switch ist ein eher preiswerter, die Kabel, Dosen, Patchfeld ebenfalls, teilweise sind Kabelverbinder eíngebaut. Das ganze erstreckt sich über ein 3 Familienhaus, es sind 16 Geräte drin (alles wild gemischt) und einige sind nicht in meinem Einflußbereich und da sind Sachen bei wie Ferseher und Verstärker die mit "Hallo hier bin ich" um sich werfen. Also alles etwas gestrickt :-)

>Jetzt könnte man noch nach schauen, wie viel über das nackte Netz geht.
habe ich auch mal gemacht, lag bei knappen 900MBit wenn mich nicht alles
täuscht... war jedenfalls nicht ungewöhnlich

>Ja! Schuld daran sind sogar verschiedene Faktoren
wir bekannt :)
 
@jnreinwa Vielen Dank für den Hinweis mit dem c´t Artikel, ich habe ihn gerade einmal durchgelesen. Da das Gerät wenn es sich bewärt auch in einem kleinen Büro zum Einsatz kommen soll, werde ich wohl auf Platten mit Raid Unterstützung setzen.
Da die Datenmenge noch unterhalb der 200 GB liegt, werden es wohl fürs erste 2 500er WD RE4.

Ist das Software Raid 1 vom Betriebssystem abhängig?
 
SW Raid ist betriebsystem abhängig! Das ist der Nachteil dadran...
 
Novocain schrieb:
SW Raid ist betriebsystem abhängig! Das ist der Nachteil dadran...

Okay das dachte ich mir.
Wenn er für den Server 2008 R2 zertifiziert ist, sollte das ja dann auch mit Win7 Prof x64 funktionieren?
 
Also ihr verwirrt mich...

Novocain schrieb:
SW Raid ist betriebsystem abhängig! Das ist der Nachteil dadran...

OS-abhängig? Ja, natürlich! Ein Nachteil?!?!?! Beispiel Linux: Mit hunderten verschiedener Varianten, die kostenlos im Netz verfügbar sind, kann man darauf zugreifen.

Hardware-RAID ist dagegen "nur" von der Hardware abhängig. Tolle Sache! Hardware kaputt, RAID weg. Ein Vorteil?!?!? Finde ich jetzt irgendwie nicht...

SaschaB schrieb:
Okay das dachte ich mir.
Wenn er für den Server 2008 R2 zertifiziert ist, sollte das ja dann auch mit Win7 Prof x64 funktionieren?

Windows... Verschiedene Versionen... Verschiedenen Lizenzen... Zertifizierungen... Mir tun irgendwie Leute Leid, die sich das antun (müssen)...
 
jnreinwa schrieb:
Also ihr verwirrt mich...

OS-abhängig? Ja, natürlich! Ein Nachteil?!?!?! Beispiel Linux: Mit hunderten verschiedener Varianten, die kostenlos im Netz verfügbar sind, kann man darauf zugreifen.

Hardware-RAID ist dagegen "nur" von der Hardware abhängig. Tolle Sache! Hardware kaputt, RAID weg. Ein Vorteil?!?!? Finde ich jetzt irgendwie nicht...

Windows... Verschiedene Versionen... Verschiedenen Lizenzen... Zertifizierungen... Mir tun irgendwie Leute Leid, die sich das antun (müssen)...

Mein Wissen was SW Raid angeht ist wohl eingestaubt, wusste nicht das man mit Linux mittlerweile auf ein SW Raid von Win zugreifen kann. Nachteil höhere System last.

HW Raid Controller haben nicht umsonst im Business bereich ne eigene CPU, ab wann das im Home Bereich nötig ist ist ne andere Sache...

Wenn nen Server abraucht hab ich keine Lust da erstmal die Datein wild durch die gegend zuschieben, ich bau dann einfach nen neuen Controller ein und schwubs geht die Kiste wieder. Meine Kunden findens auch besser das der Server dann nach ein paar Minuten wieder geht, die möchten ja Geld verdienen und nicht warten bis ich was gebootet und rüberkopiert habe. -Vorteil SW Raid ? ->Nö!

Mir tuen die Unix`er leid, das schöne ist aber jeder bekommt das was er will ob Win/Linux/Mac etc...
Ergänzung ()

SaschaB schrieb:
Okay das dachte ich mir.
Wenn er für den Server 2008 R2 zertifiziert ist, sollte das ja dann auch mit Win7 Prof x64 funktionieren?

Joar kommt auf die Treiber an, in der Regel aber ja. Umgekehrt ist meistens Problematischer...
 
Zuletzt bearbeitet:
Zurück
Oben