Hi Jungs,
vieles von dem was ich hier lese ist richtig, einiges davon auch etwas weniger ;-) Grundsätzlich gilt, dass sämtliche Onboard-Lösungen als Software-Raid zu bezeichnen sind, wobei die CPU die Berechnungen des Stripesets durchführt. Im Gegensatz zu einer reinen Software-Lösung unter win2k/xp bzw. Linux kann somit das Betriebssystem auf dem Raid installiert werden, man spricht dabei von einem FakeRaid, da zwar ein Stück Hardware (eben der Raidcontroller) vorhanden ist, dieser aber die CPU mit Hilfe des Treibers die Arbeit machen läßt. Der „richtige" Hardware-Controller bringt somit immer seine eigene CPU selbst mit.
Betrachten wir aber auch mal, von welcher CPU-Last wir hierbei sprechen: Dazu eignen sich ganz hervorragend gerade die hier gemachten Motherboard Tests, die ebenfalls grundsätzlich die Schnittstellengeschwindigkeiten mit berücksichtigen. Bei modernen Boards wie z.B. einem Asus P5W DH Deluxe, einem Intel Bad Axe mit ICHR7 oder einem Asus P5N32-SLI Deluxe mit nForce4 liegt die CPU-Last bei Raid 0 oder Raid 1 bei durchschnittlich 3%. Da diese Art des Stripesets oder Mirroring wenig Rechenleistung benötigt, ist die Leistung der CPU somit nicht wirklich ausschlaggebend. Die reale CPU-Last ist zum einem vom Controller abhängig (wie gut wurde das umgesetzt) zum anderen auch vom verwendeten Raid-Level. Ein Raid5 benötigt auf Grund der notwendigen XOR Paritätsdaten-Berechnung am gleichen Controller ca. 10 - 13% der CPU-Leistung.
Darüber hinaus gibt es auch bei reinen Harware-Controllern eklatante Leistungsunterschiede. Somit ist nicht nur die verbaute CPU für die Geschwindigkeit verantwortlich, sondern das Gesamtkonzept des Controllers - Mein Server läuft z.B. mit 8 Atlas SCSI 15000 1/min Platten, die jeweils zu 2 Raid5 a 4 Platten verbunden sind. Das ganze an einem 2-Kanal Hardware-SCSI-Controller eines führenden Anbieters, der alleine schon ein Vermögen gekostet hat. Über die Geschwindigkeit sprechen wir lieber nicht, die Vorstellungen eines „Normal-Users" über die Leistung derartiger Profi-Systeme sind da deutlich zu hoch..
Ist es nun sinnvoll, CPU-Leistung zu opfern um Festplattenleistung zu erhalten? Auch da gibt es wiederum verschiedenste Ansätze, die ich aus meiner Sicht etwas erläutern möchte.
In den letzten Jahren konnte man Eines feststellen: Die CPU-Leistung ist in Riesensprüngen gewachsen. Immense Taktraten, Hyper-Threading, Dual-Core CPU’s und neue Prozessorarchitekturen haben das möglich gemacht. Ist noch nicht all zu lange her, das war ein Pentium III 1000 das Maß der CPU-Leistung. Heute bieten aktuelle CPU’s annähernd das 10 fache an Leistung.
Zu dieser Zeit lag die durchschnittliche Transferrate einer schnellen Festplatte zwischen 15 und 20 Mb/sek. Eine Seagate Cheeta SCSI brachte es damals schon auf schier unglaubliche 30 MB/sec. Auf die CPU-Leistung umgerechnet sollte sie somit bei Festplatten nun bei ca. 200 Mb/sek liegen. Tut sie aber nicht. Weil es eben keine derart rasanten Entwicklungsfortschritte wie bei anderen Geräten (z.B. auch Grafikkarten) gegeben hat.
Somit bleibt festzustellen, dass das eindeutig langsamste Teil, das heute die Leistung eines flotten PC’s nach unten begrenzt, die Festplatte ist. Eben das Bauteil, bei dem es keine bahnbrechenden Entwicklungen zu beobachten gibt. Auch das Perpendicular Recording, das bei der neuen Seagate 750 eingesetzt wird, ändert grundsätzlich nichts daran.
Somit bietet sich im Bereich der Festplatten ausschließlich das Stripeset (Raid0) zu nennenswerter und kostengünstiger Leistungssteigerung an. Dabei ist natürlich darauf zu achten, dass auch geeignete Platten zur Verwendung kommen. Ebenso wie bei Schnittstellen und Controllern gibt es bei Festplatten mehr oder weniger geeignete Teile.
Grundsätzlich eignen sich für ein Stripeset die nativen (also in den Chipsatz integrierten) Conroller moderner S-ATA Boards besonders gut, da diese über den schnellen PCI-E Bus angebundenen Controller keinen Flaschenhals für die Transferraten bilden. Die oft vorhandenen, zusätzlichen Controller (Marvell, Silicon Image) sind häufig über den PCI-Bus angeschlossen und somit meist deutlich langsamer.
Möchte ich nun eine der CPU-Leistung adäquate Festplattenleistung erzielen, bieten sich z.B. die WD 1500 Raptoren besonders gut an. Diese auf Server-Betrieb konstruierten Platten eigen sich zum einen für einen 24/7/365 Betrieb durch ihre MTBF-Time von 1,2 Mio Std., zum anderen sind sie somit nicht so Ausfall-gefährdet wie so manch andere bekannte Durchschnittsplatte.
Wie bereits hier im Thread aufgeführt belegen Messungen mit CT’s h2benchw die Leistungszunahme eines derartigen Stripesets.
Die Frage, ob man nun 3% CPU-Leistung für eine Steigerung der Festplattenleistung von durchschnittlich 50% in Kauf nimmt, ist für mich somit klar mit einem JA zu beantworten.
Wer benötigt nun diese Leistung:
Eigentlich jeder, der viele Daten bewegt oder entsprechend große Programme im Einsatz hat. Für den Lebenslauf oder die Bewerbung in Word ist das ziemlich sekundär, bei Bild- oder Video-Bearbeitung aber quasi ein Muß. Zu Spielen kann ich mich hierbei nicht äußern, da ich bis jetzt noch nie ein Spiel gespielt habe. Wer aber jemals mit Photoshop gearbeitet hat, für die Programmierung einen J-Builder oder Intel Compiler hochwuchten muss und nebenbei (wie ich) Filme in HDV mit z.B. Premiere Pro 2.0 produziert, der weiß, dass er auf diese Art der Festplattenleistung nicht mehr verzichten möchte.
Nur ein Beispiel: Mein aktueller, am nächsten WoE zu bauender PC besteht aus einer Conroe E6700 CPU, 3 GByte DDR2 Corsair Speicher und nach langer Überlegung einem Asus P5N32-SLI SE Deluxe MotherBoard. Diese 3 Komponenten kosten zusammen etwas mehr als 1000 Euronen. Eine WD Raptor 1500 liegt bei ca. 220 Euro - bei dem Preis des Systems wäre es somit fast fahrlässig, wegen eben dieser 220 Euro auf einen großen Teil der Leistung des Gesamtsystems zu verzichten. Somit kommt das Betriebssystem auf 2 dieser Raptoren (Stripeset), für die HDV-Files gibt es 2 weitere WD-Platten a 400 Gbyte, ebenfalls als Stripeset. Vereinfacht ausgedrückt: Was nützen 500 PS an Motor, wenn mein Fahrgestell ein Opel Corsa ist..
Und zu den bereits erwähnten Benchmarks ein reales Beispiel aus der Praxis: Ein HDV-Film in mpeg2 (oder auch ein DV-Film in *.avi) belegt pro 10min Laufzeit ca. 2,3 GByte an Festplattenplatz - ein Film mit 30 min Länge kommt somit auf ein File von ca. 7 Gbyte. Das sind somit keineswegs unrealistische Größen.
Die Transferleistung meiner Platten, gemessen von Stripeset 1 zu Stripeset 2, Datenmenge etwas mehr als 1 Gbyte (1080 Mb): 12 Sekunden, die gesamten 7 GByte in ca. 1 min 20 Sek.
Nein, darauf würde ich nicht mehr verzichten wollen..
Ich hoffe, meine Sicht der Dinge kurzweilig dargestellt zu haben.
Gruß Mr Jo
