Projekt "µATX NAS" in ITX Gehäuse

Da das Gehäuse flächendeckend auf 3 Wochen hin ausverkauft zu sein scheint denke ich das verkraften zu können =)

Und wenn du schon für mich misst, dann doch noch gleich bitte die Front:
Passt ein Radiator mit BxHxT: 200x245x36mm (an der Position des Frontlüfters) in das Gehäuse mit BxHxT: 227x272x345mm, wenn alle Käfige und überflüssigen Lüfterhalterungen oder Lüfter bzw. das DVD Laufwerk draußen wären?

Es geht um den hier: Phobia Extreme 200
 
Zuletzt bearbeitet:
So, ich habe mal nachgemessen:

Zwischen der Unterseite des Gehäusedeckels und der Oberkante des Netzteils sind 5,2cm Platz.

Die "Innentiefe" des Gehäuses, also von Front bis Rückseite, sind 34,2 cm. Der angegebene Radiator würde also mitsamt einer HD5870 von der Tiefe her hineinpassen.

Die Innenmaße (Die Kanten der Front sind oben und unten abgerundet --> daher Maße der resultierenden gerade Fläche) der Front sind 22x26cm. Der Radiator würde also hineinpassen. Bis das 25cm tiefe μATX-MB anfängt sind bei mir 9,5cm Platz (Front <--> MB-Kante).

Aber: Der Einschalt-Taster und der Reset-Taster (incl. integrierter HDD-LED im Reset-Taster) müssen auf der Front an einer anderen Stelle plaziert werden. Platz dafür wäre meines Erachtens nach oben rechts oder/und oben links neben der 5.25" Blende. Bei 24.5cm Radiatorhöhe und verfügbaren 26cm würden für diese Taster 1.5cm bleiben.

Reicht Dir das so ?
 
Zuletzt bearbeitet:
Das war mehr als ausführlich und hat mir sehr weiter geholfen, danke vielmals.

Ein 280er Radiator in der Decke wäre jedoch wohl zu bevorzugen und demnach muss ich mir noch überlegen, wie ich genau vorgehen werde. Denn beides wird sich natürlich beeinträchtigen. Ich kann nicht oben nen 31 cm Radiator rein klatschen und vorne noch mal einen mit 25 cm Höhe. Am liebsten wäre mir oben ein 280er und vorne ein 140er, wobei dann halt der Lüfter wiederrum mit der Grafikkarte kollidieren könnte.

Auf diesem Bild sieht das alles andere als geräumig aus:
HW Luxx Q08 Mod

Wenn die Wasserkühlung nicht wirklich erstklassig wird, dann kann ich auch gleich bei einem sehr guten Konzept mit Luftkühlung bleiben. Eine andere Möglichkeit wäre unter anderem mein recht kleines SFX Netzteil (irgendwo leicht versetzt) weiter zu verwenden und bei der Grafikkarte weiterhin auf den Accelero S1 zu setzen und beim Prozessor bspw. auf einen Megahalems oder sowas mächtigem.
 
Zuletzt bearbeitet:
Die Letzte Woche incl. WE habe ich sehr viel mit Ubuntu 10.04 64Bit, VirtualBox 3.2.8 und NexentaCore 3.0 rc3 verbracht.

Das Resultat:
VirtualBox läuft in Verbindung mit "raw-disc" Zugriff auf 4 HDD's nicht zu meiner Zufriedenheit. :mad:


Ich habe alles "sauber" installiert, jedoch während dem Einrichten / Testen unter dem laufenden Nexenta drei mal einen kompletten Crash erlebt.
Das System habe ich auch mit verschiedenen Vorgehensweisen neu installiert. Der X-Server ist mitsamt der laufenden virtuellen Nexenta-Maschine abgestürzt. Ich habe daraufhin nochmals (das hatte ich vorher schon mit den Platten / weiteren Komponenten getan) die Hardware überprüft.
RAM, CPU und Festplatten habe ich mir bekannten Test's unterzogen. Auch habe ich ein frisch installiertes Ubuntu benutzt und Last auf dem Betriebssystem erzeugt.

Die Hardware ist in Ordnung. Das Host-Betriebssystem auch.

Daher habe ich mich entschlossen XEN 4.0 anstatt VirtualBox zu testen.
Ich bin gerade dabei Ubuntu 10.04 64Bit mit XEN 4.0 neu zu installieren.

Ich werde mich wieder melden ;)

Gruß
mlampe
 
Hallo,

Ich weiß nicht so recht wo ich anfangen soll...

Seit dem letzten Post hier musste ich mich zwischendurch um andere Dinge kümmern und konnte daher nicht in dem Maße weiter machen und Euch berichten wie von mir gewünscht.
Doch alles lieber der Reihe nach... ;)

Ich hatte versucht Ubuntu 10.04 und XEN 4.0 zu installieren. Es gab (gibt) keine Ubuntu-Pakete zu XEN 4.0 und selbst kompilieren wollte ich nicht. Da ich auch im nachhinein erst herausgefunden habe, dass Ubuntu sich von XEN abgewandt hat (um sich auf KVM / QEMU zu stützen) habe ich testweise OpenSuse 11.3 benutzt. Ich habe mir gedacht, dass ich da gleich zwei Vorteile habe:
1. XEN wird von OpenSuse direkt unterstützt.
2. OpenSuse 11.3 benutzt den 2.6.34er Kernel.

Das sollte also auf dem Core i3 530 + Q57 Chipsatz gut funktionieren. Witzigerweise habe ich dort auch zwei böse Abstürze (war wie die Reset-Taste drücken) und einen "Systemfreeze" erlebt. :lol: :mad:

Dabei habe ich auch gemerkt, dass mir Debian basierende Linux-Distris mehr liegen als z.B. OpenSuse :)

Das hat mich dann doch bezüglich der Hardware verunsichert und ich habe testweise Windows 7 64Bit installiert und unter Diesem mit entsprechenden (schon oft benutzten) Tools die wichtigen Hardwarekomponenten getestet.
Das Ergebnis: Die Hardware funktioniert unter Windows 7 so wie sie soll.
Sprich: Integrierte Grafik, CPU, RAM, HDD Zugriffe.

Die mir zur Zeit schlüssigste Erklärung für die Probleme unter Linux ist die, dass selbst mit dem Kernel 2.6.34 die Core i3 CPU und/oder die dort integrierte Grafikeinheit nicht "sauber" bzw. stabil läuft.

Bisher habe ich bei allen getesteten Linux-Versionen stets eine grafische Oberfläche gehabt und keine Server-Version (z.B. von Ubuntu) ohne "X" benutzt. Bei Recherchen im Internet in Bezug auf den Core i3 incl. Grafikeinheit gibt es Aussagen, dass "Compiz" dabei Probleme verursacht. Compiz war bei allen von mir benutzten grafischen Oberflächen installiert.

Also habe ich Ubuntu Server 10.04 64Bit, Ubuntu Mainline Kernel 2.6.34 und XFCE4 installiert. Das Resultat war ein Absturz incl. laufender VM. Das Dateisystem war danach irreparabel defekt.:mad:

Ende letzter Woche habe ich die Idee gehabt die integrierte Grafikeinheit zu deaktivieren und eine alte PCI Graka (Rage 128) zu benutzen. Gleichzeitig habe ich auch testweise auf
Ubuntu Server 10.10 Alpha 3 64Bit gewechselt, da dort der Kernel 2.6.35 enthalten ist.

Mir ist klar, dass man nicht zwei Sachen auf einmal ändert (ändern sollte) :rolleyes:

Ich weiß daher jetzt auch nicht, ob es an der anderen Graka oder dem neueren Kernel liegt.

Im Moment läuft es, aber ich habe die VM auch noch nicht installiert.
Auch hier habe ich XFCE4 nachinstalliert.

Falls jemand Tips / Ideen für mich hat dann her damit.
Falls ich hier grundlegende Fehler begehe dann teilt mir das bitte mit. ;)

Ich melde mich wieder...

Gruß
mlampe
 
ESXi 4.1 von Vmware wäre keine Alternative für dich?
ESXi ist die gratis Version von ESX und hat einige gute Features.
Könntest du ja auch mal testen.
 
Hallo,

Die letzten Tage habe ich versucht unter Ubuntu Server 10.10 (seit gestern beta Status) mit Kernel 2.6.35 als 64Bit Version VMware Workstation 7.1.1 zu installeren. Funktioniert hat es nicht, da wohl eine Änderung im Kernel 2.6.34 von VMware WKS 7.1.1 noch nicht berücksichtigt wird.
Bei der Ubuntu Server Installation kann man als Einsatz-Zweck auch Virtualisierung auswählen. Damit wird dann KVM/QEMU instaliert.

Ich werde meine Versuche auf dieser Basis fortsetzen (in gut 1.5 Monaten wird 10.10 eh final werden ;) ).

@Fipsi16: Als Hypervisor ESXi einzusetzen habe ich von Anfang an gar nicht weiter verfolgt. ESX und ESXi laufen nicht auf jeder Hardware. Das fängt bei dem Prozessortyp an und hört bei der LAN-Karte auf.
Eine Idee / event. einen Test auf jeden Fall wert.

Mein Arbeitgeber setzt auch unter anderem ESX in "größerem Stil" ein. Ich selbst betreibe für unser Team einen "kleinen" ESXi Server.

Ich werde mal sehen wie das mit einer Nexenta Core VM in KVM so ist.

Bis dann

Gruß
mlampe
 
Zuletzt bearbeitet:
Es gibt ja von VmWare auch eine Version für Workstations. Die könnte eventuell besser funktionieren als die ESXi Version für Server.
Ein Arbeitskollege erzählt mir immer was er alles damit macht. Weiß aber nicht was er für Hardware hat.
 
Es gibt im Grunde genommen 2 Arten von Virtualisierungsprodukten.

1) "bare metal hypervisor"

Die VMware Produkte ESX und ESXi sind solche "bare metal hypervisor". Sie werden direkt z.B. in einer SAN LUN (dabei wird der hypervisor vom Netzwerk gebootet) oder auf einer lokalen HDD installiert. Über den VSphere Client oder über eine vCenter Server) kann man auf den hypervisor zugreifen und damit die virtuellen Maschinen anlegen, verwalten,...
Der Umfang der Möglichkeiten richtet sich nach der verwendeten Lizenz.


2) "hosted hypervisor"

Die VMware Produkte VMware Workstation und VMware Server sind solche "hosted hypervisor". Diese sind im Grunde genommen wie ein "normales Programm" ;) und können nur auf einem "Host" Betriebssystem installiert und betrieben werden. Das kann z.B ein Windows oder Linux sein.

Das sind die Unterschiede die auf alle Virtualisierungslösungen anwendbar sind.



Die von Dir erwähnte Version für Workstations ist die von mir genannte VMware Workstation V7.1.1 (ist kostenpflichtig; 30Tage Demo möglich).

Beide Arten haben Vorteile und Nachteile. Ich muss die für diese / meine Zwecke beste Lösung herausfinden.
 
Hallo,

Nachdem es mit KVM/QEMU auch wieder Probleme gab, habe ich von der Installation "Ubuntu Server 10.10 beta" ein Backup gezogen.
Ich habe anschließend VMware ESXi 4.1 genommen und dies mit Recherche und "Bastelei"
auf einen USB-Stick (als eine von dort direkt nutzbare Version) bekommen.
Zuerst wurde die Onboard-Netzwerkkarte nicht erkannt (Intel 82578DM --- DeviceID: 10EF),
meine zusätzliche Netzwerk-Karte aber schon (Intel 82574L PCIe x1 --- DeviceID: 10D3).

Der ESXi wird also von diesem USB-Stick direkt gebootet und benötigt den Stick danach nur noch um ab und zu seine cfg-Datei(en) zu speichern. Auf meiner Zockmühle (Windows 7) habe ich den passenden VMware vSphere Client installiert und schon ging es los.
Achso: Bis jetzt steckte immer noch die ATI Rage 128 PCI Graka im NAS.
Da das ganze mit dieser fehlerfrei und absturzfrei funktionierte, habe ich die PCI Graka ausgebaut und die im Core i3 530 integrierte GrafikEinheit wieder aktiviert.
Es funktioniert immer noch. :daumen:

Nach dem Erfolg hat mich der Ehrgeiz gepackt und ich habe wieder Recherche und "Bastelei" betrieben und wollte die bis jetzt nicht von ESXi 4.1 erkannte Onboard-Netzwerkkarte zum rennen bringen.

Kurzum, es ist mir gelungen und ich habe ein ESXi 4.1 mit beiden Netzwerkkarten und der restlichen Hardware am laufen.

Ich habe schon zwei virtuelle NexentaCore 3.0 Installationen gemacht und es funktioniert bisher nach meinen Vorstellungen :cool_alt:

Die nächsten Schritte werden folgendes beinhalten:

- 1x Internet über die eine Netzwerkkarte in die VM weiterreichen
- 1x Zugriff (Management & Daten-Netzwerk) über mein LAN einrichten.
- Die "Managementoberfläche" napp-it in NexentaCore installieren und die VM configurieren
- Nach dem Start des Host's automatisch die VM starten.
- Der Host soll nach dem Shutdown der VM ebenfalls automatisch herunter gefahren werden.
- ...

Und dann gehts weiter ;))

Gruß
mlampe
 
Zuletzt bearbeitet:
Hallo mlampe.

Ich hoffe, du hast weiterhin Freude an deinem NAS Projekt. Ich kann zu diesen Themen leider überhaupt nicht mitreden, also versuche ich es gar nicht erst.

Bedanken wollte ich mich trotzdem noch mal für die nette Hilfe und für die vielen Infos zu dem Q08 Gehäuse. Bei mir ist es jetzt aber letztendlich doch ganz schlicht und ergreifend ein Lian Li Q07 geworden. Mit diesem habe ich jedoch viel vor :) Ich will nichts verraten, sonst kann ich den eigenen Zielen und Ansprüchen womöglich nicht gerecht werden.

Wenn du Lust hast kannst du - vllt. schon nächste Woche - mal in den Thread rein sehen. Aber das bleibt erst noch Zukunftsmusik. Es kann gut und gerne auch Ende September werden, bis ich starte und vor allem alle notwendigen Teile zur Verfügung habe.


Grüsse :)
 
Freut mich, dass das so alles geklappt hat mit ESXi. Bin gespannt wie das alles am Ende läuft.
Da du dich jetzt wahrscheinlich sehr gut damit auskennst wollte ich dich fragen ob es möglich ist eine TV Karte eine bestimmte VM durchzureichen.
 
Hallo,

Ich musste mich um Reparaturen an meinem auto kümmern und habe deswegen nicht sehr viel geschafft, ein paar Sachen habe ich aber zwischendurch hinbekommen.

- Die VM wird nun nach dem Start des Host automatisch gestartet.
- Nach dem die VM herunter gefahren wurde, fährt auch der Host herunter.

Die Sache mit den Netzwerkkarten habe ich noch nicht komplett konfiguriert.

Heute Nachmittag habe ich mich dran gesetzt und ein passendes Stromkabel für die Festplatten hergestellt.

48_imgp2866_kleinkqt1.jpg



@Fipsi16:
Bei VMware ESXi gibt es die Funktion VMDirectPath. Wenn die CPU und Chipsatz (Mainboard)
vt-d unterstützen, dann kann man PCI Geräte für diese Funktion aktivieren. Bei den von mir verwendeten Komponenten kann die Core i3 CPU dies leider nicht, der Rest schon :(
Ein Core i5 / i7 Prozessor (bis auf ein paar Ausnahmen) hat dieses Feature --> Info (Am Ende der Seite)

Daher kann ich dies nicht testen und Dir mitteilen, ob das mit einer TV-Karte (hab sogar eine PCI-Karte hier) funktioniert.
 
Ich hab einen AMD X2 5050e, ist glaub ich eine AM2 oder AM2 CPU. Die hat AMD Virtualization.
Muss ich mal testen ob das damit funktioniert.
 
Ich habe nochmal nachgesehen:

Bei AMD wird das AMD-Vi oder IOMMU genannt. Damit, in Verbindung mit einem passenden Chipsatz, soll VMDirectPath auch bei AMD gehen. In der Version ESXi 4.0 war dies aber als experimentell von VMware eingestuft.
 
Ein wenig bin ich weiter gekommen... ;)

Am Anfang hatte ich mich zwar gut informiert (dachte ich zumindest), wohl aber nicht gut genug. :rolleyes:
Nachdem ich mich nun mehr mit der Funktion VT-d beschäftigt habe, und dies auf einem Lenovo Thinkpad x201 mit Core i5 520M Prozessor ausprobieren konnte, habe ich mich entschlossen mein Hardware-Setup zu ändern.

Ich habe den Prozessor (Core i3 530) gegen den Core i5 650 ausgetauscht. Damit habe ich, bezogen auf die Virtualisierungsfunktionen, alle aktuellen Möglichkeiten offen.

@Fipsi: Wenn das noch interessant ist, kann ich das weiterreichen der TV-Karte in eine VM jetzt testen.

Nun habe ich, anstatt die 4 Datenfestplatten per RDM (Raw Device Mapping) für die VM zu konfigurieren, den gesamten Onboard Intel SATA-Controller der VM als PCIe Gerät "in Hardware" zur Verfügung gestellt. Dadurch kann die VM (Nexenta Core) direkt auf den Controller und die Festplatten zugreifen. Die sonst, wenn auch geringe, vorhandene Verzögerung beim Zugriff auf die Datenfestplatten entfällt dabei.
Bei einem Zugriff per RDM ist ja das Betriebssystem (VMware ESXi) involviert.
Eine der beiden Netzwerkkarten kann ich nun ebenfalls direkt der VM zur Verfügung stellen. :D

Desweiteren habe ich mich mit der Problematik der 4K Sektoren der verwendeten WD20EARS Festplatten auseinander gesetzt.
Das Problem, vor allen Dingen bezogen auf ZFS, ist und bleibt die 512Byte Emulation der Festplatten Firmware.
Mit 4K pro Sektor kann Nexenta und ZFS umgehen (z.B bei Flashspeicher -- SSD's), aber die Firmware der Festplatte meldet gegeüber dem Betriebssystem 512byte (nur bei manchen WD Festplatten und Samsung EcoGreen F4 (HD204UI/Z4)).

Ja, man muß bei den 4K Festplatten auf das sog. Alignment der Partition(en) achten.
Aber selbst wenn man das getan hat, arbeitet ZFS mit variablen Blockgrößen mit bis zu 128KB.
Das heißt, wenn 1000byte geschrieben werden sollen, teilt ZFS die 1000Byte in 1 x 512byte + 1 x 488byte auf
und schreibt die Daten dann mit 2 Schreibzugriffen auf den Pool. Schuld daran ist die benutzte 512byte Emulation der Festplatten Firmware.

Um einen komplett performanten ZFS Pool zu bekommen muß man (zur Zeit) entweder SSD's oder herkömmliche "512Byte / Sektor" Festplatten benutzen.

Hoffentlich einigt sich die Industrie auf eine "Marschrichtung", sodass nach einer Anpassung in ZFS neue Festplatten (4K pro Sektor, Kapazität größer 2TB) ohne Kompromisse und ohne Klimmzüge benutzt werden können.

Ich werde daher für dieses Projekt/NAS vorerst die Modelle WD20EADS verwenden.

Dann komme ich endlich weiter.


Gruß
mlampe
 
Ganzen Thread gelesen und finds ein super Projekt. Ist halt schade das es kein perfekt vorkonfiguriertes Linux gibt. Das endet dann immer in eine lebenslang andauerende Fehler/Performance Suche und am Ende stellt sich allzu oft der Frust ein (bei mir jedenfalls, weil Fehler nicht immer auffindbar). Deshalb sind bei mir alle Platten noch im Hauptrechner, mit scheiss ntfs und windoofs, kostet mich aber auch nur 30min zum einrichten sämtlicher Einstellungen... Hab übrigends auch WD EARS Platten drin (sind einfach super.
 
Hallo,

Ich bin weiter gekommen, wenn auch anders und wesentlich langsamer als geplant. :(
In letzter Zeit hat (und wird es auch leider noch :rolleyes:) an Zeit ein wenig hapern.
Dennoch werde ich mein Projekt hier bald auf den neuesten Stand bringen.

Bis dahin

Gruß
mlampe
 
Hallo,

Zu allererst muß ich gestehen, dass ich nicht die Zeit gefunden habe hier zeitnah
(bezogen auf den letzten Post von mir) mein Projekt wie geschrieben zu aktualisieren. :rolleyes:

Ich habe bis Anfang letzte Woche ca. 4-5 Wochen lang mein NAS genutzt.

Auf einer 80GB HDD habe ich NexentaCore direkt installiert und mit 3x WD20EADS als
Datenplatten benutzt.
Da der Onboard-Controller nur 5 SATA Anschlüsse hat und davon schon vier
(1x System, 3x Daten HDD) belegt sind, bleibt nur noch 1 SATA-Anschluß übrig.

Das ganze hat, weitestgehend, gut funktioniert. Ich habe dann testweise versucht einen
PCIe SATA-Controller in dem 16x PCIe Steckplatz zu betreiben.
Leider hat dieser dort nicht funktioniert. Alle Informationen, die ich zu dem Board (incl. Handbuch)
im Vorfeld gesammelt habe, haben auf diese Einschränkung nicht hingewiesen.


Damit ist dann keine Erweiterung mehr in dem Sinn, wie ich es eigentlich geplant hatte, möglich. :mad:


Daher habe ich mich die letzte Zeit auch nach Hardware umgesehen, die meine ursprünglichen
Pläne erfüllt und noch genug Reserven für Zusatzfunktionen besitzt, die mittlerweile
dazugekommen sind.


Es erfolgt ein Hardwareaustausch gegen folgende Komponenten:

1x Supermicro X8SIL-F Mainboard (μATX Format)
1x XEON L3426 (4x 1.86 Ghz)
1x 16GB-Kit DDR3 RAM (2x 8GB) (vorerst --> erweiterbar auf 32GB)
1x Intel SASUC8I Controller
1x System Festplatte 2.5" 160GB WD Scorpio Black

Die anderen Komponenten bleiben, sprich
Gehäuse, Netzteil, CPU-Kühler, Daten Festplatten.


Es ist das eingetreten was ich zu vermeiden versucht habe. :(
Ich habe mich wohl nicht ausreichend genug informiert und
Hardware gekauft, die meine Anforderungen im Nachhinein nicht erfüllt.
Ich kann damit mein Vorhaben nicht umsetzen.


Die bisherige Hardware (DQ57TM Mainboard, Core i5 650, 8GB RAM) funktioniert einwandfrei.
Ich habe auch noch einen Core i3 530 da.
Diese 4 Komponenten möchte Sie versuchen zu verkaufen. Garantie ist ja noch überall vorhanden.



Die Software-Installation wird dann so aussehen...

Auf die 2.5" 160GB Systemfestplatte wird der "bare metal hypervisor" ESXi 4.1 installiert.
Dort werden als virtuelle Maschinen ein "ZFS Betriebssystem" (NexentaCore, OpenIndiana oder
Solaris 11 Express) und 1-2 Linux Maschinen laufen.
Desweiteren habe ich dann auch genug Resourcen für zusätzliche Spielereien. :D

Die Hardware habe ich bereits bestellt. Mein Projekt werde ich dann in geänderter Form
weiterführen und auch, nach viel zu langer Zeit, abschließen.


Bis die Tage...
(HW wird wahrscheinlich irgendwann nächste Woche kommen)

Gruß
mlampe
 
Hattest du da auch mit allen Bios-Einstellungen rumexperimentiert, sodass du wirklich ausschließen kannst, dass es so nicht gehen wird?
Und wär es dann nicht billiger und weniger Aufwand, nur den Kontroller zu tauschen, als das Mainboard?
Oder war dir das sowieso zu wenig Leistung?
Also für ein Home-NAS war das schon sehr potent...

Ich glaube was du hier baust ist mehr eine Virtualisierungs-Spielwiese, die nebenbei auch noch Datengrad sein soll. Sowas würde ich persönlich trennen...
 
Zurück
Oben