FAQ Der eigene Server

e-Laurin

Fleet Admiral
Dabei seit
Juni 2005
Beiträge
10.498
#1
Hallo Leser,

dieser Thread stellt eine Sammlung von Informationen rund um den Heimserver da. Bitte lies die Einleitung, die das Ganze genauer erklärt.
Ich bitte um Mithilfe der Community, um den Text umfassender und fehlerfreier zu gestalten.

Diskussionen zu diesem FAQ könnt ihr hier führen: [Diskussion] FAQ - Der eigene Server :)


Übersicht

1. Einleitung

2. Wofür einen Server?
2.1. Server mieten
2.1.1. V-Server
2.1.2. Root-Server
2.1.3. Managed Server
2.2. "FairUse"
2.3. Eigenen Server aufstellen
2.4. Serverarten
2.4.1. Dateiserver
2.4.2. Backupserver
2.4.3. Multimedia-Server
2.4.4. Webserver
2.4.5. VoIP-Server
2.4.6. Sonstige

3. Hardware
3.1. Anforderungen
3.2. Netzwerkgeschwindigkeit
3.3. RAID
3.3.1. Klassisches RAID
3.3.2. Alternativen
3.3.3. RAID-Controller
3.4. Stromverbrauch vs. Preis vs. Leistung
3.5. Beispielkonfigurationen

4. Software
4.1. Betriebssystemvergleich
4.1.1. Linux & Unix
4.1.2. Windows
4.2. Software
4.2.1. Linux- & Unix-Software
4.2.2. Windows-Software
4.3. Sonstige

5. Sicherheit
5.1. Gefahren
5.2. Antivirenprogramm
5.3. Firewall
5.4. Aktualisierungen
5.5. Verschlüsselung
5.6. Rechtevergabe

6. Tipps und Tricks
6.1. Eine eigene Domain
6.2. Remoteverwaltung
6.3. IPv4 vs. IPv6



1. Einleitung

Hallo interessierter Leser,

wenn du hier gelandet bist, dann heißt das, dass du einen eigenen Server aufsetzen willst, oder dich einfach nur mal informieren möchtest. Dieses FAQ (frequently asked question, engl. häufig gestellte Fragen) ist genau richtig dafür, denn ich habe mir gedacht, so umfassend wie möglich auf die Aspekte eines Server einzugehen. Angesichts des Umfangs kann ich natürlich nicht auf jedes Detail eingehen, dennoch versuche ich zumindest eine Basis zu vermitteln, auf der du aufbauen kannst.
Dieses FAQ sollte für User, die einen Server gewerblich verwenden wollen, nur mit Vorsicht zu genießen sein. Ich gebe keinen Anspruch auf Gewähr oder Vollständigkeit. Hier wäre es besser, auf den Rat eines Spezialisten (= IT-Firma) zu hören. Da ist man immer auf der besseren Seite.

Die folgenden Leser haben an diesem FAQ mitgeholfen: hayden, XRJPK und TheLordofWar
Dafür ein großes "Danke schön" von mir. :)
 
Zuletzt bearbeitet:

e-Laurin

Fleet Admiral
Ersteller dieses Themas
Dabei seit
Juni 2005
Beiträge
10.498
#2
AW: FAQ - Der eigene Server

► Zurück zum Inhaltsverzeichnis ◄


2. Wofür einen Server?

Das ist die Frage. Wenn du sie dir stellst, dann brauchst du vermutlich auch keinen. Der durchschnittliche User kann eigentlich nur wenig damit anfangen und falls er doch mal einen rumzustehen hat, wird er kaum bis gar nicht genutzt. In meinen Augen ist das verschwendetes Geld, das man sicher woanders besser angelegt hätte. Falls du aber schon mindestens eine sinnvolle Antwort darauf hast, dann lies weiter und entscheide für dich selbst, ob es den Aufwand wert ist. Man muss wirklich einige Zeit und etwas Geld investieren, bis ein Server so läuft, wie es gewünscht ist. Mit einiger Zeit meine ich Tage bis Wochen. Sicher, man kann mal schnell einen Server aufsetzen und irgendwas installieren, das heißt aber nicht, dass dieser Server bereits optimal konfiguriert ist. Es gibt da draußen viele Leute, die meinen, sie wüssten Bescheid, machen aber kaum mehr als bei Installationen auf "Weiter", "Weiter", "Fertigstellen" zu klicken. Normalerweise fängt ab diesem Punkt die Arbeit erst an.

Bevor wir uns den Einsatzzwecken eines Servers widmen, schauen wir uns erst mal an, wie man an so ein Ding überhaupt herankommen.


2.1. Server mieten

Man könnte einen Server z.B. mieten. Es gibt Unmengen derartiger Anbieter, das Problem ist eher, seriöse zu finden. Gerade dann, wenn ein Angebot sehr billig erscheint, ist oft ein Harken daran. Für guten Service und umfangreiche Features muss man zwangsweise teilweise echt viel Geld hinlegen.
Die meisten Anbieter, auch Hoster genannt, unterteilen ihre Angebote in drei Kategorien: V-, Root- und Managed Server.
Server mietet man hauptsächlich nur dann, wenn man auf eine schnelle, permanente Netzanbindung angewiesen ist. Anbindungen von 10 MBits/s, 100 MBits/s oder gar 1 GBits/s sind ohne Probleme drin.
Bevor man einen Server mietet, sollte man sich unbedingt die AGB des Anbieters durchlesen. In dem Kleingedruckten sind hin und wieder Kosten versteckt oder es existieren Klauseln, die einem die gewünschte Verwendungsweise des Servers einen Strich durch die Rechnung machen.
Sei dir im Klaren, dass so ein gemieteter Server schon einiges an vorhandenen Wissen voraussetzt. Man sollte ihn nicht als Spielwiese betrachten. Die Anbieter sind recht streng zu ihren Kunden, wenn sie aus der Reihe springen. So manchen wurde schon der Vertrag gekündigt, weil sie so sehr an den Netzwerkeinstellungen herum gespielt haben, dass es zu Störungen im Rechenzentrum kam. Die Anbieter werden dann grantig und stellen dir vielleicht eine Rechnung wegen Dienstausfall. Für sie ist das bitterer Ernst.
Statt die vorgegebenen (oftmals konfigurierbaren) Server zu verwenden, kann man auch einen eigenen Server zusammenbauen und im Rechenzentrum aufstellen. Das nennt sich Colocation und man bezahlt hier nur je nach Tarif eine IP-Adresse, Traffic und eine Mietgebühr für den Serverplatz. Die Serverhardware bleibt aber weiterhin dein Eigentum! Es ist eine günstige Alternative zu den Root-Server-Angeboten. Beachte aber, was das Rechenzentrum für Vorgaben machen (19"-Servergehäuse zwingend? Netzwerkhardware? usw.)


2.1.1. V-Server

Ein V-Server, auch oft V-Host und Shared Server genannt, ist ein virtueller Server. Das bedeutet, man teilt sich den Server mit anderen Leuten und jeder bekommt einen abgeschotteten Bereich mit limitierten Computerressourcen zur Verfügung gestellt. Innerhalb seines Bereichs kann jeder User tun und lassen, was er will, ohne dabei von anderen Usern auf der Maschine gestört werden zu können oder andere User stören zu können.
Diese Angebote richten sich vor allem an jene Leute, die nicht so viel Power benötigen, aber trotzdem maximale Flexibilität haben wollen. Ein Beispiel wäre eine Webseite, die vom Server bestimmte Funktionalitäten verlangt, die aber Webspace-Angebote nicht anbieten können. Ich könnte mir aber auch einen Server vorstellen, der nicht rund um die Uhr auf Volllast fährt. Da wäre es logisch von teureren Root-Servern auf billigere V-Server umzusteigen.


2.1.2. Root-Server

Root-Server bzw. dedizierte Server sind Server ähnlich wie V-Server, allerdings ist man der einzige User des Systems. Der Vorteil liegt hier darin, dass man die gesamte Rechenkraft für seine eigenen Zwecke einsetzen kann. Diese Systeme eignen sich für rechenintensive Anwendungen und Dienste, z.B. stark besuchte Webseiten. ComputerBase benötigt schon drei Server, damit die Leute flüssig surfen können, was aber angesichts der Userzahlen auch nicht verwundern sollte.
Die meisten Leute würden am liebsten einen Root-Server haben, obwohl ein V-Server ausreichen würde. Überlege lieber dreimal, ob du bereit bist, mehr Geld für etwas auszugeben, dass du nicht brauchst. Andererseits, dickere Felgen stehen einem Auto auch gut, ob es sie nun braucht oder nicht. ;)
Der Name Root-Server leitet sich von "root" (engl. Wurzel), dem Administrator-Account unter Linux, ab.


2.1.3. Managed Server

Prinzipiell ist eine Managed Server dasselbe wie ein Root-Server, allerdings leistet der Anbieter dem Kunden hier zusätzliche Dienste administrativer Natur. Mit einfacheren Worten: Da hockt jemand im Rechenzentrum und stellt für einen den Server ein und kümmert sich auch sonst darum, dass er läuft. Es sind überlicherweise noch weitere Dienstleistungen in diesem Angebot mit inbegriffen, die uns aber jetzt nicht so interessieren sollten. Die meisten schreckt der Preis nämlich ab. Einige hundert bis mehrere tausend Euro hat man hier monatlich hinzulegen.


2.2. "FairUse"

Es gibt noch etwas, worauf ich dich unbedingt hinweisen muss. Es dreht um die sogenannte "FairUse"-Klausel (engl. faires Benutzen) in vielen Mietverträgen. Dahinter verbirgt sich, dass ab einer gewissen Grenze die Leistung gedrosselt wird, "damit andere auch noch etwas davon haben". Meist bezieht sich diese Klausel auf die Netzanbindung des Servers. Wenn man im Monat über eine gewisse Trafficgrenze (traffic, engl. Verkehr, hier ist aber Datenmenge gemeint) kommt, z. B. 1 TB, dann wird die Netzanbindung gedrosselt. Z.B. von 100 MBits/s auf 10 MBits/s bis zum Ende des Monats.
Bei einigen Anbietern kann man auswählen, ob man sich dieser Klausel unterwerfen will. Lehnt man ab, dann kostet jedes Byte, dass über dem Limit liegt, extra. Da können teilweise enorme Kosten zusammenkommen. Also gib Obacht!


2.3. Eigenen Server aufstellen

Wer braucht schon eine Standleitung für seinen Server, wer will sich schon mit dem Support (engl. Unterstützung, Hilfe) herumplagen? Selbst ist der Mann oder die Frau und vor den Kumpels kann man auch noch angeben. Auch wenn sie einen hinterher vielleicht etwas komisch anschauen. Und was man erst für Kosten spart! Und man kann alles treiben, was man will, ohne Rücksicht auf irgendeinen ignoranten Anbieter nehmen zu müssen.
Wenn du so denkst, dann ist ein eigener Server unter deinem Schreibtisch wohl das Richtige. Hier bist du im Schlaraffenland, hier kannst du alles realisieren, was du dir vorstellen kannst. Und falls es mal harkt, unter'm Tisch gibt's ja einen Resetknopf. ;)


2.4. Serverarten

Ja, aber was fängt man mit dem Server nun an? Das muss jeder für sich beantworten. Ich habe hier eine Liste von Anwendungsmöglichkeiten, von denen man eine oder alle umsetzen kann.
Denke aber darüber nach, ob du diese oder jene Anwendung wirklich benötigst. Teilweise benötigt die Konfiguration eines Features eine halbe Ewigkeit und ersetzt gerade mal einen Mausklick auf deinem Arbeitsrechner.


2.4.1. Dateiserver

Der Datei- bzw. Fileserver ist wohl die häufigste Variante eines Homeservers. Was er macht, ist schnell erklärt. Er soll Dateien im Netzwerk anbieten. Wahlweise für bestimmte User oder gar nur bestimmte Dateien für bestimmte User.
So entfällt das Kopieren auf USB-Sticks, -Festplatten oder optische Medien.

2.4.2. Backupserver

Der Backupserver (backup, engl. Sicherung) ist meist eine Erweiterung des Dateiservers. Er soll wichtige Daten speichern, damit sie nicht verloren gehen. Wichtige Daten können alles möglich sein, angefangen bei Urlaubsbildern bis zur Steuererklärung.
Wichtig ist hier zu erwähnen, dass man die Daten mehrfach vorhält: Einmal auf dem Arbeitsrechner, einmal auf dem Backupserver und wenn es geht, noch woanders. "Warum?" fragt sich mancher. Nun, angenommen die Daten werden vom Arbeitsrechner gelöscht, dann hat man sie immerhin noch auf dem Backupserver. Was ist aber, wenn z.B. der Blitz einschlägt und der Backupserver ebenfalls kaputt geht? Dann hat man immernoch woanders eine funktionierende Kopie. Zugegeben, das Szenario ist unrealistisch, aber keinesfalls unwahrscheinlich. Ich habe mal in einer Firma gearbeitet, in der die Daten vierfach gespeichert wurden und weil die Technik ausfiel, waren drei der vier Backups unbrauchbar.
Und denkt daran, die Backups aktuell zu halten. Je nach Aktualität und Wichtigkeit der Daten sollte man eine wöchentliche Sicherung anstreben. Mit einem Backup von vor zwei Monaten kann man meist nichts anfangen.

2.4.3. Multimedia-Server

Du hörst gerne Musik oder schaust oft deine archivierte Filmsammlung an? Oder nimmst du gar gerne auf, wenn doch mal keine grottige Sendung im TV läuft? Das könnte doch ein Server alles übernehmen.
Das ist heute keine große Kunst mehr. Streaming-Software (stream, engl. fließen, hier bedeutet es Datenfluss) gibt es wie Sand am Meer und die Funktionalität kann einen teilweise ersticken. Der Server sendet die Multimediadaten in das Netzwerk, sodass man sie bequem von einem beliebigen Computer oder auch netzwerkfähigen TV ansehen kann. HTPC ist das Zauberwort und steht für Home Theater Personal Computer (engl. Heimtheatercomputer). Das ist ein Computer, der gängige Multimediageräte wie DVD-Player, Radios und TVs ersetzen kann.


2.4.4. Webserver

Der Webserver (world wide web bzw. www, engl. Weltweites Netz, das Internet) ist einer der klassischen Anwendungsfälle eines Servers. Es wird eine Webserversoftware installiert, die eine Webseite in das eigene Netz oder gar das Internet ausstrahlt.
Da es gerade bei der Erreichbarkeit im Internet zu Sicherheitsproblemen kommen kann (siehe später), ist der lokale Webserver oft nur für Testzwecke da.


2.4.5. VoIP-Server

Toll, toller, VoIP. VoIP ist eine der Neuerungen, die das Internet in den letzten Jahren besonders geprägt haben. VoIP, in der Langform Voice over IP (voice over internet protocol, engl. Stimme über das Internetprotokoll), ermöglicht es Usern direkt bei anderen Usern anzurufen. Im Online-Spielbereich ist das schon fast ein alter Hut und gang und gäbe, aber es ist auch möglich direkt eine Festnetz- oder Handynummer anzurufen. Die Internetprovider bieten dafür entsprechende Tarife an. Den Server kann man dann z.B. als Anrufbeantworter und Faxgerät einrichten.


2.4.6. Sonstige

Es gibt noch weitere, unzählige Aufgabengebiete für einen Server. Manche sind sehr spezieller Natur, z.B. DNS- und DHCP-Server als Router-Ersatz, andere wiederum praktisch, z.B. e-Mail-Server. Genauso gut kann man auf einem Server auf Virtualisierung einsetzen, was einen dann doch wieder verdächtig an V-Server erinnert. ;)
Es ist fast alles möglich, was man sich vorstellen kann.


► Zurück zum Inhaltsverzeichnis ◄
 
Zuletzt bearbeitet:

e-Laurin

Fleet Admiral
Ersteller dieses Themas
Dabei seit
Juni 2005
Beiträge
10.498
#3
AW: FAQ - Der eigene Server

► Zurück zum Inhaltsverzeichnis ◄


3. Hardware

Du hast dich entschlossen einen Server zu mieten oder aufzustellen. Doch was für einen Computer braucht man denn da?
Es gibt spezielle Serverhardware, doch die ist eher für Firmen geeignet, was auch sehr am Preis liegt. Ein kompletter Server mit spezieller Serverhardware kann je nach Leistungsklasse mal schnell den Wert eines Kleinwagen annehmen. Deswegen sollte man sich unbedingt überlegen, was und wie viel wirklich nötig ist.


3.1. Anforderungen

Gängige Homeserver kosten eigentlich kaum mehr als 300 €. Wenig, denken sich viele, aber das Budget reicht wirklich in den meisten Fällen aus.
Für stromsparende Server eignet sich eine flottere Intel Atom-Plattform (ab etwa 100€), die meist schon als Set aus CPU, Mainboard und Grafikkarte kommt. Hier braucht man eigentlich nur noch RAM, eine Festplatte, Netzteil und ein Gehäuse kaufen. Und schon wäre er komplett.

Du könntest jetzt einwenden, dass dir der Atom zu wenig Leistung hat (obwohl er selbst HD-Videos flüssig abspielen kann, aber danach ist meist Schluss), aber auch hier gibt es für wenig Geld recht viel Leistung.
Man nehme einen billigen Dualcore (z.B. AMD Athlon II X2 215 - ca. 40 €), billiges Mainboard mit integrierter Grafikkarte (ab ca. 30-40€) und jetzt siehst du auch, dass das etwa in der Preisregion einer Atom-Plattform liegt. Allerdings hat dieser Computer wesentlich mehr Leistung.

Mach dir Gedanken über die Anzahl der Festplatten, die du benötigst. Wer seine Filmsammlung archivieren will, muss unter Umständen mit Terabytes an Daten rechnen, während ein paar Dokumente nicht mal ansatzweise in diese Regionen kommen. Es kommt aber nicht selten vor, dass die Festplatten den Löwenteil am Gesamtpreis des Systems einnehmen.

Bei Game- und VM-Servern muss man sich Gedanken über die RAM-Ausstattung machen. Für die anderen genannten Dienste reichen 2 GB meist völlig aus, in diesen zwei speziellen Fällen aber unter Umständen nicht. Bei Gameservern sollte man unbedingt auf die Hardwarevoraussetzungen achten. Wenn das Programm 1,5 GB haben will, dann überlege dir, wie viel der Rest des Systems braucht, addiere 15% Sicherheitsreserve hinzu und kaufe dann erst den RAM.
Bei VM-Servern ist es ähnlich. Ich zeige es mal am Beispiel des kostenlosen VMware Server 2:
Das Programm an sich benötigt ca. 50-100 MB, dazu kommt der Webserver, der sich auch noch mal ca. 50 MB nimmt. Wenn mindestens eine VM läuft, läuft auch der Hypervisor, der mal flugs 300 MB nehmen kann. Oben drauf kommt dann noch der RAM, den man der VM zugewiesen hat. Um es kurz zu machen, mit 2 GB RAM konnte ich gerade mal vier VMs neben dem Host-Betriebssystem laufen lassen, wenn ich den Gastsystemen jeweils nur spärliche 192 MB zugeteilt habe.

Je nach Mainboard hat man die Wahl, RAM mit ECC einzubauen. ECC ist eine Fehlerkorrekturtechnik für den Arbeitsspeicher. Es kann immer mal vorkommen, dass sich ein Bit im Speicher umdreht. ECC kann bis zu zwei fehlerhafte Bits erkennen und bis zu einen Bit korrigieren. Das macht die Sache etwas teurer. ECC-RAM kostet ca. 25% mehr als normaler RAM und benötigt zwangsweise ein ECC-fähiges Mainboard.

Statt neuer Hardware zu kaufen, kann es sich lohnen, einen ausgemusterten PC wieder in Betrieb zu nehmen. Ein Pentium III 500 mit 128 MB RAM schafft es allemal als Dateiserver herzuhalten. Vielleicht sollte man aber ein paar Euro springen lassen, um neuere Lüfter und Festplatten einzubauen. Nach so langer Zeit sind die alten Lüfter meist beinah Schrott oder so laut wie Turbinen. Bei den alten Festplatten sieht es kaum anders aus: Sie bieten für heutige Verhältnis recht wenig Platz (einigen, dürfte das aber trotzdem ausreichen) und sind oft lauter als modernere Kollegen.


3.2. Netzwerkgeschwindigkeit

Während vielen Leuten für normale Einsatzgebiete ein Standard-100MBits/s-Netzwerk (ca. 10 MBytes/s) ausreicht, gibt es durchaus auch welche, die fast zwingend ein Gigabit-Netzwerk (ca. 100 MBytes/s) brauchen. Gerade im Multimediabereich, bei Dateiservern und bei Backupservern lohnt es sich sehr, in ein Gigabit-Netz zu investieren. Das Kopieren über das Netzwerk ist dann etwa so schnell, wie eine Datei auf dem eigenen Computer von A nach B zu verschieben.
Ich empfehle auf jeden Fall auf Gigabit-Netzwerk umzusteigen. Meist bedeutet das nur den Austausch des Netwerkswitchs oder des Routers.


3.3. RAID

RAID (Redundant Array of Independent Disks, engl. redundante Anordnung unabhängiger Festplatten) im Heimbereich ist ein sehr kontrovers diskutiertes Thema. Aber was ist das? Kurz gesagt, werden mehr Festplatten genommen, als man eigentlich benötigt, diese werden dann so zusammen geschaltet, dass eine bis mehrere ausfallen dürfen, ohne das der Server ausfällt.

Der Knackpunkt an dieser Technologie ist, dass sie je nach Technik wie ein Backup-System erscheint. Es ist schon richtig, dass Daten mehrfach vorgehalten werden, aber nur um den Funktionsverlust einer oder mehrerer Festplatten kompensieren zu können.
RAID ist dazu da, dass ein Computer bei Festplattendefekten weiterlaufen kann. Es erhöht somit die Verfügbarkeit des Computers.
RAID ist nicht dafür gedacht, ein Backup zu ersetzen! Fällt das RAID aus oder wütet ein Virus, dann wird es schwierig bis unmöglich die Daten zu retten. Dafür hat man dann ein Backup.


3.3.1 Klassisches RAID

Die klassischen RAID-Modi werden von 1 bis 6 durchnummeriert. Daneben gibt es einige Sonderformen. Die im Serverbereich am meisten verwendeten RAIDs sind 1, 5 und eher selten die 6.
Während RAID 1 vor allem darauf ausgelegt ist, die Verfügbarkeit zu erhöhen, eignen sich die RAID-Modi 5 und 6 vor allem für viele Festplatten, die zusammen eine hohe Schreib- und Leseleistung erzielen sollen. Inwiefern letzteres im Heimbereich Sinn ergibt, darüber lässt sich streiten. Gigabit-LAN erlaubt Transferraten von theoretisch bis zu 125 MB/s. Das erreichen heute einige Festplatten schon alleine. Ein RAID kann je nach Zahl der Festplatten diesen Wert verdoppeln oder verdreifachen*. Aber wozu braucht man das, wenn man eh nicht mehr als diese 125 MB/s über das Kabel jagen kann?
Für das klassische RAID benötigt man Controller, die quasi auf jedem Mainboard aufgelötet sind oder extra Controller-Karten, die man in den Computer steckt. Es ist auch möglich, RAID über eine spezielle Software zu realisieren.

* Die wirkliche Geschwindigkeit von RAIDs hängt sehr mit dem verwendeten Controller zusammen. Dazu mehr in dem entsprechenden Kapitel.

RAID 1
Man nimmt hier zwei gleichgroße Festplatten. Der Computer spiegelt automatisch die Daten auf beide Platten, so dass eine ganze Festplatte ausfallen darf. Die zweite Festplatte übernimmt dann.
Auch wenn das nach einem Backup klingt, so dient das nur dazu, den Computer weiter am Laufen zu halten, auch wenn eine der zwei Festplatten den Geist aufgegeben hat.
Vom Platz her verliert man die Hälfte des verfügbaren Speicherplatzes, da alle Daten doppelt gehalten werden.
Geschwindigkeitsmäßig liegt dieses RAID etwa auf dem Niveau einer einzelnen Festplatte.

RAID 5
Ein RAID 5 besteht aus mindestens drei Festplatten. Die Daten werden über die Platten verteilt, so dass jede Platte ein Häppchen abbekommt. Zusätzlich wird eine Prüfsumme berechnet und gespeichert mit der man alle Daten bei Verlust einer Festplatte wiederherstellen kann.
Der Speicherplatzverlust ist hier nicht so enorm wie bei RAID 1. Man verliert Platz in der Größe einer Festplatte. Bei fünf Festplatten kann man also nur den Speicherplatz von 4 Festplatten verwenden.
Mit steigender Zahl der eingesetzten Festplatten sind große Übertragungsgeschwindigkeiten möglich. Allerdings steigen die Zugriffszeiten. Kurz gesagt, RAID 5 braucht länger, um Daten zu finden, aber wenn er sie gefunden hat, dann kann es sie schnell lesen und schreiben.

RAID 6
Dieser RAID-Modus funktioniert eigentlich genauso wie RAID 5, nur dass hier zwei Prüfsummen berechnet werden. Daraus resultiert, dass hier bis zu zwei Festplatten ausfallen dürfen, bevor das ganze RAID ausfällt. Man benötigt mindestens vier Festplatten, um RAID 6 einsetzen zu können.
Bei Einsatz verliert man immer den Speicherplatz von zwei Festplatten. Ähnlich wie bei RAID 5 steigt der Datendurchsatz bei steigender Anzahl eingesetzter Festplatten und leider auch die Zugriffszeiten.


3.3.2 Alternativen

Für das klassische RAID benötigt man in fast jedem Fall einen Controller. Da der je nach Leistungsklasse recht teuer werden kann, schaut man sich schnell nach Alternativen um.
Es gibt viele Alternativen.

JBOD
Früher hat man das zu den RAID-Modi gezählt, heute macht man das aber eher weniger.
JBOD ("just a buunch of disks", engl. "nur ein Haufen Festplatten") beschreibt die Möglichkeit einfach eine beliebige Anzahl (verschieden großer) Festplatten zu einem logischen Laufwerk zusammen zu schließen. Dafür benötigt man nur einen Festplattencontroller, von denen jeder Computer mindestens einen hat.
Er schreibt hier auf eine Festplatte und ist die voll, schreibt er auf der nächsten einfach weiter. Der User merkt davon nichts.
Der Vorteil ist, dass das unspektakulär einfach und überall funktioniert. Der Nachteil ist, dass schon eine defekte Festplatte ausreicht, das ganze JBOD sterben zu lassen. Wer ein Backup hat, den dürfte der Nachteil aber nicht sonderlich stören.
In der Windows Datenträgerverwaltung kann man so etwas übrigens auch einrichten. Einfach mindestens zwei unformatierte Festplatten markieren, ein übergreifendes Volume erstellen, eine Minute warten, fertig.

ZFS
ZFS ist ein Dateisystem (so was wie NTFS), das neben allerlei anderen Features auch RAID-Modi bietet. Man benötigt also nicht mehr unbedingt einen RAID-fähigen Controller. Dieses Dateisystem kann allerdings nur von Linux- und Unix-Betriebssystemen gelesen werden. Von einer Windows-Unterstützung habe ich noch nichts mitbekommen.

RAID 0
Nanu? Was ist das denn? Noch ein RAID-Modus? Und warum Nummer 0? Tja, RAID 0 ist eigentlich kein RAID, man zählt es aber gerne dazu (ähnlich wie man JBOD oft in einem Atemzug mit RAID nennt).
Vom Prinzip her verteilt man die Daten gleichmäßig auf mehrere Festplatten. Ohne Prüfsumme und damit auch ohne Redundanz. Fällt eine Festplatte aus, fällt das ganze RAID 0 (meist unrettbar) aus. Dafür bietet es teilweise extrem hohe Übertragungsraten, mehr noch als RAID 5. Im Idealfall ist die Maximalgeschwindigkeit die Summe der Maximalgeschwindigkeiten der einzelnen Festplatten. Nimmt man also drei 100 MB/s schnelle Platten, kann man hinterher ein bis zu 300 MB/s schnelles RAID 0 herausbekommen. Theoretisch. In der Praxis bleiben meist oft mehr als 30% Leistungssteigerung pro Festplatte übrig, weil der Controller "suboptimale" Leistung bringt.

Es gibt noch viele weitere Techniken und Software, die sich mit Verfügbarkeit beschäftigen. Das hier war nur eine kurze Übersicht der bekanntesten und am meisten verbreiteten.


3.3.3 Controller

Falls du dich schon mal etwas mit RAID beschäftigt hast, dann bist du sicher über die Begriffe Software-, Fake- und Hardware-RAID gestolpert. Ich gebe in diesem Kapitel eine kurze Übersicht, was das eigentlich genau bedeutet.

Bei einem RAID muss ja irgendwer die Festplatten organisieren. Das tut üblicherweise der Festplattencontroller. Er steuert und überwacht die Festplatten. Jeder Computer hat mindestens einen solcher Controller. RAID ist ein Feature, dass dieser Controller zur Verfügung stellen kann.

Hardware-RAID
Ist der Festplattencontroller speziell auf die Unterstützung von RAID ausgelegt und hat einen eigenen Prozessor (oft um die 500 MHz) und RAM (oft 512 MB bis 2 GB), dann kann man in den meisten Fällen ein Hardware-RAID erstellen. Das bedeutet, dass alle RAID-spezifischen Funktionen (Prüfsummenberechnung, wann arbeitet welche Festplatte, usw.) von diesem Controller aus gesteuert werden. Das Hardware-RAID ist im Normalfall extrem schnell und leider ist der Controller auch oft extrem teuer (> 300€).

Fake-RAID
Die normalen Festplattencontroller, die auf jedem Mainboard aufgelötet sind, setzen auf das Fake-RAID. Das bedeutet, dass jegliche RAID-Operationen (Prüfsummenberechnung, usw.) vom Hauptprozessor des Systems berechnet werden müssen. Theoretisch sind dieselben Geschwindigkeiten möglich, die ein Hardware-RAID bietet, praktisch bleiben davon aber oft kaum etwas übrig. Es gibt User, die sogar von Leistungsdefiziten berichtet haben. Das RAID war also langsamer als eine einzelne Festplatte.

Software-RAID
Hier braucht es keine dedizierte (= nur dafür ausgelegten) Controller. Ein Treiber im Betriebssystem kümmert sich um das RAID. Es unterscheidet sich kaum vom Fake-RAID (hier liegt der "Treiber" sozusagen in einem Chip vor), unterstützt aber oft mehr Features.
Unter Linux wird vor allem die Software dmraid dafür verwendet, unter Windows gibt es ebenfalls eine Funktion dafür, die aber sehr versteckt ist.

Wer nicht viel Geld ausgeben möchte, sollte auf ein Software-RAID setzen. Damit ist es immer möglich, mit dem RAID in einen neuen Rechner umzuziehen. Beim Fake- und Hardware-RAID ist das sehr oft nicht so einfach möglich, weil die Hardware das RAID nicht erkennt. Jeder Hersteller macht sein eigenes Ding und teilweise kann man die RAIDs nicht mal zwischen zwei Controllern desselben Herstellers übertragen.
Das sollte man im Hinterkopf behalten, da auch ein Server hin und wieder aufgerüstet oder ersetzt wird.


3.4. Stromverbrauch vs. Preis vs. Leistung

Da hat man einen Server stehen, aber wie viel Saft braucht der eigentlich? Wenn man sich PCs der oberen Leistungsklasse anschaut, dann ist ein Verbrauch weit über 100 Watt unter Last nichts ungewöhnliches. Selbst wenn sie gerade nichts zu rechnen haben, ist der Verbrauch immer noch sehr hoch.
Sollte der Server zwecks Verfügbarkeit (erinnerst du dich an den Anrufbeantworter?) immer laufen sollen, dann möchte man einen möglichst verbrauchsarmen Computer haben. Mit der Atom-Plattform es durchaus möglich auf 30 Watt zu kommen.
Wie schon erwähnt, ist ein Atom manchmal aber zu schlapp, aber selbst hier kann man mit ein paar Kniffen unter 50 Watt bleiben. Die Stromrechnung wird es danken. 50 Watt Dauerlauf bedeuten ca. 110 € auf die Stromrechnung im Jahr (gerechnet mit 25 Cent pro Kilowattstunde).
Hier muss man sich aber überlegen, ob es lohnt, extra stromsparende Hardware zu kaufen. Diese ist oft teurer als normale Hardware. Der Aufpreis sollte sich schon in absehbarer Zeit rentieren, da man auch einen Server nicht unendlich lange behält. Meist werden Computer spätestens alle fünf Jahre komplett ausgetauscht. Der Server wird eventuell länger verwendet, aber wer weiß, was dann schon für tolles Zeug auf dem Markt zu kaufen gibt. Man bedenke hier z.B. dass Computer in fünf Jahren die dreifache Leistung haben können.


3.5. Beispielkonfigurationen

Ich wurde oft gefragt, wie viel Computer man für diesen oder jenen Server benötigt. Ich gebe im Folgenden ein paar Beispiele an. Das sind grobe Zusammenstellungen, an denen man sich orientieren kann. Was du wirklich an Hardware brauchst, musst du mit dem Anwendungszweck, deinem Geldbeutel und dir ausmachen (in der Reihenfolge).

Datei- und Backupserver in einem
- wenig Leistung
- viel Festplattenspeicher
- kein Gigabit-LAN
- schlecht erweiterbar (mehr RAM)
- ITX, sehr klein!
- sehr geringer Stromverbrauch (mit angepasstem Linux sollten <30 Watt möglich sein)
Preis-/Leistung: eher schlecht

CPU, Grafik und Mainboard:
50€ Intel D410PT (Singlecore, 1.67 GHz)
Arbeitsspeicher:
10€ 1x 1 GB Modul
Festplatten:
130€ 2x Samsung EcoGreen F4 2 TB oder 2x Western Digital Caviar Green 2 TB
Gehäuse + Netzteil:
90€ Chenbro ES30068
---------------------
280€ Summe


Web-, Database- und VoIP-Server in einem
- ausreichend Leistung
- RAID 1 empfohlen
- gut erweiterbar (mehr RAM, mehr Festplatten, bessere CPU)
- geringer Stromverbrauch
Preis-/Leistung: gut

CPU:
41€ AMD Athlon II X2 240 (Dualcore, 2.8 GHz)
Arbeitsspeicher:
28€ 2x 2 GB Module
Mainboard, Grafik:
40€ MSI 760GM-P33
Festplatten:
56€ 2x Samsung Spinpoint F3 250GB oder 2x Western Digital Caviar Blue 250GB
Netzteil:
30€ be quiet! Pure Power 300W ATX 2.2
Gehäuse:
~50€ nach Wahl
---------------------
245€ Summe


Gameserver
- ausreichend Leistung
- RAID 1 empfohlen
- gut erweiterbar (mehr RAM, mehr Festplatten, bessere CPU)
Preis-/Leistung: gut

CPU:
74€ AMD Athlon II X3 455 (Triplecore, 3.3 GHz)
Arbeitsspeicher:
28€ 2x 2 GB Module
Mainboard, Grafik:
40€ MSI 760GM-P33
Festplatten:
56€ 2x Samsung Spinpoint F3 250GB oder 2x Western Digital Caviar Blue 250GB
Netzteil:
30€ be quiet! Pure Power 300W ATX 2.2
Gehäuse:
~50€ nach Wahl
---------------------
278€ Summe


Datei-, Backup-, Multimedia-, Web- und VoIP-Server in einem
- ausreichend Leistung
- viel Festplattenspeicher
- gut erweiterbar (mehr RAM, mehr Festplatten, bessere CPU)
- geringer Stromverbrauch (ich schätze 55 Watt)
Preis-/Leistung: gut

CPU:
47€ AMD Athlon II X2 250 (Dualcore, 3.0 GHz)
Arbeitsspeicher:
28€ 2x 2 GB Module
Mainboard, Grafik:
40€ MSI 760GM-P33
Festplatten:
195€ 3x Samsung EcoGreen F4 2 TB oder 3x Western Digital Caviar Green 2 TB
Netzteil:
30€ be quiet! Pure Power 300W ATX 2.2
Gehäuse:
~50€ nach Wahl
---------------------
390€ Summe


VM-Server
- viel Leistung
- für ca. 4 bis 8 VMs (je nach Gast-OS) geeignet
- RAID 1 empfohlen
- gut erweiterbar (mehr RAM, mehr Festplatten, bessere CPU)
Preis-/Leistung: gut

CPU:
106€ AMD Phenom II X4 955 (Quadcore, 3.2 GHz) oder
136€ AMD Phenom II X6 1055T (Hexacore, 2.8 GHz)
Arbeitsspeicher:
62€ 2x 4 GB Module oder
124€ 4x 4 GB Module
Mainboard, Grafik:
78€ MSI 880GMA-E55
Festplatten:
60€ 2x Samsung Spinpoint F3 500GB oder 2x Western Digital Caviar Blue 500GB
Netzteil:
30€ be quiet! Pure Power 300W ATX 2.2
Gehäuse:
~50€ nach Wahl
---------------------
386 bis 478€ Summe



► Zurück zum Inhaltsverzeichnis ◄
 
Zuletzt bearbeitet:

e-Laurin

Fleet Admiral
Ersteller dieses Themas
Dabei seit
Juni 2005
Beiträge
10.498
#4
AW: FAQ - Der eigene Server

► Zurück zum Inhaltsverzeichnis ◄


4. Software

Gehen wir nun weg von der Hardware hin zu der Software eines Servers. Diese hat eine besondere Anforderung, damit sie für den Serverbetrieb geeignet ist: Sie muss fehlertolerant sein. Was nützt einem ein Programm, dass schon bei den kleinsten Fehlern (die zwangsläufig auftreten werden) abstürzt? Man möchte Verfügbarkeit und zwar so lange der Server angeschaltet ist.
Anekdote: Windows 95 und 98 stürzten nach 49,7 Tagen Laufzeit ab, da ein interner Zähler dann einen Überlauf verursachte, der dann das ganze System zu Fall brachte.
Als zweite Eigenschaft sollte eine Serversoftware möglichst wartungsarm sein. Mit anderen Worten, einmal eingestellt, soll das Programm bis zum Weltuntergang laufen können.
Als dritte Eigenschaft wäre es ganz praktisch, wenn das Programm einen bei Fehlern irgendwie informieren kann. Man kontrolliert den Server ja nicht dauernd. Ich z.B. habe zuletzt vor zwei Wochen oder so mal auf meinen raufgeschaut. Fehler fallen einem so nicht gerade schnell auf, wenn sich das System nicht selber meldet. Es wäre recht praktisch, wenn einem das Betriebssystem darauf aufmerksam machen kann. Das hat ohnehin den Überblick über das gesamte System.


4.1. Betriebssystemvergleich

Um es vorneweg zu nehmen, im Serverbereich halte ich Linux einfach für das bessere Betriebssystem. Es kann in jedem Bereich individuell den eigenen Bedürfnissen angepasst werden, ist von Haus aus schon recht sicher und nicht zu vergessen kostenlos. Nachteilig ist der teilweise immense Konfigurationsaufwand, wenn man etwas spezielleres umsetzen möchte. Ein Anfänger tut sich hier oft schwer.
Windows hingegen, und damit meine ich die Server-Variante, hingegen ist größtenteils erstaunlich leicht zu konfigurieren. Nachteilig ist hier aber auch, dass es je nach Version sehr teuer sein kann. Und dann will man ja auch noch andere Software verwenden, die u. U. auch etwas kostet. Des weiteren neigen Anfänger wegen der üblichen Klick-Klick-Fertig-Vorgehensweise dazu sicherheitstechnischen Unsinn einzustellen.
Auch wenn ich Linux empfehle, sollte jeder bei dem Betriebssystem bleiben, dass er kennt. Ein Umsteiger hat zu Anfang oft große Probleme sich im neuen Betriebssystem zurecht zu finden. Das gilt besonders für den Umstieg von Windows auf Linux/Unix.


4.1.1. Linux & Unix

Die Linux-Welt ist immer stark in Bewegung. Kontinuierlich werden Verbesserungen eingepflegt und Fehler beseitigt. Wenn du diese Liste liest, ist sie möglicherweise schon veraltet.
Da es wirklich viele Linux-Distributionen gibt, gebe ich nur eine kleine Auswahl wieder.
Lies am besten [FAQ] Welche Distribution ist für mich die "richtige"?

Debian
Gilt als eines der stabilsten Betriebssysteme überhaupt. Bei Debian wird neue Software erst Monate lang getestet, ehe sie dem Betriebssystem standardmäßig beigegeben wird. Dadurch wirkt Debian auch etwas altbacken. Es ist allerdings ressourcensparend genug, dass es selbst auf alten Computern ohne Einschränkungen läuft.
Debian setzt mittlere Linux-Kenntnisse voraus, man sollte hier also ohne größere Probleme mit der Linux-Konsole umgehen können.
Es gibt eine Installations-CD, die nur das Grundsystem installiert. Man sollte sie bevorzugen und nur jene Software nachinstallieren, die man benötigt.
Zu Debian gibt es viele Hilfestellungen im Internet zu finden.


Ubuntu-Server
Ubuntu in der Serverversion basiert ursprünglich auf Debian, enthält aber weit aktuellere Software. Wie Debian setzt Ubuntu-Server gewisse Kenntnisse der Konsolensteuerung voraus.
Standardmäßig sind verschiedene Serverdienste vorinstalliert, weswegen dieses Ubuntu-Derivat einen etwas potenteren Computer als Debian voraussetzt.
Für Ubuntu gibt es extrem viele Hilfeseiten und Anleitungen im Internet. Teilweise können die Anleitungen für Debian ohne Änderungen auch auf Ubuntu-Server angewandt werden.

BSD
Wenn man von BSD spricht, meint man meistens FreeBSD, NetBSD und OpenBSD. Diese leiten sich vom alten BSD ab, welches wiederum ein Unix ist.
Die BSD werden durch ihren Fokus auf Sicherheit und Netzwerktechnik gerne für Server verwendet. Durch seine Ähnlichkeit mit Linux können auch Linux-User diese Betriebssysteme nach etwas Einarbeitung verwenden.
Wie Debian setzten die BSD Kenntnisse mit dem Umgang der Konsole voraus und sind daher nur für fortgeschrittene Anwender zu empfehlen. Es gibt allerdings auch einige Hilfestellungen im Internet zu finden.


4.1.2. Windows

Die Windows Server von Microsoft gleichen optisch den aktuellen Windows XP bis Windows 7 in einem abgespeckten Design. Windows-Nutzer fühlen sich deshalb sofort heimisch. Bei jedem Login öffnet sich automatisch ein Fenster, dass den Status des Servers anzeigt und schnellen Zugriff auf die Konfiguration bietet.

Microsoft Windows Server 2000
Diese Version basiert auf dem alten Windows NT 4 und erinnert an die Windows 9x-Reihe. Auf Basis von Server 2000 wurde Windows XP entwickelt. Es reicht völlig für aktuelle Home Server aus, wenn man auf einige neuere Netzwerk-Features verzichten kann.
Man sollte sich aber gut überlegen, ob man wirklich diese Version verwenden will, da Microsoft den Support eingestellt hat. Damit gibt es keine neuen Aktualisierungen und Fehlerberichtigungen mehr gibt.

Microsoft Windows Server 2003
Server 2003 basiert auf einer Weiterentwicklung von Windows XP. Zusammen mit dem Service Pack 1 nennt man dieses Windows Server auch 2003 R2.
Server 2003 (R2) ähnelt Server 2000, wurde aber in vielen Bereichen spürbar weiterentwickelt.
Wer nicht so viel Geld zur Verfügung hat, ist mit diesem Windows Server im Moment bestens bedient.

Microsoft Windows Server 2008
Server 2008 ist die aktuellste Version, die Microsoft zu bieten hat. Den Server gibt es in zwei Weiterentwicklungen:
Server 2008 wurde zusammen mit Windows Vista entwickelt.
Server 2008 R2 wurde zusammen mit Windows 7 entwickelt.
Server 2008 (R2) bietet aktuelle Technologien und Features, setzt aber auch einen eher aktuellen Mittelklasse-Computer voraus.
Es bietet die Installation auch als Server Core an, das nur ein minimales System mit Konsolensteuerung mitbringt. Diese ist für Anfänger keinesfalls zu empfehlen!

Microsoft Windows Home Server
Home Server basiert auf Server 2003 und orientiert sich an den Bedürfnissen der Heimbenutzer.
Es spezialisiert sich mehr auf Dateiaustausch, Kontrolle der angeschlossenen Windows-Computer und Streaming und stellt damit eine gute Grundlage für einen Heimserver. Allerdings fehlen einige weitergehende Funktionen, die in anderen Server-Versionen dabei sind, z. B. der Webserver IIS.
Im Laufe diesen Jahres (2011) soll der Nachfolger Windows Home Server V2 erscheinen.


4.2. Software

Ich kann hier nur eine Auswahl der wohlmöglich bekanntesten und verbreitetsten Software bieten. Anwendungssoftware unterliegt einem stetigen Wandel und was heute aktuell ist, ist morgen vielleicht schon veraltet.


4.2.1. Linuxsoftware

Unter Linux gibt es eine ganze Reihe an Serverdiensten zur Auswahl. Hier lohnt es sich sehr, sich selbst auf die Suche zu machen, weil an allen Ecken und Enden Neues entwickelt wird.

Dateiserver

ProFTPd
Das ist ein viel genutzter FTP-Server in der Linux/Unix-Welt. Er kann umfangreich konfiguriert werden.

vsftpd
Das ist ebenfalls ein FTP-Server und legt besonderen Wert auf Sicherheit.

Samba
Samba ermöglicht Dateifreigaben, die von Windows-Computern verwendet werden können und erlaubt Linux den Zugriff auf Dateifreigaben von Windows.

NFS
NFS ist ein Netzwerkdateisystem, dass eine einfache Einbindung von Laufwerken auf beliebigen Linux-Rechnern im Netz erlaubt.

netatalk
Diese Software-Suite erlaubt der Zugriff von Mac OS (X)-Computern auf Dateien und Drucker des Linux/Unix-Servers.

Backupserver

rsync
Es ist DAS Standardbackupprogramm unter Linux.

BackupPC
Erlaubt Backups von hunderten PCs zu erstellen und zu verwalten. Es bietet ein Webinterface und Backup über Programme wie rsync und Diensten wie Samba.

Multimedia-Server
Icecast
Icecase wird vorrangig für das Streaming von Audio verwendet.

VLC
VLC kann nicht nur Medien abspielen, er kann sie auch streamen.

Webserver

Apache
Diese Software kann umfangreich konfiguriert werden und wird auf ca. 60% aller Webserver eingesetzt.

lighttpd
Kurz Lighty genannt ist ein kleiner und sehr schneller Webserver, der u. A. von YouTube verwendet wird.

nginx
Ist ein Webserver und Proxy , der unter anderem hier auf ComputerBase eingesetzt wird.

VoIP-Server

Asterisk
Asterisk kann eine Telefonanlage ersetzen, verwaltet Telefone, unterstützt FAX und lässt die Einrichtung eines Anrufbeantworters zu.

TeamSpeak 2
Die Serverversion des beliebten Sprachkonferenzprogramms erlaubt eine einfache Konfiguration, ist aber mittlerweile veraltet. Damit

TeamSpeak 3
Das ist der Nachfolger. Es hat mehr Features, ist aber im Moment schwieriger zu konfigurieren als TeamSpeak 2.

Ventrilo
Ventrilo steht in direkter Konkurrenz zu TeamSpeak.

Mumble
Genauso wie Ventrilo ist Mumble ein VoIP-System, dass in etwa dieselben Funktionen beherrscht wie TeamSpeak.

Andere

diverse Gameserver


4.2.2. Windows

Hier möchte ich unterschiedliche Software auflisten, die man üblicherweise auf einem Server mit Windows so installiert. Diese Liste erhebt weder Anspruch auf Vollständigkeit, noch kann ich garantieren, dass die Software für den jeweiligen Bereich nicht schon veraltet ist.

Dateiserver

IIS
Der IIS ist in Microsoft Windows Server integriert und stellt dadurch den Standard-Web- und FTP-Server und Windows dar.

FileZilla
FileZilla ist ein einfach zu konfigurierender FTP-Server.

Serv-U
Das ist ein kommerzieller FTP-Server, der sich stark in Windows integrieren lässt.

Backupserver

Windows-Sicherung
Das ist keine Server- sondern Client-Software. Der Server muss als Dateiserver konfiguriert sein, auf den die Sicherung das Backup speichert.

Multimedia-Server

Microsoft Media Server
Dieser Server streamt Audio- und Video-Daten. Jeder Player kann den Stream abspielen, wenn er das MMS-Protokoll unterstützt.

Webserver

IIS
Apache
nginx
Diese Software wurde bereits beschrieben.

VoIP-Server

Asterisk
TeamSpeak 2
TeamSpeak 3
Ventrilo
Mumble
Diese Software wurde bereits beschrieben.

Andere

diverse Gameserver


4.3. Sonstige

Es gibt für Server auch spezielle Software für spezielle Anwendungsfälle. Darunter fällt z.B. ein Virtualisierungsserver. Ich empfehle hier VMware Server 2. Das ist kostenlos, man muss sich nur einmal registrieren. Ich empfehle die Software deshalb, weil VMware einer der großen im Virtualisierungsgeschäft ist. Die Administration erfolgt über ein übersichtliches Webinterface.
Microsofts Hyper-V finde ich nicht so toll, weil es recht viel Ressourcen benötigt und nicht an den Funktionsumfang von VMware-Software herankommt.
Als dritten großen kann ich noch Xen nennen, aber das habe ich nie ausprobiert und kann deshalb dazu nichts sagen.


► Zurück zum Inhaltsverzeichnis ◄
 
Zuletzt bearbeitet:

e-Laurin

Fleet Admiral
Ersteller dieses Themas
Dabei seit
Juni 2005
Beiträge
10.498
#5
AW: FAQ - Der eigene Server

► Zurück zum Inhaltsverzeichnis ◄


5. Sicherheit

Die Sicherheit ist eines der wichtigsten Aspekte eines Server. Man darf nicht vergessen, dass man als Betreiber oder Mieter eines Servers für alle rechtlichen Pflichten verantwortlich ist. Hackt jemand den Server und macht daraus z. B. eine Spam-Schleuder, dann ist nach den aktuellen Gesetzen der Betreiber Schuld! Er hat Sorge zu tragen, dass sein Server stets im Einklang mit dem Gesetz steht.
Leser, die einen Server mieten, sollten ganz besonders auf Sicherheit achten. Die Anbieter verstehen oft keinen Spaß, wenn ein Server plötzlich zur Warez-Tauschbörse mutiert.


5.1. Gefahren

Es gibt viele Dinge, die einem Server gefährlich werden können. Es sind nicht nur Hacker (die in diesem Fall eigentlich als Cracker bezeichnet werden müssten) und Malware (Viren, Würmer, etc.), es sind auch Familienmitglieder und Freunde. Gerade bei letzteren drückt man gerne ein Auge zu, um ihnen wahllos irgendwelche administrativen Rechte zu geben. Das endet dann oft darin, dass hinterher nichts mehr geht, weil der gute Kumpel "nur mal eben" etwas "optimieren" wollte. Im Heimbereich reicht ein Administrator völlig aus. So komplex wird das Ganze nicht, dass sich ein Team darum kümmern muss. Im Team kommt es immer wieder vor, dass die eine Hand nicht weiß, was die andere tut - das Fiasko ist vorprogrammiert.
Auto fahren tut ja schließlich auch nur der Fahrer, auch wenn es Leute auf dem Beifahrersitz gibt, die meinen, es besser zu können. Sei ein bisschen egoistisch und sage: "Nein!"

Informiere dich immer ausreichend, wenn du eine Änderung machen und/oder neue Software installieren willst. Manchmal reißt man unbewusst Lücken auf. Dienste, die noch nicht fertig konfiguriert sind, sollten noch nicht freigegeben werden. Die Gefahr, dass etwas daneben geht, ist dann groß und die Sauerei hinterher weg zu machen, braucht dann meistens eine ganze Menge Zeit.

Im Zeitalter der sich ausbreitenden Schadsoftware sollte man unbedingt darauf achten, dass der Server komplett unabhängig von anderen Computern im Netz arbeiten kann. Es kann ja nicht sein, dass plötzlich nichts mehr geht, nur weil der Arbeitsrechner durch einen Virus lahm gelegt wurde.

Das Internet ist in aller Munde, sowohl was Innovationen als auch Gefahren angeht. Erstaunlicherweise kann man sich auf recht einfache Art schützen. Ein Virenscanner und eine Firewall sind alles, was man braucht. Kompliziertere Dinge wie IDS (intrusion detection system, engl. Einbrechererkennungssystem) sind für den Privatbereich eigentlich übertrieben. Der normale Hacker ist an den Privatcomputern so gut wie gar nicht interessiert. Was soll er auch da?


5.2. Antivirenprogramm

Das Antivirusprogramm sollte generell immer im Hintergrund laufen und so konfiguriert sein, dass es alles und jede Datei überprüft. Einige AV-Programme sind nämlich standardmäßig so eingestellt, dass sie nur auf die häufigsten Gefahrenquellen kontrollieren, obwohl sie mehr prüfen können.
Insbesondere bei Dateiservern sollte das AV-Programm regelmäßig jene Verzeichnisse kontrollieren, die im Netzwerk für den Schreib- und Lesezugriff geöffnet sind. Denn wenn Sohnemann kommt und Papi fragt, er solle doch sich bitte das eine lustige Bild anschauen oder kostenlose Spiel ausprobieren, dass er auf das Netzwerklaufwerk kopiert hat, möchte man doch sicher sein, dass man sich nichts einfängt. Der Server kann hier als Filter vor unerwünschten Überraschungen dienen.

Virenscanner für Windows-Server sind ein Thema für sich, Desktop-Programme funktionieren zwar wegen der Verwandtschaft zur den normalen Versionen, aber was bringt es einem, wenn auf dem Server nachgefragt wird, ob die infizierte Datei gelöscht, in Quarantäne oder zum AV-Spezialisten geschickt werden soll? Beim Windows Home Server sieht es noch blöder aus. Es gibt zwar Produkte, die aber kaum gepflegt werden und nicht an die Windows Home Server Konsole angepasst sind. Zudem sind diese Programme nur für OEMs gedacht und nicht einzeln erwerbbar. Einige wurden sogar inzwischen eingestellt. Bei den größeren Servern gibt es Produkte, die aber entsprechend kosten, aber auch erweiterten Support anbieten.


5.3. Firewall

Eine Firewall kontrolliert sowohl eingehende als auch ausgehende Netzwerkverbindungen. Die normalen Systeme kontrollieren dabei nur, ob die Verbindungen erlaubte Ports öffnen oder ein erlaubte Programm raus telefonieren darf. Eine inhaltliche Kontrolle der Verbindungen ermöglichen nur sogenannte Application Layer Firewalls (engl. Applikationsschichtfirewall), die aber wiederum für Privatleute etwas zu viel des Guten sind.

Die Faustregel ist, alles sollte grundsätzlich blockiert sein und nur händisch ausgewählte Programme sollten Verbindungen nach außen aufnehmen dürfen. Ports sollte von außen generell geschlossen sein, es sei denn, der Server soll darüber Dienste anbieten. In diesem Fall sollten nicht die Standardports verwendet werden, so weit möglich. Die ersten 1000 Ports (sie gehen bis 65.535) werden gerne von automatischen Programmen angepingt, ob dort Dienst nach außen hin sichtbar sind. Dieses Ausspionieren ist die erste Stufe eines Angriffs und soll Schwachstellen ausmachen.
Ports jenseits der 30.000 sind deshalb vorzuziehen.


5.4. Aktualisierungen

Es versteht sich von selbst, dass die Software eines Server generell auf dem aktuellen Stand sein sollte. Updates stellen nicht nur neue Funktionen bereit, sie stopfen auch bekannt gewordene Lücken.

Aber hier muss ich auch wieder warnen. Es gibt so einige Fälle, in denen ein Update das ganze Programm lahm gelegt hat. Berichte darüber finden sich regelmäßig in den Medien. Um vorzubeugen, sollte das System selbst regelmäßig oder zumindest vor einer Aktualisierung gesichert werden. Falls dann nämlich etwas schief geht, kann man den alten Stand zurückspielen.

Die Changelog (engl. Veränderungsaufzeichnung) sollte man sich immer durchlesen. Durch geänderte Verhaltensweisen des Programms oder neue Features, ist eine Änderung an der Konfiguration manchmal nötig.


5.5. Verschlüsselung

Für ganz Paranoide und jene Leute, die wirklich wichtige Sachen (Steuererklärung oder ähnliches) auf dem Server behalten, bietet sich eine verschlüsselte Speicherung an. Verschlüsselungsprogramme stellen dazu Container bereit, die sich wie normale Verzeichnisse oder Laufwerke verhalten. In diese kann man dann Daten speichern und das System verschlüsselt bzw. entschlüsselt sie dann automatisch. Das Öffnen der Container ist nur mit einem oder mehreren Schlüsseln möglich.

Achtung! Hin und wieder passiert es, dass Datenfehler auftreten. Das ist ein mehr oder weniger normaler Vorgang, den das Betriebssystem in den meisten Fällen automatisch korrigieren kann. Bei Verschlüsselungssoftware sieht die Sache aber etwas anders aus. Diese Programme bieten keine derartigen Automatismen an, das ist angesichts der Technik dahinter auch recht schwierig. Von verschlüsselten Daten sollte immer ein Backup angelegt werden, wenn möglich mit einem anderen Passwort verschlüsselt. Wenn man nämlich das eine vergisst, hat man zumindest noch die Möglichkeit auf das Backup zu zugreifen.

Und hier noch die Standardpredigt in Sachen Passwörter:
Verwendet ausreichend lange Passwörter (mehr oder gleich acht Zeichen, eher mehr)!
Verwendet darin keine Wörter, die in einem Wörterbuch vorkommen!
Verwendet Groß- und Kleinschreibung, Sonderzeichen und Zahlen!
Nehmt nicht den Namen eures Haustiers, oder Geburtstage oder andere Daten deiner Familie.
Schreibt das Passwort nicht auf einen Zettel und klebt ihn an den Bildschirm! (So was soll's tatsächlich geben.)
Sagt niemanden das Passwort!

Eine einfache Möglichkeit Passwörter zu generieren, die diese Anforderung genügend und die man sich auch merken kann, ist diese:
Nehmt einen Satz, dass eine alltägliche Situation beschreibt, z. B.: Ich muss 5 vor 9 auf der Arbeit sein.
Nun nehmt immer die Anfangsbuchstaben, achtet auf deren Groß- und Kleinschreibung, Zahlen und Satzzeichen und fertig ist das Passwort.
Hier wäre es: Im5v9adAs.
Zehn Zeichen, Großbuchstaben, Kleinbuchstaben, Zahlen. Das bedeutet, um das zu knacken, muss man bis zu eine Trillion Kombinationen (eine Eins mit 18 Nullen) durchsuchen, bis man dieses Passwort gefunden hat. Das ist eine Größenordnung, an der selbst Supercomputer jahre- und jahrzehntelang zu schaffen haben. Und den Satz kann man sich einfacher merken, als das komplizierte Passwort selber.


5.6. Rechtevergabe

Wie schon erwähnt, sollten alle User des Servers mit so wenig Rechten wie möglich ausgestattet werden. Es ist nicht notwenig, wenn jemand etwas verstellen kann, wofür es keinen Anlass gibt. Es mag zwar gerade gegenüber der Familie oder Kumpels vielleicht hart klingen, gerade bei eher harmlosen Sachen ("Ich will doch nur die Zeit richtig einstellen."), aber wenn man erst mal angefangen hat, das Rechtesystem auf diese Art aufzuweichen, dauert es nicht lange, bis die Leute noch mehr Rechte haben wollen. Am Ende bist du dann bei Windows 95 angekommen, bei dem jeder User Administratorrechte hatte und auf alles uneingeschränkt Zugriff hatte. Das äußerte sich dann oft genug in zerstörten Systemdateien.

Des weiteren solltest du unbedingt, falls noch nicht geschehen, Abstand davon nehmen, dauernd als mit dem Administratoraccount zu arbeiten, wenn es ein eingeschränkter Useraccount auch getan hätte. Microsoft hat das erkannt und schränkt mittlerweile selbst Administratoraccounts ein.
Windows-User, die auf Linux wechseln, werden gerade zu Anfang laufend mit Meldungen wie: "Sie brauchen root-Rechte für dies und jenes," konfrontiert. Wenn sie genug davon haben, loggen sie sich nur noch mit dem root-Account ein, bis dann plötzlich eine Stunde später gar nichts mehr geht. Ein root-Account unter Linux ist überhaupt nicht eingeschränkt. Er darf alles. Sogar das System im laufenden Betrieb löschen (unter Windows ein Ding der Unmöglichkeit).

Serverprogramme sollten immer in extra für sie geschaffenen Benutzerkonten laufen. Falls nämlich mal etwas schief geht und das Programm Amok läuft, kann es den Rest des Systems nicht beeinträchtigen.


► Zurück zum Inhaltsverzeichnis ◄
 
Zuletzt bearbeitet:

e-Laurin

Fleet Admiral
Ersteller dieses Themas
Dabei seit
Juni 2005
Beiträge
10.498
#6
AW: FAQ - Der eigene Server

► Zurück zum Inhaltsverzeichnis ◄


6. Tipps und Tricks

Nach dem recht ernsten Thema Sicherheit kommen wir nun zu den Dingen, die einem Administrator das Leben sehr vereinfachen können oder einfach nur nice to have (engl. nett sie zu haben) sind. Die folgenden Abschnitte sind eine lose Anhäufung von Dingen und folgen keinem roten Faden.

6.1. Eine eigene Domain

www.ich-bin-der-king.de, www.meine-urlaubsfotos.de usw. Domains. Viele wollen eine, die besten sind schon vergeben.
Eine Domain ist ein Stück Text, der mit der IP deines Server verknüpft ist. Wenn jemand nun die Domain aufruft, dann fragt der Computer beim DNS-Anbieter (domain name system, engl. Domänennamenssystem) nach, mit welcher IP-Adresse sie verknüpft ist und ruft dann die entsprechende IP auf - und landet auf deinem Server. Eine ziemlich praktische Sache.

Und wie kommst du jetzt an deine eigene? Du gehst zu einen der Domain-Reseller. Diese beauftragen dann den Domain-Registrar, die Domain für dich abzustellen. Mit einfacheren Worten, du gehst zu 'nem Laden, und der lässt für dich eine Domain einrichten. Kostet für eine .de-Domain so um die 30 Cent pro Monat. Für .com-Domains kann man schon mal einen Euro pro Monat einrechnen. Eigentlich gar nicht mal so teuer, wenn man sich mal informiert und erkennt, wie aufwändig das System dahinter ist.
Der Laden stellt dir dann üblicherweise eine Konfigurationswebseite zur Verfügung, wo du die Domain mit deiner Server-IP verknüpfen kannst. Noch ein Hinweis: Diese Verknüpfung, sprich die Aktualisierung des DNS-Servers, kann durchaus einige Stunden dauern, also nicht ungeduldig werden, wenn es nicht sofort geht.

Und jetzt fehlt noch bald das wichtigste: Wenn dein Server bei dir Zuhause steht und per DSL an das Internet angebunden ist, dann hast du das Problem, dass dein ISP (internet service provider, engl. Internet-Service-Anbieter) alle 24 Stunden die Verbindung trennt und dir danach eine neue IP-Adresse zuordnet. Die IP deines Servers ändert sich also jeden Tag und es laufend manuell nachzutragen und dann auch noch auf die Aktualisierung des DNS zu warten, ist murks.

Hier bietet sich ein Anbieter eines Dynamic-DNS-Systems, kurz DynDNS, an. Diese Anbieter haben eigene DNS-Server, die sich sofort bei einer Änderung aktualisieren. Viele Router bringen auch gleich eine Unterstützung für die verbreitetsten DynDNS-Anbieter mit, so dass dort immer gleich die aktuelle IP bekannt gemacht wird.
Die weiter oben gemietete Domain verknüpft man einfach mit seiner DynDNS und schon hopst ein Besucher von deiner Domain automatisch zum DynDNS-Anbieter und dann zu deinem Server.

Und der Clou daran, viele bieten ihren DynDNS-Service kostenlos an.


6.2. Remoteverwaltung

Sobald man sich einen Server eingerichtet hat, steht er meist still in der Ecke und werkelt fleißig vor sich hin. So gesehen, braucht er keine Tastatur und keinen Monitor mehr. Das haben sich schon andere Leute gedacht und haben daher Remote-Verwaltungsprogramme (remote, engl. entfernt) entwickelt. Mit diesen kann man sich über das Netzwerk auf den Server einwählen und ihn so fernsteuern. Teilweise sind diese Programme so weit entwickelt, dass man glatt der Meinung sein kann, direkt am Server zu sitzen, obwohl es so nicht ist.

Die bekanntesten Remote-Programme stelle ich hier vor:

Remotedesktopverbindung (Windows)
Das Standardfernverwaltungsprogramm von Windows. Es erlaubt, die Desktopoberfläche des entfernten Computers so anzuzeigen, als wäre der Monitor direkt dort angeschlossen. Selbst Tastatur- und Mauseingaben funktionieren ohne Probleme. Und habe ich schon erwähnt, dass sogar die Zwischenablagen von dem lokalen und entfernten Computer verbunden werden? So kann man einfach Text zwischen beiden Computern austauschen.
Zu beachten ist nur, dass der zu fernsteuernde Computer die Windows-Remoteunterstützung aktiviert haben muss, damit ein anderer Computer sich dort anmelden kann. Es geht alles sehr einfach einzustellen und lässt sich sogar als Verknüpfung auf dem Desktop speichern. Die Remoteunterstützung gibt es abseits von Windows Server nur bei den Professional-Versionen von Windows (also Windows XP/Vista/7 Professional).

OpenSSH (Linux/Unix)
Die Secure Shell, kurz ssh, (engl. sichere Schale, hier gesicherte Konsole) ist im *nix-Bereich (Linux & Unix) wohl eine der bekanntesten Möglichkeiten sich auf entfernte *nix-Computer einzuwählen. Dazu muss auf dem entfernten Computer der SSH-Server laufen und entsprechend konfiguriert sein, anschließend kann man sich dann von außen einwählen und wird an die Standardkonsole des Benutzers (üblicherweise die Bash) weitergeleitet. Da kann man dann tun und lassen, was man will.
Bei ssh wird die Kommunikation übrigens verschlüsselt, daher auch der Name. Die Verschlüsselung kann konfiguriert werden, sowohl asymmetrische Passwörter sind möglich als auch Zertifikats-gesteuerte Authentifizierung.

VNC (Windows & *nix)
VNC funktioniert ganz ähnlich wie der Remotedesktop von Windows. Auf dem Server läuft ein Programm, der VNC-Server, an dem sich ein VNC-Client anmelden kann. Er sieht dann den Desktop und kann ganz normal arbeiten. Das VNC-Protokoll ist standardisiert und daher funktionieren die meisten VNC-Derivate ganz gut miteinander. Einige Extra-Features funktionieren aber nur mit VNC-Server und -Client aus demselben Haus.
Noch ein wichtiger Hinweis: VNC arbeitet normalerweise unverschlüsselt. Es gibt aber Abkömmlinge, die verschlüsselte Verbindungen unterstützen.
Unter Linux sollte man sich überlegen, ob man wirklich VNC verwenden will. Die ssh ist mächtiger, weil die Linux-Konsole mächtig ist. Und für VNC muss man auch noch extra eine grafische Oberfläche installieren. Das schafft nur unnötigen Ressourcenverbrauch und Platz für Sicherheitslücken.

TeamViewer (Windows, *nix, Mac OS)
Das ist ein Konkurrent zu VNC. Jeder Windows- , Linux/Unix- (mit installierter grafischer Oberfläche) und Mac OS-Computer kann von jedem Gerät, dass minimal einen Webbrowser mit Flash-Unterstützung hat, ferngesteuert werden.
Die Kommunikation ist mit aktuellen Verfahren verschlüsselt und bietet sich vor allem dort an, wo Systeme mit vielen unterschiedlichen Betriebssystemen verwendet werden, z. B. Windows- und Linux-Computern.


6.3. IPv4 vs. IPv6

"Äh, was ist denn das?" werden sich einige sicher fragen. Nun, IPv4 ist das aktuelle Protokoll, auf das das Internet basiert. Deine IP-Adresse kommt direkt da her. Und was ist mit IPv6? Das ist eine Weiterentwicklung von IPv4 und soll das in den nächsten Jahren ersetzen.

IPv4 erlaubt ca. 4 Mrd. verschiedene IP-Adressen. Klingt viel, ist es aber heute nicht mehr. In Asien herrscht bereits starke Knappheit und früher oder später wird das hier in Europa ebenfalls so sein. Deshalb will man in naher Zukunft auf IPv6 umsteigen, dass 340 Sextillionen (340 und dann noch 36 Nullen) Adressen ermöglicht. Viel, wa? Hat man damals bei der Einführung von IPv4 auch gedacht...

Leider sind die ISPs alle verdammt langsam, der Umstieg kommt und kommt nicht. Das kann man aber verstehen, weil das sehr teuer ist. Für den Serverbetreiber heißt das, um IPv6 muss man sich noch nicht kümmern, aber in vermutlich spätestens 10 Jahren wird es zum Standard. Hoffentlich.


► Zurück zum Inhaltsverzeichnis ◄


--- End of Line ---
 
Zuletzt bearbeitet:
Top