Kernel selbst kompilieren - was bringt das?

Pilly

Lt. Commander
Registriert
Juli 2004
Beiträge
1.269
Man hört ja oft, dass viele Linux User ihren Kernel selbst kompilieren. Jedoch frage ich mich schon seit geraumer Zeit: Warum?
Was bringt es einem, wenn er seinen Kernel selbst kompiliert anstatt einfach die fertige Version zu laden?

MfG Pilly
 
Viele?
Das werden nicht mehr als 1% der User sein.
Und warum?
Weil man es kann!
Vorteil?
Auf die eigene Hardware angepasstes System,
ist schlanker und ggf. etwas schneller.
Besonders die Anpassung an die CPU Architektur ist interessant.
Aber auch dafür liefern diverse Distributionen verschiedene Kernel mit.
Ansonsten: Lerneffekt und Spass am ausprobieren.

Wirklich brauchen wird das der normale Anwender eher sehr selten.

gruss, limoni
 
Der Kernel wird kleiner, weil nur noch Treiber "geladen" bzw Module benötigt werden von Geräten die auch wirklich in Deinem Rechner vorkommen.
Du kannst Erweiterungen zum Kernel dazupatchen die bei einem fertigen Kernel nicht laufen würden. (Man denke an closed Source Packete wie die X-Fi-Treiber)
 
Hi

Also zunächst werden von den Distributionen nicht immer die aktuellsten Kernel bereitgestellt. Ist man also aufgrund von sehr aktueller Hardware auf diverse Treiber angewiesen, braucht man eben den neusten Kernel.

Desweiteren lässt sich der Kernel sehr auf die verwendete Hardware anpassen. So kann man unnötige Treiber und Funktionen einfach weglassen, was das System etwas schlanker machen kann.
Das Reaktionsverhalten lässt sich über Scheduler, Timer Frequenzen etc. beeinflussen, um z.B. den Kernel für einen Server oder den Desktopeinsatz anzupassen.

Das sind so Dinge, die sich nicht als Treiber, in Form eines Modules, einfach nachladen lassen.

Die meisten werden sicherlich nicht unbedingt davon profitieren. In der Regel sollte ein fertiger Kernel vollkommen ausreichen.
 
Hin und wieder werden auch Kernel bei mir Zuhause übersetzt.
Auf der Fedora Workstation bleibt es aber bei dem Kernel des Distributors.
Auf dem Bastelrechner wird der Kernel als rein monolithisch kompiliert.
Der Hit ist sogar ein .git-checkout des Linuxkernels.
Geschwindigkeitsvorteile gibt es nicht direkt, aber es macht schon einen Unterschied aus, ob man es als Desktopkernel oder als Serverversion übersetzt.
 
Zuletzt bearbeitet:
bin gentoo user, da ist es quasi schon pflicht den kernel selber zu bauen.
und wie die anderen schon sagten: man lernt dabei was und baut den kernel im grunde nach seinen wünschen. es sind nur die nötigen module für die eigene hardware drin, der kernel bleibt schön schlank und eigene wünsche und patch sets können eingearbeitet werden(bei mir zB mactel für das macbook-pro). also quasi maßgeschneidert im gegensatz zu massenware..^^
 
Kernel selbst zu compilieren ist schon Routine, mach ich in Gentoo beinahe täglich wenn sich eine neue Major-Version dem Release nähert - weil ich ein custom-kernel Patchset verwende, zen-sources um genau zu sein, und mir dann den aktuellsten git-checkout hole.

Und natürlich macht es Sinn - mein eigenes Kernel-Image ist nur den Bruchteil etwa eines Ubuntu-Kernelimages groß und exakt auf meine Anforderungen abgestimmt.
 
Zuletzt bearbeitet:
ah!

servus! auch ein glücklicher zen-sources benutzer :D

der vorteil von selbst-kompilierten kernel:
- die hardware-unterstützung, die man braucht
- nix unnötiges -> sicherer
- die patches, die man braucht -> schneller, besser, sicherer, ... (siehe grsecurity, pax, ck-patchset, etc)
- er ist kleiner / braucht weniger speicher, kann aber auch größer werden und dafür leistungsfähiger
- er ist oft aktueller, als der von der distribution angebotene kernel
- ...
 
Vielen Dank erstmal für eure Antworten ;)
 
naja ich sag es mal so - wenn du den distri kernel übernimmst ist der ungefähr genauso wie bei windows - funktioniert sehr stabil (sowohl win als auch linux) aber auch sehr fett.

wenn du wirklich von linux (linux als name beschreibt nur den kernel) profitieren willst dann passt du den kernel an. gefühl ist das auf jeden fall schneller :-D
wenn man nur 256 oder 512 mb ram hat dann profitiert man auch von der geringeren rambelegung, bei 2 gb oder so spielt das keine rolle mehr :-D
 
Fett?

Naja, wenn die Treiber möglichst alle als Module ausgelagert sind und nur bei Bedarf geladen werden, macht das nicht mehr soviel aus.
Beispiel:
Pentium 200Mhz / 128MB EDO Ram / Asus TP4N - Intel 430FX / Realtek RT8139 / Maxtor 90845D4 8GB / GF2 MX400 64MB

openSUSE 10.3 als Standardinstallation KDE von CD ohne Online Updates.
Fluxbox
Conky
=> Nach dem Systemstart: 19,7MB mit Conky
https://www.computerbase.de/forum/threads/pii-233mhz-64mb-ram.361120/page-2#post-3631533

und das mit dem standard 2.6er Kernel "2.6.22.5-31-default"

Also, soooo viel wird da auch mit selbst angepassten Kerneln in der Praxis nicht mehr drin sein.
Oder bietet jemand weniger? ;)
Normales Desktopsystem mit grafischer Oberfläche und Netzwerk/Internet.
Würde mich mal interessieren, was da noch so möglich ist.

gruss, limoni
 
Zurück
Oben