Umverteilung der Aufgaben im Betriebssystem?

Benjamin Marks
60 Kommentare

In den vergangenen Jahren stiegen am Prozessormarkt neben der Arbeitsgeschwindigkeit an sich auch die Anzahl der Prozessorkerne stetig an. So sind in vielen PCs inzwischen Dual- und Quad-Core-Prozessoren verbaut – Tendenz steigend.

Dave Probert, seines Zeichens Kernel-Entwickler bei Microsoft, sieht ein grundlegendes Problem bei dieser Entwicklung in der unzureichenden Nutzung des vorhandenen Potentials dieser vielen Prozessorkerne. In einem Vortrag an der University of Illinois stellte Probert ein neues Modell für die Handhabung zukünftiger Betriebssysteme vor. Dabei beteuerte er, dass dieses Modell in keiner Weise seine aktuelle Arbeit am kommenden Microsoft-Betriebssystem widerspiegle, sondern lediglich eine Anregung zum Umdenken sei. Im Gegenteil: er stehe mit diesen Ansichten im Entwicklungsteam von Microsoft größtenteils allein da.

Mit seinem Modell möchte er eine Möglichkeit aufzeigen, die sich von der aktuellen Struktur des Betriebssystems entfernt. So wird aktuell viel Energie in die Entwicklung gesteckt, sodass möglichst viele Programme parallel arbeiten können – „parallel programming“. Dabei entstehen immer wieder unangenehme Wartezeiten, wenn der Benutzer beispielsweise gerade die Textverarbeitung aufruft, parallel der Virenscanner jedoch beschließt, alle Dateien zu überprüfen. Solche Wartezeiten sind der Priorisierung verschiedener Prozesse verschuldet. Kritisch äußert er, dass es „nicht die Frage ist wie wir alle Programme parallel zum Laufen bekommen, sondern was wir mit den ganzen Transistoren machen.“ Zu den Anfängen der Computer und Betriebssysteme wurden mehrere Programme auf einem Prozessorkern ausgeführt, indem jedem Programm ein Teil der Rechenleistung des Prozessors zugeordnet wurde. Mit der Einführung mehrerer Prozessorkerne – bei stetig steigender Anzahl – könnten die Kerne wieder reine Kerne werden, denen jeweils ein Programm zugeordnet wird. Auf diese Weise müsste das Betriebssystem lediglich noch einem Programm einen Prozessor und etwas Speicher zuordnen und somit vollkommen andere Aufgaben übernehmen als dies aktuell der Fall ist.

Damit verbunden sind große Testphasen, die schwierig zu realisieren sein werden, so Probert. Jedoch sei dieses Modell deutlich flexibler als jenes, das momentan am Markt verfügbar ist.