Man sollte nicht vergessen, daß es 'draußen' noch etwas anderes als 'Spiele' und anderen Kinderkram gibt, wofür ein Prozessor ackern muß. Die Masse der verkauften und verbauten modernen Prozessoren landet wohl in einfachen Bürorechnern, aber ein nicht unerheblicher Teil landet in wiss. Einrichtungen, der Industrie, in Rechner, die kommerziell oder nicht für rechenintensive Arebiten eingesetzt werden. Seit über 15 Jahren kenne ich parallelisierte Modelle zur Klimaforschung, die mit jedem zusätzlich verfügbaren Kern und jedem Byte mehr RAM eine Leistungssteigerung erfahren haben. Diese Software wird ständig weiterentwickelt, eingesetzt, et cetera. Und so passiert dies auch mit Anwendungssoftware, auch wenn sie unscheinbar 'parallel' ist. Sortieralgorithmen, Konverter, Archivierer, nur um einiges zu nennen. Die Bildbearbeitung als klassisches Beispiel großer Datenmengen, die, gekachelt/zerlegt, mit Filterungen belegt werden, sind Paradebeispiele für die Parallelisierbarkeit. Und diese entwicklung erfährt jetzt, nachdem eine gewisse Hemmschwelle überwunden wurde, gerade auch im Konsumentensoftwarebereich einen Um- bzw. Aufschwung. Gerade mal 'eben', 2005, kamen die ersten, bezahlbaren Mehrkernprozessoren auf den Markt. Davor waren es Mehrsockelsysteme, teurer in der Anschaffung und für den Massengebrauch kaum realistisch, denn die Wegwerfzyklen sind nicht länger, nein, eher kürzer geworden. Mag sein, daß noch 2005 kaum nichtwissenschaftliche Software parallel lief (ich kenne nicht viele Produkte im Windoof-Umfeld, allerdings gab es einige CAD/CAM systeme unter UNIX, die schon ewig parallele Teilbereiche hatten, da unter UNIX das Konzept Parallelität schnell und quasi systeminhärent umgesetzt werden konnte - Bill Gates Byte-Klo muste erst umgestrickt werden, womit eine weitere Hürde und Verzögerung entlarvt wäre). Wenn also 'Spiele' in der Vergangenheit bis zu zwei Jahre gebraucht haben, um wenigstens von einer auf zwei CPUs besser laufen zu können, weird man diesen elongierten Zyklus wohl heute eher der Vergangenheit zuschreiben, denn neben Mehrkern-CPUs stehen in Kürze auch der breiten Masse GPUs zur Verfügung. Welcher Entwickler will sich hier nicht eine goldene Nase verdienen, diesen fetten Weidegrund mitabzugrasen?
Nun, lange rede, etwas kürzerer Sinn: Ich würde eher zu mehr Kernen als zu 133 oder 200 MHz per Kern und weniger Kerne einer CPU greifen, auch wenn der 'Weniger-Kern'-Prozessor damit leichte Vorteile gegenüber dem Mehrkern-Kollegen hätte. Wenn der Rechner nicht als Wegwerfkonserve gekauft wird, sondern eine Weile halten muß, erübrigt sich die Gretchenfrage meiner Ansicht sowieso. Auch wenn die Leistung der neuen AMD Prozessoren nicht ganz das ist, was ich erhofft habe - ein Meilenstein in der Entwicklung hinsichtlich Preis/Leistungsverhältnis sind sie allemal! 6 vollwertige CPU Kerne für diesen Preis, das gab es noch nicht. Auch wenn ein paar Spiele damit ihre Probleme haben sollten, was soll es, die Spiele werden angepaßt oder verschwinden.