Holt schrieb:
Dann nutze bitte nur Linux! Im übrigen sollte bekannt sein, dass der Unterbau von Linux weit besser parallelisiert ist als der von Windows, da hat man eben bei der Entwicklung immer mehr Wert auf Klicky-Bunty gelegt. Synchronisierungen zwischen den SW Threads und damit den Kernen der CPU, ist aber leider auch nicht gerade die Stärke der Zen Architektur mit ihren CCX und bei TR mit seinen viele Dies fällt dies besonders ins Gewicht.
Nein, daran liegt es nicht wirklich. Denn auch Linux ist out of the Box genauso lahm wie Windows, außer man nutzt spezielle Distributionen. Das Linux so schnell sein kann liegt schlicht und ergreifend daran, dass man sich einen eigenen Kernel, optimiert auf die eigene Hardware backen kann und erst dann erreicht man die wirklich guten Ergebnisse.
Windows dagegen muss auf einem Singlecore bis zu einem 32+x Core mit dem gleichen "Kernel" laufen können und das ist auch das Problem von Microsoft, denn sie können nicht einfach Windows auf einen TR mit 32 Kernen optimieren, denn dann laufen die quad-, hexa-, octacore viel langsamer als sie eigentlich laufen könnten. Dabei ist halt das Problem wenn man in die eine Richtung optimiert, verschlechtert man sehr oft die anderen Richtungen und dann muss man aufpassen das dadurch die anderen Konfigurationen keinen allzugroßen Nachteil erleiden. Meine Vermutung ist, das Windows momentan eher auf Dual bis Quadcore optimiert ist, da diese Prozessoren einfach die absolute Masse stellen.
Im übrigen ein sehr gutes Beispiel was Optimierungen ausmachen können, war, wenn ich mich richtig erinnere der Phenom X6 in Battlefield, da war dieser langsamer als ein Quadcore, weil der Spielehersteller die falsche Maske angewandt hatte.
Um jetzt den Bogen zum TE zu schließen, die Argumentation ist meiner Meinung nach mehr als wie an den Haaren herbeigezogen. Der TE beschreibt einen Ausnahmefall als allgemeingültig, dabei ist aber eher genau das Gegenteil der Fall.
Was unterscheidet eine HEDT Plattform von einer konventionellen? Meist sind das mehr Cores mit weniger Takt und OC Potential, mehr Lanes, mehr RAM.
Das ist aber genau das Szenario bei dem sich die Katze in den Schwanz beißt, denn zum Kaufzeitpunkt muss die genutzte Software auch einen Vorteil aus der Hardware ziehen können und das ist, selbst mit dem Stand heute, in mehr als 95% eben nicht der Fall. Denn klammert man den Bereich Videobearbeitung mal aus, dann gibt es selbst heute kaum Software die wirklich Multicorefähig ist und aus dieser Fähigkeit einen Nutzen ziehen kann. Es ist zum Beispiel kein Argument, dass der Firefox inzwischen soviele Treads anlegt wie "CPUs" vorhanden sind, aber einen wirklichen Nutzen hat dies nicht. Denn in 99% der Fälle liegt die Last bei x-1 bei 0 Prozent und nur ein Tread, der aktive, verursacht eine gewisse Last - mit Ausnahme des Startes mit vielen Tabs. Die meisten Programme die ein normaler Anwender nutzt sind halt Singletreadlastig.
Ich sehe es ja bei mir, ich bin Student und nutze meinen Computer halt auch entsprechend und bis auf Photoshop laufen meine Programme, taktnormiert, auf einem Dualcore genauso schnell wie auf einem Hexacore, aus dem einfachen Grund, dass ich und auch die meisten anderen keine Programme nutzen, die von Multicore solange mehr als 1 daraus Vorteile ziehen. Man sieht es ja auch an den Benches die CB veranstaltet, da werden Programme genutzt, von denen die meisten Anwender noch nie etwas gehört haben - aber das sind halt die wenigen Programme die die Vorteile einer Multicoretechnik zeigen.
Ich nutze schon seit einer kleinen Ewigkeit Multimonitor und daher ist auf dem Monitor rechts oben immer der Taskmanager aktiv und dieser zeigt mir eine Auslastung an die nur wenig entfernt vom Idle ist, obwohl ich damit arbeite und teilweise mehr als 12 Programme gleichzeitig geöffnet habe.
Die einzigen Anwendungen die bei mir eine gewisse Last erzeugen können sind nur Spiele und nur diese sind es die mich davon überzeugt haben, einen Desktoprechner zu nutzen. 1. wegen der Grafikkarte und dem höheren Takt der CPU, denn Spiele sind bei mir die einzige "Anwendung" die einen Desktop notwendig machen und diesen vom Status lautlos zu hörbar befördern können. Aber selbst dabei ist es so, dass ich vorzugweise Spiele spiele, die schon etwas älter sind, genauer gesagt eigentlich nur WoW, Diablo und ggf. Witcher 3 und auch diese, insbesondere die ersten 2, können mit Multicore nicht wirklich was anfangen.
Kommen wir zu den Lanes, man muss sich schon eine ziemlich extreme Konfiguration basteln, damit bei einer Konsumerplatform die Lanes nicht mehr reichen. Für 99,9% der Nutzer, mich eingeschlossen, sind die Lanes mehr als ausreichend.
Der nächste "Vorteil" wäre der RAM, selbst die billigste Kofiguration von anno dunemal konnte schon 16 - 32 GB und in welchen normalen Situationen sollte dies bei einem Consumer denn nicht reichen. Daher ist auch dieses Argument nicht wirklich schlüssig.
Ich selbst habe mit einem 5 Jahre alten Rechner (i7 3770k + Nvidea Titan) bis vor kurzem sehr gut arbeiten und spielen können. Ich habe diesen nicht aufgerüstet weil mir die Leistung nicht gereicht hatte, sondern weil 5 Jahre um waren und ich gerade ein bisschen Geld übrig hatte. Ich muss ehrlicherweise sagen, dass ich bis auf die Grafik keinen wirklich großen Unterschied bemerken konnte, denn schon damals wie heute gammelte die CPU auf den Idlewerten rum.
Daher ist mein Fazit zu den Thesen die der TE postuliert hat, es trifft nur eine ganz geringe Menge von Usern die wirklich aus einer HEDT einen Vorteil hätten ziehen können, aber für die meisten wäre es eine Geldverschwendung pur gewesen. Auch wenn der TE sagt, das er OC betrieben hat, er und auch kein Händler kannn diese Werte garantieren und somit sind diese OC Ergebnisse eher in der Lokus zu befördern.
Für die meisten ist es eher sinnvoller sich die aktuell notwendige Leistung zu kaufen, als einen Haufen Geld, egal ob AMD oder Intel zu kaufen und zu hoffen das es evtl. für die Zukunft etwas bringt.
Einen alten Lehrsatz den ich leider nicht vergessen kann ist, normale Multitreadprogrammierung ist ziemlich einfach, sinnvolle Multitreadprogrammierung dagegen ziemlich schwer und leistungsteigernde Programmierung in den meisten Anwendungen eher unmöglich.
Auch sollte man icht vergessen, dass sich in den letzten Jahren bezüglich der IPC sind nicht wirklkich etwas getan hat und es dadurch zu Vorteilen zu den oversizenden Konfigurationen gegeben hat. Dreht man das Rad ein bisschen in die Vergangenheit, dann sieht man ganz schnell, dass die Aussage des TE nicht wirklich stimmen kann. Denn ich kann mich noch sehr gut an den Aufschrei erinnern als der P4 auf den Markt kam und erstmals die langsamte CPU nicht schneller war als die schnellste der Vorgängergeneration. Hätten wir diese Zeiten noch, dann würde fast jedem auffallen, dass die Argumentation des TE an den Haaren herbeigezogen sein muss - und dies sogar ohen jegliche Software bemühen zu müssen..