FlauschigesPony schrieb:
Denn wenn man sich heute im nachhinein die Einführung 64 Bit Technologie betrachtet, so wird man feststellen, dass es im Desktopbereich, trotz Performance Gewinnen immer noch kaum unterstützt wird. In den ersten Jahren der AMD-64 Bit Prozessoren, war der Nutzen für den Anwender sogar so gering, dass es sich primär als ein Marketingattribut gehandelt hat und in nie genutzter Chipfläche resultierte.
Somit war es einfach nicht sinnvoll diese 64-Bit Unterstützung einzubauen, wodurch auch Intel mit ihrem damaligen Argument recht behalten hatten.
64-bit Softwareunterstützung gibt es schon recht lange. Gerade bei Servern würde seit Jahren ohne nicht mehr viel laufen. Einige sollten langsam mal begreifen, Prozessoren werden nicht nur für "Freaks" wie in solchen Foren entwickelt und hergestellt. Und ohne AMD64/x86-64 hätten wir vermutlich heute noch kein vernünftiges 64-bit BS. Und vor allem nicht so fliessend im Übergang. Der Softwaremarkt ist recht träge. Und genau deswegen ist es wichtig, Technologien früh einzuführen. Intel hatte hier einfach unrecht. Und der Grund ist simpel, sie hatten die Technologie eben nicht. Bzw nur IA-64, was aber nicht zu x86 kompatibel ist. Aus dem gleichen Grund behauptet nVidia heute, DX11 sei nicht so wichtig.
FlauschigesPony schrieb:
Ähnlich verhält es sich mit dem L3 Cache. Trotz der Verwendung dieses Caches, sofern man ihn wegen dem lustigen Bugs nicht abgestellt hat, waren die ersten Phenom CPUs den Core2quads stark unterlegen. Somit müssen wohl die Intel CPUs trotz des fehlenden L3 Caches insgesamt fortschrittlicher gewesen sein, wenn man Fortschritt mit Performance gleichsetzt.
L3 Cache wurde wegen einem Bug nie abgestellt. Genauso wenig war er K10 unterlegen. Pro Takt absolut gleichwertig, bei Servern aufgrund der besseren Infrastruktur überlegen. Was einige offensichtlich nicht gesehen haben und immer noch nicht tun, Intel konnte aufgrund des Fertigungsprozesses höher takten und mehr Cache verbauen. Deshalb waren deren CPUs teilweise schneller. Das hat aber mit der CPU Entwicklung selbst wenig zu tun, sondern eben mit der Fertigungstechnologie.
Und genau hier liegt scheinbar auch das Verständnisproblem von vielen, technologischer Fortschritt lässt sich nicht zwangsläufig mit Performance gleichsetzen. Erstens wirkt sich nicht jede Technologie auf die Performance aus. Und zweitens sind mehr Faktoren für die Performance verantwortlich, zB Compiler bzw Software allgemein.
Insgesamt muss man einfach festhalten, seit dem ersten Athlon hatte Intel keinen wirklichen technologischen Vorsprung mehr. Und Innovationen erst recht nicht. Alles wurde mehr oder weniger abgekupfert bzw die Technologie aufgekauft, wie SpeedStep (PowerNow), Hyperthreading/SMT (Alpha EV8), Intel64 (AMD64), integrierte Northbridge (K8), QPI (Hypertransport), diverse Stromsparmechanismen (Transmeta), usw.
Crazy_Chris schrieb:
Das stimmt doch nicht. Das war weder zum Erscheinen der hochgetakteten Athlons so noch bei erscheinen des Athlon 64 als dieser gegen den Pentium 4 angetreten ist. Wenn man alleine überlegt wie AMD mit der FX Serie die Leute gemolken hat...
Und das hat Intel mit ihren EE nicht gemacht?

Auch zu P4 Zeiten waren AMD CPUs generell nicht teurer. Es gab ja nicht nur FX Modelle.
Intel hat den Markt, teils mit wettbewerbswidrigen Mitteln, in der Hand und bestimmt auch die Preise. Wenn diese hoch sind und AMD hat bessere Produkte, werden sie logischerweise mit den Preisen auch nicht runtergehen. Hat man gleichwertige Produkte wie Intel, muss AMD als "kleinerer Fisch" günstiger anbieten, um den OEMs und dem Channel einen entsprechenden Anreiz zu bieten. Einfache Gesetze des Marktes.