News Sonntagsfrage: ARM oder x86, wem gehört die Zukunft in Server und PC?

Piktogramm schrieb:
Da ist ein deutlicher Preisunterschied und auch 3 bzw. 5Jahre zwischen 6510 und ARM1/2
Schaut man sich an, was 1985 bis 1990 sonst noch auf den Markt geworfen wurde, dann ist das ARM1/2 halbwegs typisch für damalige Desktopsysteme, die sich an Privatanwender, kleine Unternehmen und Bildungseinrichtungen orientierten.

Eher fuer das High End davon. Meine Uni bekam z.B. 1986 neue Computer mit 286ern. Der Amiga 2000 von 1987 verwendete einen 68000; erst der Amiga 3000 von 1990 verwendete einen Prozessor mit einem 32-bit-Datenbus. Der Atari TT kam auch erst 1990 auf den Markt.

Edit:
Kleine Ergänzung, es findet sich zwar weit weniger zu MIPS und deren ersten R2000 (Jahr 1985) im Netz. Was man jedoch findet, da sehen sich ARM3(1987) und MIPS R2000 ebenfalls recht ähnlich.

Aber der R2000 war wirklich high-end. Damit liefen Workstations wie die Decstation 3100, und Workstation hiess damals etwas (im Gegensatz zu heute).

Im Gegensatz zu MIPS (bzw. SGI), die sich in den 1990ern damit ruinierten, indem sie erfolglos versuchten, mit der Leistungsspitze zu konkurrieren, blieb ARM lange Zeit bei leichten Verbesserungen der ARM1-Mikroarchitektur, und waren damit nicht mehr konkurrenzfaehig im High-End-Bereich, aber eroberten andere Maerkte.

Umso bemerkenswerter ist dann der Schwenk in Richtung Hochleistungsprozessoren, als sie sich auf einmal in einem Umfeld wiederfanden, wo das doch gebraucht wurde. Viele Firmen waeren in dieser Situation bei ihren Leisten geblieben und haetten diese Gelegenheit verpasst.
 
mae schrieb:
Im Gegensatz zu MIPS (bzw. SGI), die sich in den 1990ern damit ruinierten, indem sie erfolglos versuchten, mit der Leistungsspitze zu konkurrieren, blieb ARM lange Zeit bei leichten Verbesserungen der ARM1-Mikroarchitektur, und waren damit nicht mehr konkurrenzfaehig im High-End-Bereich, aber eroberten andere Maerkte.
ARM war schon am Anfang nicht wirklich konkurrenzfähig im High-End. Sie waren aber von Anfang an klein und effizient, das Potenzial hat als erstes Apple erkannt, und dank denen haben sie auch überlebt.
Es hat dann allerdings noch lange gedauert, bis sich das für Apple ausgezahlt hat.
mae schrieb:
Umso bemerkenswerter ist dann der Schwenk in Richtung Hochleistungsprozessoren,
Dazu wurden sie vom Markt mehr oder weniger gezwungen. Sonst hätten ihre eigenen Architektur Lizenznehmer wie Qualcomm und Samsung irgendwann das Ecosystem dominiert. ARM hing lange den Eigengewächsen dieser Hersteller hinterher, und an Apple kommen sie bis heute nicht ran.
 
  • Gefällt mir
Reaktionen: foo_1337
Predige ich schon seit Jahren und wurde ausgelacht. Plötzlich, wie man anhand des Votings auch sieht, weiß es ein jeder.

Soll mir Recht sein und ist eher eine Feststellung als sonstwas.

Wir reden hier aber noch von mindestens 10 Jahren an koexistenz ehe da irgendwas passiert.


Was die Suppe etwas verwürzt=

Die Chinesen geben bald relativ alleine den Ton an, dementsprechend wirds interessant, weil was dort länger geplant ist. Keine Ahnung.
 
WinnieW2 schrieb:
Ich schätze mal dass das Risiko zu hoch ist im Vergleich zu den zu tätigenden Investitionen. Ein Unternehmen müsste Stand heute so viel Entwicklungsarbeit in ein konkurrenzfähiges Design stecken dass ein Geldgeber Milliarden vorstrecken müsste bei ungewissem Ausgang.
Und wo soll da der Unterschied zu Risc V oder jeder anderen neuen Architektur sein? Ist ja nun echt nicht so, dass Risc-V-Designs von sich aus und ohne Entwicklungsarbeit plötzlich konkurrenzfähig sind. Risc V hat sogar den Nachteil, dass existierende Anwendungen/Systeme (insb. Windows) nicht laufen. Windows ist auch in China, Afrika, Südost-Asien usw. Platzhirsch.

Entwicklung einer x86_64-CPU auf Basis ausgelaufener Patente ist genau so aufwändig wie bei Risc V und man könnte vorhandene Anwendungen ohne Emulation laufen lassen.
Ergänzung ()

eSportWarrior schrieb:
Die Chinesen geben bald relativ alleine den Ton an, dementsprechend wirds interessant, weil was dort länger geplant ist. Keine Ahnung.
Naja, zumindest kann man schonmal für die letzten Jahre festhalten, dass trotz angeblicher staatlicher Mandate für Red Star OS und MIPS-Architektur Windows auf x86 weiterhin Platzhirsch im PC-Bereich ist.
 
Zuletzt bearbeitet:
TomH22 schrieb:
ARM war schon am Anfang nicht wirklich konkurrenzfähig im High-End.

Doch, ARM profitierte vom RISC-Vorteil, der gerade damals am staerksten in's Gewicht fiel, und war daher schneller als 386 und 68020. Wenn das 1987 nicht High-End war, was dann?

[Wechsel in Richtung High Performance:]

Dazu wurden sie vom Markt mehr oder weniger gezwungen. Sonst hätten ihre eigenen Architektur Lizenznehmer wie Qualcomm und Samsung irgendwann das Ecosystem dominiert.

ARM haette sich damit zufrieden geben koennen. Und klar gab's Wuensche von Kunden nach mehr Leistung. Aber nachdem sie im Jahrzehnt zuvor gesehen haben, wie sich ein RISC-Haus nach dem anderen an dieser Aufgabe zerrieben hat, und sie selbst keine Erfahrung und Personal in die Richtung hatten, finde ich es sehr mutig, dass sie beschlossen haben, dieses Feld selbst zu beackern statt es ihren Lizenznehmern zu ueberlassen.

ARM hing lange den Eigengewächsen dieser Hersteller hinterher, und an Apple kommen sie bis heute nicht ran.

Es ist bemerkenswert, dass sie es geschafft haben, diese Eigengewaechse (mit Ausnahme von Apple) zu ueberwuchern.
 
mae schrieb:
Doch, ARM profitierte vom RISC-Vorteil, der gerade damals am staerksten in's Gewicht fiel, und war daher schneller als 386 und 68020. Wenn das 1987 nicht High-End war, was dann?
Ich bezog mich mehr auf andere RISC Architekturen wie Sparc, MIPS, PowerPC, DEC Alpha.
Der ARMv1 hatte zusammen mit dem zugehörigen Computer, dem Archimedes, das Designziel, maximale Performance zu minimalen Preis. Und das ist auch gelungen: Performance nahe an RISC Workstations der 30K USD Klasse zum Preis in der Region eines Amiga (wenn ich es richtig in Erinnerung habe, ist lange her). Hätte damals gerne einen gekauft, habe es aber mangels praktischem Nutzwert nicht gemacht.

mae schrieb:
Es ist bemerkenswert, dass sie es geschafft haben, diese Eigengewaechse (mit Ausnahme von Apple) zu ueberwuchern.
Das ist es in jedem Fall, es war nur meines Erachtens keine Entscheidung aus Weitsicht, sondern sie wurden einfach vom Markt getrieben. Das gilt aber für alle CPU Hersteller, der Wettbewerb treibt sie von alleine. Die Kunst auf Management Ebene liegt darin, das richtige Team an den Start zu bekommen (es gibt weltweit nur eine handvoll Leute die CPU Kerne auf „Spitzeniveau“ designen können) und dem auch die entsprechenden Möglichkeiten zu geben.
 
  • Gefällt mir
Reaktionen: foo_1337
TomH22 schrieb:
Ich bezog mich mehr auf andere RISC Architekturen wie Sparc, MIPS, PowerPC, DEC Alpha.

SPARC und MIPS waren auch high-end, Power gab's erst 1990 (und wurde 1992 zu PowerPC), Alpha gab's erst 1992.

[high-performance ARM:]

Das ist es in jedem Fall, es war nur meines Erachtens keine Entscheidung aus Weitsicht, sondern sie wurden einfach vom Markt getrieben. Das gilt aber für alle CPU Hersteller, der Wettbewerb treibt sie von alleine.

Das ist m.E. zu einfach gedacht. So um 1990 herum trieb sie "der Markt" auch in Richtung high performance, wenn Acorn weiterhin konkurrenzfaehig sein wollte, und sie haben sich dagegen entschieden, sondern ARM fuer andere Maerkte als eigenstaendiges Unternehmen gebildet. Und als sie sich fuer die Entwicklung entschieden, haetten sie sich stattdessen damit zufriedengeben koennen, ueber die Architekturlizenz mitzuschneiden. Und die high-Performance Entwicklung auch erfolgreich durchzuziehen, ist nicht selbstverstaendlich:

Die Kunst auf Management Ebene liegt darin, das richtige Team an den Start zu bekommen (es gibt weltweit nur eine handvoll Leute die CPU Kerne auf „Spitzeniveau“ designen können) und dem auch die entsprechenden Möglichkeiten zu geben.

Ja. ARM hat sogar drei Teams (Cambridge, Sophia Antipolis, Austin, wobei ersteres m.W. keine Performance-Kerne entwickelt).
 
mae schrieb:
SPARC und MIPS waren auch high-end, Power gab's erst 1990 (und wurde 1992 zu PowerPC), Alpha gab's erst 1992.

[high-performance ARM:]

Du hast glaube meinen Kommentar andersherum interpretiert als ich ihn gemeint hatte 😉
MIPS und SPARC wurden in den 90ern in Richtung High-Performance Workstations und Server entwickelt. Genauso wie PA-RISC, PowerPC usw.

In 1985als ARMv1 entwickelt wurde steckte RISC noch in den Kinderschuhen, alle Designs waren einfache Pipelines (ich weiß jetzt nicht ob ARMv1 3 oder 5 Stufen hatte...). Mehr ging mit der Technologie damals auch nicht auf einem Chip zu integrieren. Die Blütezeit der RISC-Prozessoren begann dann erst etwas später in den 90ern. In den 90ern und frühen 2000ern funktionierte auch das Dennard Scaling wo sich die Taktfrequenzen der Prozessoren innerhalb von wenigen Jahren von 50Mhz auf 1Ghz vervielfachten.

Laut Wikipedia wurde 1990 mit Apple und VLSI die "Advanced RISC Machines Ltd" gegründet, und von da in hat sich ARM auf den Embedded Bereich fokussiert. StrongARM mit DEC war da eine Ausnahme.

Der erste Out-of-Order ARM war meines Wissens der Cortex-A9, ich habe jetzt auf die Schnelle nicht das Erscheinungsjahr gefunden, wird irgendwas zwischen 2012-2014 gewesen sein. Und diese Entwicklung ist meines Erachtens eben eine natürliche Folge der Marktentwicklung, speziell Smartphones.

Was die Sache übrigens in keiner Weise schlecht macht...
 
Piktogramm schrieb:
Decode braucht es immer! Da kommt man nicht drumherum und wenn das ganze als Pipeline vorsieht, geht bei Decode selbst den simpelsten Designs immer ein Takt drauf.
Wenn man genau nimmt - und ja da habe ich ein Fehler gemacht, hab aber auch nicht immer alle Schaltbilder da - braucht es immer ein Fetch und Decode. Nur war das Decodieren damals bei ARM deutlich einfacher, was ein Teil der Geschwindigkeit ausmachte.
Piktogramm schrieb:
Da nehmen sich X86 bzw. Cisc und ARM bzw. Risc erstmal nichts. Vor allem da bis zum ersten Intel Pentium die CISC Befehle wirklich noch nativ implementiert wurden, erst die Pentiums selbst setzten auf eine CISC zu RISC Übersetzung.
Nein, das ist in dem Fall nicht richtig, bereits beim 8086 und 8088 wurden viele der MarcoOP in Mikrocode zerlegt um diesen in der CPU auszuführen.

Intel war darum bemüht mit der Zeit - auch um die Leistung zu optimieren - aufwendige MarcoOPs die viel Mikrocode benötigen auch in Hardware zu gießen, so mit dem 486.

Und das ist auch der entscheidende Punkt, den ich angesprochen habe: ARM - als RISC - hat damals direkt auf atomare OPs gesetzt, während CISC selbst in CISC-Prozessoren in der Regel in Mikrocode zerlegt werden musste.

Die atomaren OPs haben es damals dann auch bei ARM ermöglicht dass man eine Pipeline einführt und zwar vor x86. Die ersten Pipeline-Ansätze gab es dann beim Pentium - direkt mit einer zweiten "generellen" ALU und das ist gleich wichtig.

Piktogramm schrieb:
Letzteres erfordert dann Decode Schritte, die 1 oder mehr Takt benötigen[1].
Bei x86 war das Decode allgemein bei CISC damals aufwendiger als bei RISC Befehlssätzen und das habe ich geschrieben, den Decoder aber unterschlagen.
Piktogramm schrieb:
Also bitte ARM nicht überhöhen, historisch haben die lange Zeit nur kleine, energiesparende RISC-CPUs geliefert. Das ARM auf einmal mit dabei ist, wenn es um die Leistungskrone geht ist recht neu.
Ich habe bereits entsprechende Links geliefert, dass diese Aussage von dir FALSCH ist, ich wiederhole: Acorn Archimedes und auch weitere Acorn Produkte Anfang der 90er, die mit ihren x86-Pendants mithielten oder diese überholten. Ich erspare mir nun das verlinken.

Ich musss ARM auch nicht überhöhen, ich habe sehr genau geschrieben welche Vorzüge ARM heute noch hat und gleichzeitig auch woran es kranken kann. ARM ist Ende der 80er und Anfang der 90er nicht an der Leistung gescheitert, die war vorhanden. ARM ist an der Kompatiblität gescheiert und hat sich entsprechend darauf aufbauend die Nische gefunden.
Piktogramm schrieb:
Die erste ARM CPU, der ARM1 hatte auch schon ein Befehlsdecoder:
Richtig, mein Fehler, ändert aber nichts daran, dass auch Teile deines Beitrages falsch sind:

Piktogramm schrieb:
ARMs erste superskalare Designs waren die Cortex A8 mit ARMv7 im Jahre 2005
Das ist so auch nicht ganz richtig, weil es da nun auch darauf ankommt, was man dann genau unter Superskalarität versteht und was man alles mitnehmen will.

Gehen wir jetzt von wirklich recht mächtigen ALUs aus, hast du recht. Gehen wir aber nun davon aus, dass man ALUs auch in spezialisierte Rechenwerke aufteilt, die unterschiedliche Aufgaben wahrnehmen: Dann ist es falsch. Ich weiß jetzt nicht ob es ARM8 oder erst der ARM9 war, aber dort hatte man eine ALU für MUL und eben auch die allgemeine ALU.

Aber auch das ist alles relativ egal, denn all das Geplänkel ändert nichts an der Kernaussage von mir: ARM stand und fiel damals mit der Software in den 90er und auch jetzt ist die Software und die Softwareinfrastruktur entscheidend. Es kann super schnelle ARM-Designs geben, wenn die Software nicht mitspielt, bringt das nichts.

Und egal ob ARM oder x86: Schnelle CPU-Kerne kann man mit beiden ISA designen, ebenso mit RISC-V, die Frage ist immer nur, wie komplex es wird und wann man zu welchen Tricks greifen muss.

Nur das verstehen hier viele nicht, sie sind in den staren Denkmustern gefangen, dass ARM ja sich nur für sparsame/effiziente Kerne eignet, während x86 Hochleistung verspricht und das ist selbst freundlich ausgedrückt: Bullshit. Nicht die ISA entscheidet da heute drüber, sondern wie man die ISA implementiert.
 
Wölkchen schrieb:
Und wo soll da der Unterschied zu Risc V oder jeder anderen neuen Architektur sein?
Bei RISC-V die Verfügbarkeit von OpenSource Architekturen, worauf aufgebaut werden kann, weil die Infos dazu frei verfügbar sind, und keine Schaltungslogik zuerst reverse-engineered werden muss wie bei x86.
Bei RISC-V sind alle Befehlssätze patent- und lizenzfrei, bei x86 jedoch nicht. AVX z.B. fällt noch unter den Patentschutz.

Wölkchen schrieb:
Ist ja nun echt nicht so, dass Risc-V-Designs von sich aus und ohne Entwicklungsarbeit plötzlich konkurrenzfähig sind. Risc V hat sogar den Nachteil, dass existierende Anwendungen/Systeme (insb. Windows) nicht laufen. Windows ist auch in China, Afrika, Südost-Asien usw. Platzhirsch.
China setz komplett auf LoongArch und RISC-V. Dortige Unternehmen haben kein Interesse daran eigene CPUs mit x86 Befehlssatz zu entwickeln.
Sogar Chinas eigene Supercomputer basieren auf LoongISA und zukünftige Supercomputer werden ebenfalls auf eigens entwickelte Prozesseren mit dem eigenen ISA setzen.

Dass ein chinesisches Unternehmen mit zu AMD und Intel konkurrenzfähigen CPUs auf den Markt bringen wird halte ich für unrealistisch.
Die werden eher versuchen den Weltmarkt mit eigens entwickelten RISC-V CPUs zu bedienen; zumal der PC-Markt kaum noch wächst, im Gegensatz zum Markt der Mobilgeräte.

Bei Servern, besonders bei Webservern, spielt der Befehlssatz der CPU ebenfalls eine weniger bedeutende Rolle.
 
DevPandi schrieb:
Bei x86 war das Decode allgemein bei CISC damals aufwendiger als bei RISC Befehlssätzen
Richtig aufwendig wurde das aber erst mit dem Pentium Pro, K5 und Nx586. Davor waren die Instruktionen ziemlich nah in Hardware implementiert. Zu der Zeit war die x86 ISA ja auch noch recht übersichtlich.
Die Prozessoren läuteten bei x86 den Wechsel von traditionellen CISC-Prozessoren zu Designs die näher an RISC liegen, mit aufwändigem Instruktionsdecoder.

Das Problem war bei CISC gegen Ende die Auslastung. Spezifische Befehle für spezifische Hardware eignen sich nicht gut für superskalare Designs. Da braucht man einfache Befehle und viel Speicher. Und Speicher im Prozessor war (und ist) teuer.

CISC war so lange gut, bis es brauchbare Compiler für Hochsprachen gab. Davor gab es nur eine Möglichkeit effizienten Code zu schreiben und das war der Assembler. Und damit normale Menschen dafür überhaupt sinnvollen Code schreiben konnten, mussten die Prozessoren eben aus Maschinensicht abstrakten Code verarbeiten können. Somit waren CISC-Prozessoren damals einfach Notwendig.
 
TomH22 schrieb:
MIPS und SPARC wurden in den 90ern in Richtung High-Performance Workstations und Server entwickelt. Genauso wie PA-RISC, PowerPC usw.

Workstations in der Mitte der 80er basierten auf dem 68020, da war jede Workstation mit MIPS, SPARC und HP PA high performance, auch schon mit der ersten Generation der RISCs.

In 1985als ARMv1 entwickelt wurde steckte RISC noch in den Kinderschuhen, alle Designs waren einfache Pipelines (ich weiß jetzt nicht ob ARMv1 3 oder 5 Stufen hatte...). Mehr ging mit der Technologie damals auch nicht auf einem Chip zu integrieren. Die Blütezeit der RISC-Prozessoren begann dann erst etwas später in den 90ern.

Sehe ich anders. Beim Pipelining (1 Befehl pro Zyklus) hatten ARM1 (1985), MIPS R2000 (1986), HP PA (1986) und SPARC (1986) noch 3-4 Jahre Vorsprung auf IA-32 (486 in 1989), bei Superskalaritaet mit 2 parallelen ALU-Befehlen war der Vorsprung nur mehr ein Jahr (SuperSPARC 1992 vs. Pentium 1993); man koennte Power1 noch einbeziehen (1990; 2 Befehle, aber maximal 1 Integer-Unit-Befehl, 1 Verzweigung, ein FP-Befehl; und Power1 besteht aus mehrern Chips), aber das faellt etwas aus der Reihe. Bei out-of-order execution war der Vorsprung endgueltig dahin: Fujitsu's SPARC64 erschien 1995 ungefaehr zeitgleich mit dem Pentium Pro.

Mein Eindruck ist, dass die RISC-Haeuser Schwierigkeiten hatten, die steigende Komplexitaet durch superskalare und OoO Ausfuehrung in den Griff zu bekommen, waehrend Intel's Ingenieure schon laenger mit komplexen Prozessoren zu tun hatten (bei IA-64 haben sie aber dann genauso danebengehauen); sogar DEC, die seit 1976 an komplexen VAXen gewerkelt hatten, konnten ab dem 21264 die Zeitplaene nicht mehr einhalten.

In den 90ern und frühen 2000ern funktionierte auch das Dennard Scaling wo sich die Taktfrequenzen der Prozessoren innerhalb von wenigen Jahren von 50Mhz auf 1Ghz vervielfachten.

Ja, das war aber zum Nachteil der RISCs; man musste immer mit dem juengsten Prozess arbeiten, um konkurrenzfaehig zu sein; das hat DEC, die sich eine eigene Fab leisteten, einiges gekostet. Und wenn man mit einem Design spaet dran war, siehe oben, war man schon vom Prozess her schwer benachteiligt.

Laut Wikipedia wurde 1990 mit Apple und VLSI die "Advanced RISC Machines Ltd" gegründet, und von da in hat sich ARM auf den Embedded Bereich fokussiert. StrongARM mit DEC war da eine Ausnahme.

Eigentlich nicht, auch StrongARM war fuer Embedded; fuer Allzweck-Computer hatte DEC ja die Alpha.

Der erste Out-of-Order ARM war meines Wissens der Cortex-A9, ich habe jetzt auf die Schnelle nicht das Erscheinungsjahr gefunden, wird irgendwas zwischen 2012-2014 gewesen sein. Und diese Entwicklung ist meines Erachtens eben eine natürliche Folge der Marktentwicklung, speziell Smartphones.

Ja, ohne Smartphones keine high-performance ARM cores; aber dass ARM solche Cores selbst entwickelt, war schon ein Risiko; hat aber geklappt (und eben fuer Qualcomm und Samsung nicht so wirklich, fuer Apple schon).

Was den Cortex-A9 betrifft: Der Apple A5 (2011) hatte einen Cortex-A9.
 
  • Gefällt mir
Reaktionen: foo_1337
mae schrieb:
Sehe ich anders. Beim Pipelining (1 Befehl pro Zyklus) hatten ARM1 (1985), MIPS R2000 (1986), HP PA (1986) und SPARC (1986) noch 3-4 Jahre Vorsprung auf IA-32 (486 in 1989),
Das stimmt schon. Was ich meinte, ist dass die RISC Designs in den 80ern noch alle sehr ähnlich waren, das waren einfache in-order Pipelines, keine komplexe Sprungvorhersage, da waren als ARM und der Rest noch sehr eng beieinander. In den 90ern ging das dann in verschiedene Richtungen. Damals waren die Fortschritte auch noch sehr krass. Ein 486 von 1989 hatte eine wesentlich höherer Integrationsdichte als ein ARM1 von 1985 (1,2 Mio Transistoren zu 24.800) . Dadurch hatte der FPU und einen eng gekoppelten Instruction Cache on Board. Der 486 lief mit mindestens 20Mhz, ARM1 mit 6Mhz.
Natürlich, war das revolutionäre damals, das diese super simple RISC Design die viel komplexeren CISC Prozessoren gandenlos im Boden versenkte, zumindest bei der Integer Leistung. Ich bin mir nur nicht sicher ob das auch für die FP Leistung gilt, das kann ich mir kaum vorstellen.
mae schrieb:
Mein Eindruck ist, dass die RISC-Haeuser Schwierigkeiten hatten, die steigende Komplexitaet durch superskalare und OoO Ausfuehrung in den Griff zu bekommen, waehrend Intel's Ingenieure schon laenger mit komplexen Prozessoren zu tun hatten
Vermutlich lag es einfach am zur Verfügung stehenden Budget. Intel hatte halt riesige Stückzahlen aus dem Geschäft mit PCs, und war in diesem Markt fast alleine. Die Workstation Hersteller hatten viel geringere Stückzahlen und der Markt war ungeheuer fragmentiert. Ich habe damals als Werksstudent in einer Firma gearbeitet, die Software für Workstations herstellte. Jeder unserer Kunden schleppte anderes Zeug an, neben den „großen“ wie Sun und HP, SGI und DEC gab es dann noch unzählige kleinere Player, wie Teklogix. Und neben diversen RISC CPUs hatte noch jeder seinen eigenes Unix, oder DEC dann noch so VMS mit seinem komplett inkompatiblen Pfadnamen. Wir waren irgendwann mehr mit Portieren als Entwickeln beschäftigt. Windows NT wann dann wirklich die Erlösung….
 
Raucherdackel! schrieb:
Surface RT, erste Generation. 10 Jahre alt, ARM und trotzdem noch Sicherheitsupdates. Bekam auch den Spectre-Fix innerhalb 72 Stunden nach Veröffentlichung von Spectre und Meltdown.

Was ich damit sagen will: Support hängt im Wesentlichen vom Betriebssystem und der Firma dahinter ab.
Der Vergleich hinkt. Microsoft hat sich extra für dieses ARM-Gerät hingesetzt für den Support.
In Windows 11 für x86 muss Microsoft hingegen Sperren einbauen, damit es sich für Normalos nicht auf 10 Jahre alten Geräten installieren lässt, weil ein einfaches Unterlassen von Entwicklungsarbeit nicht reicht, um alte Geräte auszusperren.
 
Windows 11 hat Installationssperren drin, damit es sich nicht auf potentiell unsicheren Geräten installieren lässt. Zum Beispiel Systeme ohne Spectre Schutz.
 
Raucherdackel! schrieb:
Windows 11 hat Installationssperren drin, damit es sich nicht auf potentiell unsicheren Geräten installieren lässt. Zum Beispiel Systeme ohne Spectre Schutz.

Dann liesse sich Windows 11 nur auf den allerersten Atoms installieren. Fuer alles andere gibt's fuer Spectre bisher nur Software-Workarounds (tw. mit Hardware-Unterstuetzung dafuer). Dass Intel selbst beim Alder Lake, eingefuehr 53 Monate nachdem sie ueber Spectre informiert wurden, noch immer keinen Hardwareschutz vor Spectre drinnen haben, stimmt mich pessimistisch, dass sie das jemals machen werden, statt einfach zu sagen, dass sich die Software-Leute drum kuemmern sollen.

Aber um auf Windows 11 zurueckzukommen: Da auch bei Prozessoren mit gleicher Mikroarchitektur und daher gleichem Spectre-Nicht-Schutz manche von Windows 11 unterstuetzt werden und manche nicht, vermute ich eher, dass Microsoft von den Hardwareherstellern Geld fuer das Entsperren jedes einzelnen SKUs wollte, und da haben die Hersteller dann eben nicht fuer alle bis zurueck zu Core 2 Duo gezahlt.
 
TomH22 schrieb:
Das stimmt schon. Was ich meinte, ist dass die RISC Designs in den 80ern noch alle sehr ähnlich waren, das waren einfache in-order Pipelines, keine komplexe Sprungvorhersage, da waren als ARM und der Rest noch sehr eng beieinander. In den 90ern ging das dann in verschiedene Richtungen. Damals waren die Fortschritte auch noch sehr krass. Ein 486 von 1989 hatte eine wesentlich höherer Integrationsdichte als ein ARM1 von 1985 (1,2 Mio Transistoren zu 24.800) . Dadurch hatte der FPU und einen eng gekoppelten Instruction Cache on Board. Der 486 lief mit mindestens 20Mhz, ARM1 mit 6Mhz.

Aber bis 1989 musste man mit dem 386 vergleichen, und der lief auch auf 16MHz nur halb so schnell wie ein ARM2 (8MHz); gemessen mit Dhrystone 1.1 (aus The Ultimate Acorn Archimedes talk); R2000 und SPARC waren noch etwas schneller. Der 386 hatte 275000 Transistoren, keinen Cache und keine FPU, und ist daher leichter mit dem ARM1/2 ebenfalls ohne Cache und CPU vergleichbar. Und selbst wenn man den Memory Controller des ARM dazuzaehlt (noch einmal soviel Flaeche und damit wohl aehnlich viele Transistoren), der auch die MMU enthaelt (beim 386 dabei), sieht man, dass Intel fuer IA-32 ein mehrfaches an Transistoren gebraucht hat und trotzdem kein volles Pipelining geschafft hat.

1989 gab's dann schon den ARM3 mit 4K on-chip cache und 25MHz. Wikichip gibt 309.656 Transistoren an, davon 40.229 Logic (also nicht-cache); wurde in einem 1,5um-Prozess gefertigt, wie der 386.

Natürlich, war das revolutionäre damals, das diese super simple RISC Design die viel komplexeren CISC Prozessoren gandenlos im Boden versenkte, zumindest bei der Integer Leistung. Ich bin mir nur nicht sicher ob das auch für die FP Leistung gilt, das kann ich mir kaum vorstellen.

Naja, Acorn hatte ja keine FPU, und der 386er auch nicht. Bei Software-FP kam natuerlich der RISC-Vorteil auch zum Tragen. Wenn Du den 387er mit dem R2010 (FPU zum R2000) vergleichst, kann ich mir schon vorstellen, dass der R2010 schneller war; die ersten FPUs von Intel waren recht langsam (mussten ja nur schneller sein als die Software), mit der 486-FPU und der Pentium-FPU kamen dann deutliche Beschleunigungen. Zahlen habe ich aber keine. Der 88100 hatte schon eine voll gepipelinete FPU mit drei Zyklen Latenz fuer die FP-Addition und 4 Zyklen fuer die FP-Multiplikation, und ich vermute, das war bei den anderen RISCs aehnlich. Da waren sie Intel deutlich ueberlegen, war ja im Zielmarkt der meisten RISCs auch wichtig.

Vermutlich lag es einfach am zur Verfügung stehenden Budget. Intel hatte halt riesige Stückzahlen aus dem Geschäft mit PCs, und war in diesem Markt fast alleine. Die Workstation Hersteller hatten viel geringere Stückzahlen und der Markt war ungeheuer fragmentiert.

Naja, Sun hatte richtig viel Umsatz, und vermutlich richtig viel Budget, und hatte trotzdem gewaltige Verzoegerungen und gescheiterte Projekte, und letztendlich hat sie das die Firma gekostet und am Ende wurde SPARC eingestampft (dabei schauen die letzten SPARCs von Sun/Oracle ganz interessant aus). Also die Ausrede lasse ich fuer den 88000 gelten, aber nicht fuer die PowerPCs von Motorola/Freescale; die hatten doch betraechtlich Umsatz mit Apple, und sind trotzdem im GHz-Rennen gescheitert und waren am Ende leistungsmaessig abgeschlagen. Nexgen war eine kleine Firma und hatte sicher nicht viel Budget (und ihr Kaeufer, AMD, war im Vergleich zu Intel oder Sun auch klein), und trotzdem haben sie den Nx686 (bekannt als AMD K6) entwickelt.

Vielleicht hatten die Projekte zuwenig Budget, einfach weil die Budgetverantwortlichen vom RISC-Vorteil der ersten Generation verwoehnt waren, wo ein paar Leute einen konkurrenzfaehigen Prozessor zusammenschustern konnten; vielleicht hatten sie aber auch einfach nicht die noetige Organisation, aus demselben Grund. Wobei, dass Sun das nicht nach den ersten Schwierigkeiten mitbekommen hat, und auch noch in den 2000er Jahren solche Probleme hatte, und die erst in den 2010ern die Kurve gekriegt haben (leider zu spaet), ist schon traurig.
 
Raucherdackel! schrieb:
Windows 11 hat Installationssperren drin, damit es sich nicht auf potentiell unsicheren Geräten installieren lässt.
Das ändert nichts an meiner Aussage zur Langlebigkeit von x86- vs ARM-Plattformen (ja, Plattformen, ich meine nicht die Architektur selbst).

Um mittelalte x86-Geräte auszuschließen, braucht es aktive Sperren, bei ARM muss man nur nichts tun.
 
ghecko schrieb:
CISC war so lange gut, bis es brauchbare Compiler für Hochsprachen gab.
Danke für die Information, das weiß ich aber und habe es auch bereits oft genug in den Themen zu dieser Diskussion auch sogar genauer ausgeführt und auch bereits in meinem Eingangspost in diesem Thema erwähnt:
DevPandi schrieb:
Die Software-Welt war damals eine andere. Es gab Anfang der 80er zwar durchaus schon Hochsprachen, aber vieles wurde damals - auch wege Speicherplatz als auch Rechenleistung - oft noch optimiert und speziell auf eine CPU zu geschnitten.
CISC, RISC und ebenso VLIW und damit verbunden EPIC sind in ihrer Form auch Eng mit den Fortschritten in der Informationstechnik verbunden gewesen und damit, dass Transistoren immer günstiger wurden.
 
Zurück
Oben