News Open-Source-Architektur: Western Digital will auf RISC-V umsteigen

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.922
Hallo @ all,

schade daß sich RISC-CPUs nie in Desktops durchgesetzt haben. Gab damals zum Ende der Home-Computer-Ära ein System mit RISC-CPU, das andere Home-Computer um Lichtjahre vorraus war. Dessen BS war in Basic geschrieben. Lief aber trotzdem wesentlich schneller als die Konkurrenz mit reinem Assembler-Code. Komm aber gerade nicht drauf wie der hieß.

Edit: Es war der Acorn Archimedes
 
Zuletzt bearbeitet:
Gabs doch diese Alpha Prozessoren damals auch die direkt mit 150MHz aufschlugen, sogar beim Vobis damals gabs so System.
 
Haben sie doch im Grunde. Heutige x86 CPUs sind doch im Grunde auch nur RISC mit CISC-Emulation.
 
BlackWidowmaker schrieb:
Dazu passend aus der Wikipedia :
Die ARM-Architektur ist ein ursprünglich 1983 vom britischen Computerunternehmen Acorn entwickeltes Mikroprozessor-Design, das seit 1990 von der aus Acorn ausgelagerten Firma ARM Limited weiterentwickelt wird. ARM stand für Acorn RISC Machines, später für Advanced RISC Machines.
 
ist dieses risc-v design auch so umzusetzen, dass damit "potentere" rechenkerne gestaltet werden können?

ich meine damit, ist es nur für IoT/smartphones und controller etc. wirklich brauchbar oder kann man damit auch vernünftig server bestücken, wies manche arm-umsetzung ja schon vorgemacht hat?
das wär natürlich super
 
BlackWidowmaker schrieb:
Es war der Acorn Archimedes

Die Acorn Archimedes sind tatsächlich der Ursprung der heutigen ARM-CPUs.
ARM stand ursprünglich für Acorn RISC Machine.
Also genau die CPUs, die hier durch eine andere RISC-Architektur ersetzt werden sollen. ;)

Es gab früher aber eine ganze Reihe verschiedener RISC-Architekturen. Z.B. MIPS und ALPHA.
 
BlackWidowmaker schrieb:
Hallo @ all,

schade daß sich RISC-CPUs nie in Desktops durchgesetzt haben.
Mal davon abgesehen, dass der Übergang ziemlich fließend ist, ist die Frage ob CISC oder RISC auf dem Desktop für Performance und Effizienz meines Wissens heutzutage ziemlich unwichtig. Bei Microcontrollern wirkt sich ein einfacher Befehlssatz noch positiv auf die Chipgröße und Energieverbrauch aus, aber bei Desktop CPUs geht das fast schon im Rauschen unter.
 
Wie auch immer der hat damals über 3000 DM gekostet, und ich war noch ein armer Schüler. Hatte mich damals sofort darin verliebt, war aber leider finanziell unerreichbar gewesen für mich. Obwohl technisch eine Sensation, war auf dem Markt so gut wie gar nicht vertreten. Auch damals hat sich sich die Dominanz von Atari und Commodore in Sachen Softwareverfügbarkeit letztendlich gegenüber der wesentlich besseren Hardware durchsetzten können.

Letztendlich ist aber das Prinzip das dahinter steht das Entscheidende. Minimalismus ist nun mal der Garrant für höchste Effizienz und Geschwindigkeit. Nicht eine Million Befehle und Funktionen die 95% der User sowieso so gut wie gar nicht nutzen. Das gilt auch für Software. Da gab es z.B. noch zu Windows 95 Zeiten ein super geiles Grafik-Tool namens ACDSee. In den Versionen 1.x / 2.x war es noch das beste was man auf dem Rechner haben konnte um beliebige Grafikformate anzeigen zu lassen. Daneben auch PicaView um Vorschau von Grafiken im Kontextmenü anzeigen lassen zu können. Beide nur ein paar MB groß und einfach super. Mit der Zeit und höheren Versionen wurde das Tool aber immer mehr aufgebläht, bis es irgendwann mal zu nutzloser Bloatware mutierte, ähnlich wie das Brennprogramm Nero.

Genauso würde ich heutige CPUs bewerten. Hoffnungslos überladen mit Sachen die eigentlich gar nicht da rein gehören. Oder aber auch GraKas, die eigentlich zu 95% 3D Beschleuniger sind, und nur noch zu 5% die eigentliche Aufgabe einer GraKa erfüllen. Heutzutage hat halt geplante Obsoleszenz die technische Logik fast vollständig verdrängt. Das Ergebnis sind heutige CPUs und GPUs. 95% geplante Obseleszenz, 5% technischer Nutzen.
 
Zuletzt bearbeitet:
Mickey Cohen schrieb:
ist dieses risc-v design auch so umzusetzen, dass damit "potentere" rechenkerne gestaltet werden können?
Ja die PS3 hatte doch einen RISC Prozessor und der war leistungsteschnich ARM-CPUs weit überlegen.
Deshalb hatten die ersten PS4 Spiele ja probleme mit der CPU-Leistung bzw die Programmierer. Und das war glaube ich nur ein Quadcore mit niedriger Frequenz ^^
Vlt haben endlich alle Firmen die schautze von Intel x86 und IME voll und steigen so weit wie möglich um, um alles in der eigenen Hand zu haben und die NSA auszuschließen. Aluhut absetz ;-)
 
Zuletzt bearbeitet:
@BlackWidowmaker
Wenn du die deiner Meinung nach 95% geplante Obseleszenz entfernst bist du vermutlich wieder auf dem Stand der 90er und dann?
Ergänzung ()

Um nochmal zum Thema zurück zu kommen, kann man die Bemühungen als eine Reaktion auf den Aufkauf von ARM im letzten Jahr werten?
 
TZUI1111 schrieb:
Ja die PS3 hatte doch einen RISC Prozessor und der war leistungsteschnich ARM-CPUs weit überlegen.

Die PS3 hatte - der "CELL-Prozessor" - 1,5 PowerPC-Kerne. Nochmal andere Bausteille. Problematisch war das per Definition nicht, da man - anders als die PS2 nicht mehr ein GRUNDLEGEND anderes Grundkonzept verfolgte als ihr Vorgänger (die PS2 nutze etwas, was man "streamed processing" nennen könnte), sondern sich an dem Modell der PCs mit ihren Caches und sonstigen lokalen Speichern hielt. Das PROBLEM der PS3 waren die zusätzlichen Vektor-Cores. Hochspezialisierte RISC-ähnliche Rechenkerne, die man für Physik und ähnliches verwenden konnte/musste. Und das hat die Entwickler, die mit GENERAL purpose-Kern-optimierter Software die restlichen Konsolen bedienten, doch einige graue Haare beschert. Nicht, dass hochoptimierte PS3-Spiele nicht für ihre Zeit umwerfend waren. Sie waren aber eben nur eine Vision davon, was man hätte auch mit Multiplattform-Spielen haben können, hätte man eine andere CPU-Infrastruktur verwendet.

Generell gilt für die PS3 halt leider noch, dass sie für eine Konsole ihrer Zeit mit 256MB DDR3 RAM (wovon Spiele zu Anfang grademal 128MB nutzen konnten) einfach maßlos minderbemittelt war. Die PS2 hatte in ihrer 300MHz CPU immerhin 32MB Speicher zur Seite gestellt. Die Spiele der Folgegeneration eine Dekade später bekamen gerademal das vierfache. Da half es wenig, dass zwar auch die CPU noch auf die 256MB VRAM für die Nvidia GPU zugreifen konnte. Denn die brauchte ihren Speicher auch. Immerhin hatten das auch 2006/2007 schon die Einstiegskarten für den PC oft als Minimal-Konfigurationen.

So viel zur Geschichtsstunde. :D

Zu den Kernen: Es wird spannend. Der von SiFive vorgestellte U54-MC Chip könnte für Smartphones (bzw. mindestens Feature-Phones) möglicherweise schon genügend Dampf haben, wenn man sich die Spec durchliest. Wenn nicht, dürfte es von dort aber "nur" noch ein mittelmäßig großer Sprung sein, auch High Performance-Cores zu entwerfen, die mehr als die 1.5GHz fahren (und dann nicht mehr ganz so sparsam wären).

Die Zukunft wird spannend. Zumal ein offenes Design auch mögliche HW-Backdoors aufzeigen könnte, was derzeit mit sogar signierten, obfuscated core designs (für ARM zum Beispiel) unmöglich gemacht wurde. (Hallo NSA und Co...)

Allerdings interessiert das die Herstellerfirmen nur minimal. Da viele davon in den USA sitzen, haben sie notfalls alle die selben "gag-orders" am Hals und müssen entsprechende Schwachstellen implementieren. Also sowohl Intel als auch ARM. WAS die Appliance-Hersteller aber interessiert, ist, dass RISC-V lizenzkostenfrei ist. - Zumindest soweit ich das weiß und auch mal erstmal derzeit. Die ARM IP ist da ein deutlich größerer Kostenfaktor.

Regards, Bigfoot29
 
Zuletzt bearbeitet: (CPU-Frequenz der PS2 verdoppelt)
BlackWidowmaker schrieb:
»RISC« hat sich eigentlich - wenn man es genau nimmt - sogar gegenüber »CISC« durch gesetzt. Der Pentium Pro führte Mitte der 90er den bis Heute verwendeten Grundaufbau der x86-Architektur ein. CISC-Anweisungen werden durch Decoder zu RISC-Anweisungen zerlegt und anschließend von entsprechenden »RISC«-Kernen abgearbeitet.

AMD hat mit dem K5 auf die entsprechende »Architektur« umgestellt.

Entsprechend ist es auch heute teilweise echt mühselig, wenn man entsprechende Fragen nach der »Eignung« für Server ließt oder für den »Desktop«, da die Leistung nur »bedingt« vom Befehlssatz abhängt, sondern davon, wie eine CPU in »Hardware« aufgebaut ist, also ALUs, AGUs und andere Einheiten. Ebenso ob In-Order oder Out-of-Order. Pipeline-Länge usw.)
 
TZUI1111 schrieb:
Und das war glaube ich nur ein Quadcore mit niedriger Frequenz ^^
https://de.wikipedia.org/wiki/Cell_(Prozessor)

Wenn ich den entsprechenden Absatz bei Einsatz richtig deute, waren es eher so sieben Kerne mit ganzen 3,2GHz.
Lahm ist der Cell-Prozessor selbst heute nicht, aber es ist wohl unfassbar schwer für den Cell zu programmieren, weshalb dessen Potenzial nie so wirklich ausgenutzt werden konnte (mal abgesehen davon, dass die restliche Basis der PS3 unfassbar veraltet war...).
 
@Teralios: Korrekt. AMD hatte mit dem K8 eine so abstrahiertes System, dass man damals mit nicht allzu viel Aufwand problemlos auf einen anderen Basis-Befehlssatz hätte umsteigen können. ARM? MIPS? RISC? Alles möglich. Die Erweiterungen (3D Now, SSE und Co) wären zwar dann Dank einiger härterer Verdrahtungen/Spezial-Bereiche auf der CPU zwar dennoch da gewesen bzw. einige hochspezialisierte ARM Funktionen wären langsamer gelaufen, aber im Prinzip musste "lediglich" die Decoder-Stufe mit neu zu erstellender und dann einzuspielender Software - heute nennt man das AGESA - befüllt werden.

Ähnlich war es ja bei Transmeta auch.

Heute sind alle Prozessoren eine Mischung aus CISC und RISC.

Regards, Bigfoot29

Nachtrag:
@iGameKudan: Ich hab in meinem Post oben ja schon einiges dazu geschrieben. Ja, die CPU war ihrer Zeit tatsächlich voraus. Leider war die PS3 die einzige Konsole, die das Konstrukt nutzte. Und ja, die hohe, pure CPU-Power machte es der PS4 unmöglich, mit ihren 8 vergleichsweise langsamen Kernen eine Anwendung, die für maximal 2 oder 4 "Kerne" der PS3 geschrieben war zu emulieren. Manchen Code kann man schlicht nicht parallelisieren, wenn er für eine Single-Core-Anwendung geschrieben wurde. Selbst wenn man den SourceCode hätte.
Andererseits hat das Tradition. Es hat ja auch VIELE Jahre gedauert, bis man genügend Dampf hatte, um die PS2 mit ihrer eigenwilligen Streaming-GPU auch nur halbwegs sinnvoll performant emulieren zu können. (PCSX2 anyone?) Die Japaner gingen (und gehen - siehe derzeitiger Diesel-Trend in Japan) immer gern sehr eigene Wege.
 
Zuletzt bearbeitet:
Bigfoot29 schrieb:
:1,5 PowerPC-Kerne … Vektor-Cores … RISC-ähnliche Rechenkerne …
Irgendwie hab ich das Gefühl, dass du da ein paar Sachen durcheinander wirfst, die man so nicht durcheinander würfeln sollte.

Ich verstehe worauf du hinaus willst, aber selbst die 1,5 PowerPC-Kerne sind ja - wenn man es richtig nimmt - bereits RISC-Rechenkerne und die SPU des Cell sind ebenso RISC-Rechenkerne.
 
Das Hauptproblem des Cell Prozessors war den so auszulasten das man die theoretische Rechenleistung auch nur annähernd praktisch raus bekommt und das geht idR. nur mit bestimmten Workloads die bei Spielen kaum anzutreffen sind.
Damit litt er letztendlich unter dem gleichen Problem wie AMDs VLIW GPU Architekturen. Theoretisch haben sie massig Rechenleistung aber praktisch kam die mangels Auslastung der Recheneinheiten nur selten raus.

Damit sind wir auch bei dem größten Unterschied zwischen CiSC unr RISC.
RISC ist bei speziellen Aufgaben verdammt schnell aber kein Allrounder, CISC ist zwar ein Allrounder aber die Peak Leistung hält sich in Grenzen.
 
Zuletzt bearbeitet von einem Moderator:
@Teralios: Es war als starke Vereinfachung gemeint. 1,5 Kerne sind 1+1HT. (Bei Intel wäre das ein 1,25-Äquivalent.) Dieser SPU-Teil des CELL kommt einer klassischen CISC-Struktur noch am nähesten. (Ist ja immerhin enhanced RISC wie die anderen "CISC"-gelabelten Prozessoren heute ja auch.)
Die SPX-Module wurden/werden auch Vektor-Prozessoren genannt, weil sie - wieder stark symbolisiert - nichts anderes als pure, mehrfach vorhandene MMX/SSE-Instanzen mit etwas Logik zum "nach draußen in den Speicher/zur CPU telefonieren" sind.

Regards, Bigfoot29
 
@Bigfood und iGameKudan

Ok kann sein das ich mit dem Takt und den Cores falsch lag :confused_alt:
Hätte ja noch gerne mehr Infos gesammelt aber mein Handy hatte nur noch 3 % musste also schnellgehen ^^

Aber die Cell-CPUs basieren dochauf der RISC Arch soweit ich das dem Post von Teralios entnehmen kann.
 
BlackWidowmaker schrieb:

Von dem gibt's ja quasi einen geistigen Nachfolger: ebenfalls Britisch, mit ARM RISC CPU und RiscOS läuft auch drauf: RaspberryPi ;-)

Wobei das mit dem OS in Basic nur eine urban Legend ist (der Basic-Interpreter war nur fester Bestandteil, das war damals aber oft so üblich), genauso wie es auch bei ein paar Spielen hieß die wären in Basic was nicht stimmte. Die Leistung der Kisten war aber trotzdem genial.


@Topic: bin mal gespannt was genau WD da vor hat. Die Storage-Systeme mit spezialisierten CPUs "intelligenter" zu machen könnte jedenfalls neue Möglichkeiten eröffnen.
 
Zurück
Oben