Skysnake schrieb:
Interessantes Zitat und wenn so tatsächlich passiert dann ein ziemlicher Fail von Bell.
Er hat dies 2009 geschildert, also ca. 2 Jahrzehnte danach.
Es ging Robert P. Colwell nicht darum Gordon Bell ans Bein zu pinkeln. Er hat IMO diese Annektode als Beispiel dafür gebracht, dass sehr viele Argumente der RISC-Befürworter eben nicht durch ihre Daten abgedeckt waren.
Skysnake schrieb:
Btw ne ein Punkt den ich den Leuten auch immer predige bei Code Optimierungen. Messt euren Code und optimiert dann das was viel Zeit kostet und nicht das bei dem ihr denkt das es ein Problem gibt
Dafür gibt es die schöne Bezeichnung: "premature optimizations"
Du kennst das 0. Gesetz von Gerald M. Weinberg?*)
Ich finde "premature optimizations" ist eng verwandt mit "Gold Platening", beiden liegen ungeprüfte Annahmen zugrunde.
Ich bin kein Programmierer und auch kein Hardwareexperte, habe aber früher einiges mit erfolgreichen und mit weniger erfolgreichen Softwareprojekten zu tun gehabt. Als Folge hatte vor 20 Jahren Mal beabsichtigt Requirement Engineering zu machen, aber dafür gab es keine Rolle in der Firma. Als Folge dann habe ich mich wieder aus der Softwaregeschichte herausgelöst und bin in mein angestammtes Tätigkeitsfeld zurück.
*) Ich halte es für sehr bezeichnend dass, nur sehr wenige Bücher von Gerald M. Weinberg ins Deutsche übersetzt wurden. Der erste Band von Software Quality Management ist eine dieser Ausnahmen. Er war in der Auslage für Neuanschaffungen in meiner damaligen Lieblings-Bibliothek. Als ich ausstudiert hatte, war es schon aus dem Programm genommen und nur noch gebraucht zu bekommen. Software Quality Management ist für mich immer wieder ein Denkanstoß. Geralds M. Weinberg Marotte war es Gesetzte zu definieren.
mae schrieb:
Das Paradebeispiel war die VAX, aus mehreren Gruenden:
Das mag sein.
Robert P. Colwell hat sich die iAPX432 aus guten Gründen als Studienobjekt ausgesucht. 20 Mal langsamer zu sein ist eben schon eine Hausnummer. Und das wurde eben nur allzu gerne CISC in die Schuhe geschoben.
https://www.sigmicro.org/media/oralhistories/colwell.pdf Seite 47
Performance Effects of Architectural Complexity in the Intel 432
ROBERT P. COLWELL
Multiflow Computer, Inc.
EDWARD F. GEHRINGER
North Carolina State University
and
E. DOUGLAS JENSEN
Kendall Square Research Corp.
ACM Transactions on Computer Systems, Vol. 6, No. 3, August 1988.
mae schrieb:
3) Die VAX war erfolgreich,
Die VAX und ihre Nachfolger wurden vom PC gekillt. Und viele der Ingenieure, die an den RISC Chips von DEC gearbeitet haben, arbeiteten anschließend an CISC Projekten.
Einer von ihnen, Jim Keller, hat in vielen Interviews erklärt, dass die ISA nicht entscheidend ist.
Robert P. Colwell und seine Kollegen waren Mitte der 80iger nicht sehr populär, weil sie folgendes in mehreren Papers dargelegt haben.
- Viele Kernargumente der RISC-befürworten waren entweder nicht stichhaltig waren oder waren falsch.
- Viele Technologien die als RISC propagiert wurden, waren nämlich gar nicht an das Konzept Reduced Instruction Set Architecture gebunden, sondern konnten auch auf CISC angewendet werden.
Mit dieser Überzeugung hat Robert P. Colwell 1990 bei Intel angefangen
Es hat zwar mehr Aufwand bedeutet, aber eben nicht entscheidend mehr Aufwand. Vor allem dann nicht, wenn Intel das zigfache an Prozessoren verkaufen konnte und den besten Prozess hatte.
Aber wenn die Behauptungen wie viel besser RISC als CISC sei, gestimmt hätten, hätte CISC niemals RISC aus den Datacentern verdrängen können.
Es war auch ein Treppenwitz der Geschichte, dass HP die HP Precision Architecture für Itanium in die Tonne getreten hat.
Grotesker ist nur die Geschichte, die Robert P Colwell auf Seite 86 beschreibt, über den Ursprung der Performance Projektionen für Itanium.
mae schrieb:
Wenn man zeigen kann, dass RISC mehrmals so schnell ist wie eine VAX, und dabei viel weniger Entwicklungskosten hat, dann ueberzeugt das.
Und genau das "wenn man zeigen kann" haben Robert P. Colwell und seine Kollegen von der Carnegie Mellon University massiv in Frage gestellt. Robert P Colwell sagt dass die Befürwortern von RISC A behauptet haben, aber nur A' beweisen konnten. Seite 47
Daraus resultierte seine Dissertation.
Ein follow up Artikel, als er schon bei Multi Flow war.
Peering Through the RISC/CISC An Outline of Research Fog"
Robert P. Colweil , Charles Y. Hitchcock and E. Douglas Jensen
Hi,
Electrical Engineering Department
Computer Science Department
Carnegie-Mellon University
Pittsburgh , PA 15213
Abstract
Instruction Sets and Beyond: Compters, Complexity and Controversy
Robert P. Colwell, Charles Y. Hitchcock III,
E. Douglas Jensen, H. M. Brinkley Sprunt,
and Charles P. Kollar
Carnegie-Mellon University
Ich habe leider nichts besseres zu "Instruction sets and Beyond: ..."
Der letzte Satz setz dem ganzen die Krone auf. Es ist eben das was
@Skysnake beschreibt, ineffizienter Code ist nur dann relevant, wenn er häufig ausgeführt wird. Mit sehr speziellen Benchmarks zu zeigen wie überlegen ein neuer Ansatz ist, reicht eben nicht. Wenn der Benchmark nicht repräsentativ für die tatsächliche Workload ist, sind alle aus dem Benchmark abgeleiteten Zahlen irrelevant.
mae schrieb:
Die Sache mit dem i960 ist eine Tragoedie. Da hat Intel einen RISC entwickelt, ungefaehr zeitgleich mit dem 386, hat dem aber einen Rucksack mit Ideen vom iAPX432 draufgepackt, weil das ein besonders sicherer Prozessor fuer Nuklearreaktoren und so sein sollte.
Einen weiteren RISC-Prozessor hätte niemand gebraucht.
Wenn man Robert P Colwell glaubt, ist die Tragödie dass die bahnbrechende Konzepte der iAPX432 verloren gingen.
0:34:25 BC: Yeah. 10X. And that's why I said you could get it within shouting distance,
because I think somewhere else the RISC folks measured it as being about 1/20th the speed
of a RISC chip and so if you give it a factor 10 you could get within a factor of 2 of the best
and then at that point you could start saying well wait, I'm not as fast as him but look at all
this other cool stuff you get. But if you're 20 times slower there's no cool stuff going to save
you from there. It's kind of a shame, I mean I think that whole aspect of computer
architecture died because the 432 was such a debacle and it didn't need to be, there were
some good ideas in there, they just got lost.
Seite 53
Eines der grotesken Dinge die die iAPX432 versenkt haben ist, dass das Compiler team und die Hardwareentwickler über Kreuz lagen, und dass der Compiler sehr schlechten Code erzeugt hat.
Robert P. Colwell beschreibt es, dass er das Gefühl hat die Entwickler der iAPX432 glaubten auf einer Mission von Gott zu sein. Sie haben sich wie er meint so gut wie keine gedanken über die Performance gemacht. Seite 52
mae schrieb:
Bei IBM gab's das Muster, dass bei ambitionierte Projekte (z.B. Stretch) niemand ein Nachfolgeding machen wollten, weil ihnen dann die Kosten des Projekts angerechnet wuerden; stattdessen haben sie die Projekte eingestellt, und dann konnte sich der ganze Konzern kostenfrei daran bedienen (z.B. hat S/360 einiges von Stretch uebernommen). Beim iAPX432 und i960 ist wohl irgendwie dasselbe passiert, aber zum Nachteil des i960.
Robert P Colwell et al nennen in "Performance Effects of Architectural Complexity in the Intel 432" folgende Gründe:
- Keine Optimierung im Ada Compiler
- Stark limitierte Speicherbandbreite
- Designers of the 432 made a decision to provide a new, protected context for every procedue call
- Instructions are bit alligned, so the 432 must almost of necessity decode the various filed of an instruction sequentially.
.