News Im Test vor 15 Jahren: Der Pentium M machte dem Pentium 4 die Hölle heiß

Der P-M auf CT 479 und P4C-800 hatte es mir auch angetan.
P-M auf Lightspeed.jpg


Der P-M ist nicht einfach "so" entstanden, der war Bestandteil der Centrino Entwicklung.
 
  • Gefällt mir
Reaktionen: Hexxxer76, ITX-Fan, Hells_Bells und eine weitere Person
engineer123 schrieb:
einstündige !!! Doku über E-Sport.
Na, bleibt zu hoffen, dass dieses Thema im ÖR neutral behandelt wird. Die Privaten können es ja bekanntermaßen leider nicht.

Wünschenswert wäre es auf jeden Fall. Auch wenn ich kaum noch zocke und das nicht mal mehr als Hobby ansehen würde, haben E-Sports genauso ihre Daseinsberechtigung wie alle anderen kompetitiven Tätigkeiten.
 
Joshua schrieb:
gab da ein Tool, habe den Namen vergessen

damals bin ich das erste mal auf das trottel stop (geiler name) gestoßen.

throttlestop hieß es tatsächlich, die eselsbrücke funktioniert aber bis heute. :evillol:

mfg
 
raekaos schrieb:
Da hab ich mich damals schon gefragt, warum Intel? Stellt euch vor Intel hätte ehr vom Pentium M eine angepasste Variante für 478 bzw. 775 gebracht. Aber nein, die mussten ja unbedingt 6 Jahre den P4 Rummel vorran treiben, bis die erste Core-CPUs kamen.
Ich denke mal, das hatte auch viel mit intenem Konkurrenzkampf zu tun. Wenn ich nicht völlig falsch liege, dann war der Netburst-P4 eine Entwicklung aus dem Mutterschiff, von Intel USA. Der Pentium M war dagegen eine Nebenlinie, die, ausgehend vom Pentium III, in Israel weiterentwickelt worden war.
 
  • Gefällt mir
Reaktionen: yummycandy, Bigfoot29, raekaos und 2 andere
Towatai schrieb:
Ich habe mich ja auch schonmal gefragt, wie ne aufgebohrte AMD K6 CPU aussehen würde, da diese ne extrem kurze (integer) Pipeline (6 Stufen) besitzt.

Die Pipeline war der Grund für den Erfolg der K6-2/III-Reihe (in den damals möglichen Maßen). Allerdings hatte das Design auch Probleme. U.A. wegen der kurzen Pipeline waren mehr als 600MHz nicht drin. Intel hatte ja mit dem P4 das komplette Gegenteil: Lange Pipeline, welche erst mit extrem hohen Taktfrequenzen (man visierte damals wohl 5GHz+ an, bis AMD spätestens mit dem K8 zeigte, wie blöd die Idee ist) sinnvoll einsetzbar war.
Das reine K6-Design "plus aktuelle Befehle" wäre heute nicht mehr konkurrenzfähig.

Generell: Klar kann man sagen, dass Intel quasi seit dem Pentium Pro am gleichen Design rumwerkelt. Viel übrig geblieben ist davon aber nicht. Genauso gut könnte man sagen "boah, die nutzen immernoch Silizium". Klar war der P4 eine Fehlkonstruktion (wie jetzt gleich wieder die Fans jammern werden... ^^ ). Aber Intel konnte sich sowas leisten. Es war ja auch nicht die einzige Fehlentscheidung im Konzern. Erinnert sich noch jemand an die Itanium-Reihe, weswegen Intel - zusammen mit Microsoft - so vehement die AMD64-Prozessorerweiterung torpedierte, bis man einsehen muss, dass auch auf dem Desktop 64 Bit nötig sein werden? Oder Rock Creek (später im Xeon Phi umgesetzt)?

All das hätte sich AMD nie erlauben dürfen. Schon der Faildozer (Bulldozer) war eine Katastrophe. Und der war zwar nicht unbenutzbar, aber eben auch kein großer Wurf.

So gesehen hat Intel durchaus lange gut reagiert. Ab einem gewissen Punkt hatten sie halt den Vorteil, dass sich die Konkurrenz selber zerlegt hat. Und da wurden sie - wohl zum Wohle der Shareholder - lange Zeit träge. (Das rächt sich jetzt, ist aber ne andere Story.)

Der Siegeszug des Pentium M war das, was Intel brauchte, um die Realität zu erkennen. Leute bauten Konfigurationen im Desktop zusammen, obwohl das teurer war als was "von der Stange" zu kaufen. Zumal die Konkurrenz schon lange Frequenzen mit nem ganzen Gigahertz weniger nutzten, und trotzdem voraus/ebenbürtig waren.

Die Geburtsstunde der Core M war gekommen. - Respekt an das israelische Team, welches die Entwicklung nicht aufgab.

Regards, Bigfoot29

Nachtrag:
Noch was zu AMDs Geschichte:
AMD hat hier - zwar oft mit Vorausblick, aber eben nicht immer mit Erfolg - oft mit weniger Planung und neuen Architekturen herauskommen müssen. Man musste sich auch wegen des begrenzten Budgets den Problemen der Zeit stellen und Neuerungen oft dann angehen, wenn die Zeit reif war. Das war beim K7 schon so, den man wegen der zu kurzen Pipeline und dem darum gestrickten Rest neu entwickeln musste und wurde mit dem K8 wieder so, als man sogar externes KnowHow zukaufte.

So war der K8 damals ein durchaus großer Wurf. Die darunterliegende Technik nahm Entwicklungen von Transmeta vorweg. Der Prozessor war so konstruiert, dass man mit relativ wenig Neuentwicklung jede andere Prozessor-Architektur hätte darüberstülpen können. (Das perfektionierte Transmeta dann damit, dass man sogar via Software die Architektur festlegte.)

Auch setzte AMD mit dem Sockel 940/939 die Grundzüge, die man bis heute beibehalten hat: Lange Sockelkompatibilitäten mit Einführung des AM2, der technisch auf dem 939/940 basierte, allerdings darüber DDR2-Speicher ansprach. (Es gab sogar Boards, die die alten Chipsätze weiter nutzten.)
Mit der Grundlage war man lange gerüstet. - Bis der Pentium M kam.

Also begann man bei AMD zu überlegen, wie es weitergehen könnte. Damals hieß die Strategie "Rechenzentrum first". Man hatte mit den K8-Opterons -sie liefen vom P/L her Kreise um die Xeons - den Markt für Rechenzentrumshardware mit befeuert. Überall wurden Serverinstanzen und RZs hochgezogen, um zentraler Daten verarbeiten zu können. Allerdings liefen die Core-basierten Xeons spätenstens im Multi-Prozessor-Setup den AMDs davon. Neben aktueller Singlecore-Leistung kam jedoch auch so langsam das Konzept der Micro-Services (anders als heute definiert). Einzelne Leute - und davon Millionen - wollten Webseiten abrufen, die einzeln wenig Leistung benötigten. Das konnte man entweder mit vielen Prozessen je Kern lösen oder - deutlich billiger und näher an Moore's Law - mit mehr Kernen.

Ergo wurden die Prozessoren für maximalen Durchsatz entwickelt. Das war dann Bulldozer. Die Modul"bauweise" nahm vorweg, was man heute mit ManyCore-Ansätzen ebenfalls nutzt. Nur eben deutlich zu früh. Und auch, wenn die neuen Kerne dadurch kleiner waren (und weniger IPC lieferten), konnte man nicht die Frequenzen beliebig erhöhen. Insbesondere im Desktop-Bereich war der starke Single-Core noch das Maß aller Dinge. AMD vergaß wohl, dass man in 2 Benchmarks so gut sein kann, wie man will. Wenn man nicht (mehr) den Ruf hat, wirklich rundum gute Prozessoren zu bauen, setzt sich das auch im Management nicht durch.
AMD hatte lange damit zu kämpfen, wieder auf die Füße zu kommen. Viele AMD-User haben ihre Systeme seit den letzten A64-x6 nicht mehr aufgerüstet oder sind zur Konkurren gewechselt.
Bis... tja... bis 2017.
 
Zuletzt bearbeitet: (Kleinere Ergänzungen :))
  • Gefällt mir
Reaktionen: JohnVescoya, joshlukas und TheMetalViking
AMDs Problem mit Bulldozer war auch, daß so eine kleine Firma immer nur eine Architektur verfolgen kann. Geht die schief, steht die Firma am Abgrund. Intel dagegen hat soviele Ressourcen und soviel Geld, daß die mehrere Entwicklungen gleichzeitig betreiben können. Auch deshalb (und nicht nur wegen des Betruges mit den Geheimverträgen, die AMD von viele OEMs und Handelsketten verbannte) konnten die das P4-Desaster in Ruhe aussitzen.
 
  • Gefällt mir
Reaktionen: Hexxxer76, Benji18, Fritzler und 4 andere
Kann mir jemand den Zusammenhang von pipeline Länge und Taktrate erklären? Also warum eine kurze/lange pipeline einen niedrigen/hohen Takt mit sich bringt?
 
Stand im ursprünglichen Pentium M Artikel: kurze Pipeline = relativ viel Arbeit/Transistoren pro Schritt - lange Pipeline = wenig Arbeit pro Schritt, dadurch weniger Transistoren, dadurch hoher Takt.

Der Pentium M lag bei ca. 10 Stufen, die Athlons um 11 und der P 4 bis zu 31 Stufen
 
  • Gefällt mir
Reaktionen: Bigfoot29 und konkretor
Hier mal ein paar Bilder von meinem Pentium M + Aopen Mainboard.

Die Corsair laufen mit 300 mhz auf CL3-2-2-10 niederigere Timings lässt das Board nicht zu das ist auch sehr zickig.
Als Grafikkarte kommt eine Zotac 750 TI Eco zum Einsatz, Halflife 2 läuft damit wie Sahne.

IMG_1138.JPG
 

Anhänge

  • IMG_1139.JPG
    IMG_1139.JPG
    1,6 MB · Aufrufe: 384
  • IMG_1140.JPG
    IMG_1140.JPG
    1,9 MB · Aufrufe: 362
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Poulton, bikerider, Schraube24 und 7 andere
Joker (AC) schrieb:
Der P-M ist nicht einfach "so" entstanden, der war Bestandteil der Centrino Entwicklung.
Nein, das stimmt nicht oder ist an den Haaren herbei gezogen.
Centrino ist eine reine Erfindung vom Marketing und hatte mit "Entwicklung" niemals etwas zu tun.
das ist z.B. etwas völlig anderes als bei Xscale (der Arm Core, den Intel lizensiert hat), der wurde damals überall in der Entwicklung "rein gedrückt".
 
  • Gefällt mir
Reaktionen: Fritzler, konkretor und Bigfoot29
andi_sco schrieb:
Link zum Retro Thread - mit Kompressorkühlung hatte der getestete K6-3 500MHz

Was ein Aufwand.
Die Integerpipeline des Cortex-A55 ist 8-stufig und der wird inzwischen mit gut 2 GHz getaktet (aber das ist ein in-Order-Design, das kann man höher takten). Einen K6 in einem neueren Prozeß darf man also deutlich über 1 GHz erwarten. Aber selbst dann würde der mediokere Cortex-A73 mit ihm den Boden aufwischen. Es hat seinen Grund, wieso so alte CPU-Designs nicht einfach wiederverwertet werden.
 
  • Gefällt mir
Reaktionen: Fritzler und Bigfoot29
Mickey Mouse schrieb:
Nein, das stimmt nicht oder ist an den Haaren herbei gezogen.
Centrino ist eine reine Erfindung vom Marketing und hatte mit "Entwicklung" niemals etwas zu tun.
das ist z.B. etwas völlig anderes als bei Xscale (der Arm Core, den Intel lizensiert hat), der wurde damals überall in der Entwicklung "rein gedrückt".
So hatte es jedenfalls damals geheißen (https://de.wikipedia.org/wiki/Centrino)
Ich hatte damals ein Samsung "Centrino" und wurde als "Plattform" auch so beworben....
Da ich aber weder bei AMD oder Intel arbeite, muss ich mich wohl darauf verlassen, wie du es sagst.

:rolleyes::rolleyes:
 
Zuletzt bearbeitet:
Centrino war eine Strategie von Intel, um damit neben dem Prozessor gleich noch das WLAN mit verkaufen zu können. Centrino bedeutet also nicht "hey, coole Plattform" sondern "die Prozessoren sind so gut, mit dem Ruf-Bonus quersubventionieren wir unsere WLAN-Chips". Es gab damals vergleichbare Notebooks ohne Centrino-Label. Aber eben mit Realtek WLAN-"Chip" (oder ganz ohne).
Für die Käufer bedeutete Centrino aber dennoch ein aktuelles Gesamtpaket. Wie heute wissen viele Konsumenten nicht wirklich, was sie kaufen. Gute Zahlen sind wichtig. Centrino war quasi das erste echte Qualitätslabel für Laptops. Dank Speedstep konnten die nämlich endlich Leistungsbasiert runtertakten. Und damit waren Notebooks mit mehr als 1-2h mobiler Laufzeit erstmals überhaupt sinnvoll (Gewicht / Leistung / Laufzeit) möglich.

Regards, Bigfoot29

Nachtrag: Wie auch heute üblich, gab es die Intel-Prozessoren auch ohne das Label. Dann waren sie aber teurer, was die Ersparnisse einer alternativen WLAN-Option auffraß. Intel hat sich damit letztlich für viele Jahre die Konkurrenz vom Hals geschafft.
 
  • Gefällt mir
Reaktionen: joshlukas, Zock und konkretor
du hast dich da etwas unglücklich ausgedrückt, mit "Bestandteil der Centrino Entwicklung".
und Wiki Artikel (gerade in diesem Bereich) stimmen halt auch nicht immer oder sind schlecht formuliert.
der Artikel beginnt mit: Centrino ist eine Marke und später soll es eine Entwicklung sein.

richtig ist: Centrino ist eine Marke, unter der eine oder mehrere Plattformen vermarktet wurden. Zu so einer Plattform gehörten mehrere Entwicklungen, u.a. der Pentium-M, als auch die WLAN Karten/Adapter. Aber die eigentlichen Entwicklungen der Pentium-M und der WLAN Dinger hatten absolut nichts miteinander zu tun, technisch gesehen.
Ergänzung ()

Bigfoot29 schrieb:
Centrino war eine Strategie von Intel, um damit neben dem Prozessor gleich noch das WLAN mit verkaufen zu können.
Intels Ziel ist und war es immer: Nummer-1 sein, mit nichts anderem gibt sich Intel zufrieden!
um die Jahrtausendwende hatte man sich voll auf Data-Center gestürzt. Da wurden massenweise Netzwerkfirmen gekauft, aber auch Läden wie ICP Vortex (das war mal Konkurrenz zu Adaptec und die haben SCSI Controller gebaut, man ist das lange her, sowas kennt heute kaum noch jemand).
WLAN hatte man völlig verschlafen und sich schnell Xircom gekauft.
aber so schnell wie man sich das vorgestellt hatte, wurden keine konkurrenzfähigen Produkte unter der neuen Mutter entwickelt. Die anderen hatten alle schon 54Mbit/s aber Intel/Xircom nur 11Mbit/s und das musste man irgendwie kaschieren. Also hat man aus einem erfolgversprechenden CPU Modell und einem veralteten WLAN Chip ein Paket geschnürt. Das hat man den Kunden im Sonderangebot zusammen mit einem lustigen Sticker verkauft und schon war man auch im WLAN Geschäft wieder ganz oben, auch wenn es nur "Beigabe" war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ITX-Fan, Sombatezib, konkretor und eine weitere Person
Hab noch ein (Laptop) HP NX6110 mit Pentium M im Bestand.

Damals war der kleinste Pentium M drin, wurde gegen die 1,7Ghz Version ausgetauscht, auf 1GB RAM erweitert und eine schnellere Festplatte eingebaut.

Für damalige Verhältnisse, müsste 2006 gewesen sein, lief das Ding perfekt.
Windows XP, Linux und sogar Hackintosh liefen darauf. Einzig der WLAN-Adapter war tricky unter Linux und Hackintosh.

Mit aktuelleren Betriebssystemen zieht man damit aber keine Butter mehr vom Brot.

Trotzdem bleibt das Ding in meinem Bestand.
 
  • Gefällt mir
Reaktionen: Hells_Bells, ITX-Fan und konkretor
Bei mir läuft auch noch ein Acer TravelMate. Nummer? 2300 oder so. Mit Celeron 1.3GHz gekauft. Ohne WLAN, weil wir damals dachten, dass Kabel reicht. Heute läuft er mit nem 54MBit/s WLAN-Stick und 1,5GB RAM. Prozessor ist ein 2 Giggelfurtz P-M. Alles noch so schön mit extra PAE-Flag in den Kernel-Parametern und nem Workaround, weil die bei Acer verbauten Spezial-Tasten auf dem Single-Core sonst wegen Fehlerkennungen 99% Last ziehen. ^^

Aber: Rennt.

Gleiches gilt für eine HP Workstation NW2000 (glaube ich). 2GB RAM, 1600x1200(!) Auflösung, 2GHz Pentium M - bin beim Ausschlachten über die beiden gestolpert... ^^- Notebook. Audio-Technisch auch heute noch ganz weit vorn. Und von der Auflösung her? Naja, langsam (15 Jahre später) gibt es ja endlich Bildschirme, die mehr schaffen... :D ). Über die Docking-Station konnte das Ding sogar schon DVI.

Wegerfen tu ich auch beide nicht. (Solange ich nicht "von Oben" Order bekomme...)

@Mickey Mouse : Leider kann ich bei Deinem Beitrag nur 1x "Gefällt mir" klicken. Hab das ja schon vor dem Edit gemacht. Hinterher verdienst Du es aber eigentlich nochmal. :D

Regards, Bigfoot29
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ITX-Fan und konkretor
Mickey Mouse schrieb:
ICP Vortex (das war mal Konkurrenz zu Adaptec und die haben SCSI Controller gebaut,
Moment mal...

Das erinnert mich an was...

... ah, gefunden. :D

IMG_7334.JPG


ICP RAIDYNE GDT65x7RP, Baujahr 1999

Brauch ich zwar nicht mehr, aber der bleibt bei mir. :D
 
  • Gefällt mir
Reaktionen: ITX-Fan, ChrFr, Hexxxer76 und 3 andere
smalM schrieb:
Was ein Aufwand.
...

Du vergisst, das AMD weder bei der Fertigung führend war, noch das der Fertigungsprozess mehr erlaubt hat.
Selbst die Mobil K6-2/3 hatten keine 600MHz erreicht.
 
  • Gefällt mir
Reaktionen: Bigfoot29
Also nen K6-III auf 500MHz zu bekommen, war durchaus möglich. Gibt einige Varianten, die bis auf 600MHz kamen. Ist aber durchaus Versionsabhängig. ^^ Auch damals schon war das Silzium bei den höheren AMD-Modellen - leider - auf Kante genäht. Viel Overclocking ging nur selten und eine Selektierung wie heute war wohl noch nicht möglich. Faktisch hat man das Ding aber durchaus bis auf 600MHz prügeln können. Gab ja sogar offiziell Modelle (später), die offiziell 570 MHz (K6-2+) schafften.

Viel bekannter wurde der K6-2/III tatsächlich als Upgrade von Sockel 5 / (Super)Sockel7-Systemen. Da ging es nicht um das letzte MHz. Da waren die Leute froh, wenn die ehemals 100 oder 200 MHz auf einmal 400 oder gar 500 anzeigten. (Und wer sich noch an den guten, alten DIV/0-Bug in Windows erinnert, der auftrat, weil die K6-2 mit 350MHz - so schnell waren die Intel-CPUs damals nicht - schneller waren als irgend ein interner MS-Prozess erinnert, hat Freuden-Hass-Tränen in den Augen... - Kopf-Tischkante, Sich aufregen, CPU runtertakten, Patch einspielen, hoffen, dass es dann läuft...)

Regards, Bigfoot29
 
  • Gefällt mir
Reaktionen: konkretor
@Taron
Wie viele Laufwerke konnte der Controller max ansprechen? Weißt Du das heute noch?
Das Teil sieht ja mal richtig nice aus😀.

MfG
Christian

Zum Thema Centrino, da erinnere ich mich an eine Situation aus der Fachhochschule, ich sitz im Linux Labor mit meinem Laptop (Core2Duo, Atheros WLAN damals), kommt Kommilitone rein sucht den Mitarbeiter der sonst im Hinterzimmer sitzt, weil er nicht ins WLAN kommt. Ich frage ihn was los ist er sagts mir, ich schau mir die Kiste an (war so eine Centrino Mühle) XP mit SP1 / 2 ohne WPA2 Unterstützung... da konnte ich erstmal SP3 drüberbügeln damit die Kiste überhaupt WPA2 unterstütze. Dann noch Server Zertifikat rein, dann klappts auch mit dem WLAN😆.
 
  • Gefällt mir
Reaktionen: konkretor
Zurück
Oben