News Im Test vor 15 Jahren: Der Pentium M lief per Adapter von Asus im Desktop-PC

Das weckt Erinnerungen! Hatte auch eine Asus P4P800 Deluxe (ohne E in der Bezeichnung), das CT479 und einen Pentium M am laufen. War schon ein klasse System.
 
@Teralios
Eine sehr interessante Frage.
Was aber war zur damaligen Zeit da, oder hat dafür gesorgt, dass solch langlebige und wegweisende Architekturen überhaupt entstehen konnten und warum sind sie entstanden?

Und abseits der Fertigungsverfahrensgrenzen, warum entstehen heute, gefühlt nicht mehr derartig, wegweisende Architekturen?

@wickedgonewild
Wie geil, wenn ich die alte Asrock Verpackung betrachte, kommt mir automatisch der Geruch, neuer Hardware in Erinnerung. ^^
 
Zuletzt bearbeitet: (Ergänzung)
  • Gefällt mir
Reaktionen: Pitlord, konkretor und wickedgonewild
Pentium M vs Arhlon 64
Zweistufiger Cache mit großen L2 Cache um den "langsamen" Bus zu entlasten der mit von der Grafik beansprucht wurde
Vs.
Dreistufiges 'Cache' Design mit IMC und RAM als Layer 3 Cache
Viel Buffer vs Geschwindigkeit
 
  • Gefällt mir
Reaktionen: Mcr-King
Mir als Pfennigfuchser war der Pentium M zu teuer, weshalb ich zum Dothan-1024 (Celeron M) griff. Die gab's damals bei eBay weitaus günstiger; hauptsächlich aus aufgerüsteten Laptops; und waren nur ~10% langsamer als ein Pentium bei gleichem Takt. Fehlendes EIST spielte beim CT-479 ja keine Rolle. Zusammen mit einem P4GPL-X und leichter Übertaktung via FSB von 1,6 auf 2,13 Ghz war das ein würdiger Nachfolger für mein letztes Sockel-A-System. Gutes P/L-Verhältnis und geringe Abwärme.

Besonders lange war die Kombination allerdings nicht im Einsatz, denn wie im Artikel angedeutet machte sich die Beschränkung auf 1C/1T bald negativ bemerkbar...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco, kryzs und Mcr-King
Hatte den P-M auf P4C800 Del. bis 2006 noch im PC.
Übles Benchteil :schluck:
P-M auf Lightspeed.jpg
 
  • Gefällt mir
Reaktionen: kryzs, Coca_Cola, Herdware und 3 andere
Für die satten 3,4 Ghz kommt mir das aber echt wenig vor, da ein C2D P8400 (2.24 Ghz) auf ähnliche Werte kommt.

Wahrscheinlich liegts am Speicher...
 
Ich weiß, ich weiß..
Die Verwunderung war eher architektur-bedingt... denn so viel anders ist der C2D nun auch wieder nicht vom Pentium M entfernt, dass die IPC in diesem Beispiel satte ~40% ausmacht; hätte mit weniger gerechnet.
 
  • Gefällt mir
Reaktionen: Mcr-King
@Zock
Das ist interessant. Hast du den Thread zur Hand? Würde da nochmal gerne drüber schnuppern.
 
lars1900 schrieb:
Während Intel Unsummen in den P4 gesteckt hat, mit dem Fernziel 10GHz, wurde ein überschaubares Team abgestellt um "was für Laptops" zu bauen. Hier wurde dann die glückliche Entscheidung getroffen auf dem P3 aufzubauen und nicht auf dem P4. Daraus wurde dann der Pentium M.
So nicht ganz richtig.

Intel hatte damals auch für den Laptop die Pentium 4 Architektur vorgesehen. Man merkte nur damals, dass der Pentium 4 viel zu viel Strom für ein Notebook benötigte, um entsprechend auf Leistung zu kommen. Bei den damals üblichen TDP im Notebook-Bereich konnte sich der P4 nie wirklich vom Mobile Pentium 3 absetzen.

Sobald er sich absetzen konnte, stieg allerdings der Verbrauch stark an. Richtig ist dann, dass man einem kleinen Team in Israel die Leitung gab und die haben dann angefangen mit dem Mobile Pentium 3 auf neue Fertigungsverfahren zu portieren und mit Anpassungen und Co kam dann der Pentium M, auf dem dann alles, was wir heute kennen, basiert.
 
  • Gefällt mir
Reaktionen: kryzs
Pjack schrieb:
Das geht vollkommen ohne Adapter mit einer kleinen Modifikation, ist ne Sache von 20 Minuten. Gibt sogar einen BIOS File-Generator, der in eine Z170/Z270-Datei per Knopfdruck den benötigten Mikrocode einsetzt.

ok das wusste nicht dass es sowas gibt. dachte man müsste das mühseelig von hand machen. hört sich ja mega interessant an. geht das auch für h oder b boards?
 
  • Gefällt mir
Reaktionen: Mcr-King
NMA schrieb:
Was aber war zur damaligen Zeit da, oder hat dafür gesorgt, dass solch langlebige und wegweisende Architekturen überhaupt entstehen konnten und warum sind sie entstanden?
Im Endeffekt ist die Antwort darauf recht simpel:

Die theoretischen Grundlagen konnten langsam in die Praxis umgesetzt werden.

NMA schrieb:
Und abseits der Fertigungsverfahrensgrenzen, warum entstehen heute, gefühlt nicht mehr derartig, wegweisende Architekturen?
Und auch hier ist die Antwort simpel - ähnlich wie beim Deep Learning: Viele Grundlagen in den 60, 70 und 80er theoretisch erarbeitet, konnten damals aber nicht umgesetzt werden, weil sie sehr teuer waren - bei Deep Learning fehlte die Rechenleistung. In den 90er und 00er wurde die Fertigung immer besser, also konnte man die "kostenintensiven" Ideen endlich günstig umsetzen.

Aber es kamen seit damals eben keine wirklich neuen Ideen hinzu, sondern man baute die Ideen nur weiter aus. AVX512 ist, wenn man es heute böse umschreiben will, auch nur eine x87-FPU auf Steroide. Will man es etwas weniger übertreiben, ist es halt eine SSE-Einheit auf Steroide.

Auch das jetzt kommende AMX ist im Endeffekt nicht wirklich was Neues. Es fehlen im Endeffekt neue "Grundlagen"-Ideen und ob da was in absehbarer Zeit kommt?
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, kryzs, Hayda Ministral und eine weitere Person
motorazrv3 schrieb:
Das weckt Erinnerungen! Hatte auch eine Asus P4P800 Deluxe (ohne E in der Bezeichnung), das CT479 und einen Pentium M am laufen. War schon ein klasse System.

Genau die gleiche Kombo hatte ich auch im Beritt. ASUS P4P-800E Deluxe :love: Kumpel hatte damals irgendwo von dieser genialen Möglichkeit gelesen und da mein Rechner eh ein Upgrade nötig hatte, haben wir das mal ausprobiert. Das lief damals unerwartet reibungslos. Schon erstaunlich, wenn man bedenkt, dass man die CPU mal eben 1.2 GHz übertaktet hat von (1.6 auf 2.8Ghz) 60% über Nominaltakt. Testweise hatte ich sogar 3 GHz aus den M entlockt, das lief aber nie stabil.

Sehr schöne Erinnerung. Danke CB für diesen Artikel.
 

Anhänge

  • CIMG5649.JPG
    CIMG5649.JPG
    2,2 MB · Aufrufe: 346
  • DSC01332.JPG
    DSC01332.JPG
    803,3 KB · Aufrufe: 344
  • IMG_1669.jpg
    IMG_1669.jpg
    614,5 KB · Aufrufe: 347
  • PM_LAST_OC_2880.png
    PM_LAST_OC_2880.png
    1,5 MB · Aufrufe: 403
  • Gefällt mir
Reaktionen: konkretor, Mcr-King, NMA und eine weitere Person
RaptorTP schrieb:
Kannte den Adapter. Nie selbst genutzt oder geschweige denn irgendwo gesehen oder für jemanden verbaut. Schade eigentlich.

Ich weil günstige B-Ware und Pentium lag im defekten Notebook rum. ;)
 
steve-sts schrieb:
War natürlich damals ein sehr teurer Spaß. Teures Board, Adapter und sehr teure CPU. Da konnte man viel Strom für verbraten.

Wie kommst du darauf? Kann nichts davon bestätigen. CPU war um die 200€, gutes aber nicht übermäßig teures ASUS Mutterbrett und der Adapter war vom Preis her ein Witz. Alles lächerlich im Vergleich zum AMD A64 FX-55. Der Stromverbrauch war dazu wesentlich niedriger als alle vergleichbaren CPUs. Sieh dir doch nur mal den zum Adapter mitgelieferten Kühler an, da kann nicht viel Hitze abgeführt werden.
 

Anhänge

  • 1DD19090-F15A-4528-B16B-078034D3B1FC.jpeg
    1DD19090-F15A-4528-B16B-078034D3B1FC.jpeg
    328,8 KB · Aufrufe: 312
  • Gefällt mir
Reaktionen: konkretor, kryzs, hRy und eine weitere Person
Marcel55 schrieb:
Ach, ich dachte der Pentium M hätte eine frühe Version der Core 2 Architektur verbaut?
Das unterstreicht wieder die Wichtigkeit eines Artikels, der mal den Stammbaum moderner Prozessoren ausrollt, @SV3N

Der Pentium M ist eine Weiterentwicklung des Pentium 3, der seinen Ursprung im Pentium Pro (P6 Mikroarchitektur) hat. Und die Core-Architektur basiert auf dem Pentium M. Weder der klassische Pentium (P5, CISC) noch der Pentium 4 (Netburst) wurde weiterentwickelt.
Teralios schrieb:
Auch das jetzt kommende AMX ist im Endeffekt nicht wirklich was Neues. Es fehlen im Endeffekt neue "Grundlagen"-Ideen und ob da was in absehbarer Zeit kommt?
Ich weiß nicht ob es in der klassischen Dualsystem noch so viel Potential für gänzlich neue Ansätze, die noch nie erdacht wurden schlummern. Von 1900 bis in die 70er Jahre wurden die Grenzen unseres physikalischen Realität relativ breitflächig abgesteckt und daraus Konzepte entwickelt, die wir bei weitem noch nicht technisch umsetzen konnten. Für gänzlich neue Konzepte bedarf es fast die Entdeckung einer anderen Realität, wie zb die der Quantenphysik. Aber selbst die Tür wurde ja schon relativ früh in dieser Zeitspanne aufgestoßen und das Technische Verständnis daraus ist schon breitflächig in Benutzung.
Viel Potential sehe ich fernab der klassischen Computertechnik bei dem Verständnis von Proteinen und deren katalytischen Eigenschaften zur effizienten Stoffgewinnung. Und natürlich in der Biotechnik. CAS9 war für mich eine Offenbarung, was möglich sein kann wenn man nur Zugriff auf einen kleinen Teil dieses Baukastens bekommt. Somit sehe ich noch viel Potential in der Optimierung und Vergrößerung unseres Wissens um die Grundlagen, die man bereits erdacht hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen, konkretor, NMA und eine weitere Person
ja, das waren "spannende" Zeiten damals...
AMD hat Intel kräftig unter Druck gesetzt und dadurch zu einer Reihe von Fehlentscheidungen getrieben. Neben der Netburst Architektur war da ja noch die Rambus Geschichte.

die Isrealis haben mit dem Pentium-M die Kastanien aus dem Feuer geholt und getarnt als "normaler" tic/toc Schritt wurde das dann nach USA "transferiert" und als Core-Architektur neu verkauft.

aus meiner Sicht traurig an dr ganzen Sache ist, dass das Pat Gelsinger den Aufstieg zum CEO verbaut hat. Den habe ich immer sehr geschätzt und ein "richtiger Ingenieur" (auch mit diesem Fleck auf seiner Weste) wäre mMn besser gewesen als die "Erbsenzähler" die nach Craig Barret das Ruder übernommen haben...

ich hatte damals ein P4 enginering sample am Laufen und bin zum Daddeln auf einen P-M mit dem Asus Adapter umgestiegen. Die CPU selber war im Mitarbeitershop spotbillig und man konnte sie mit massiv overvoltage und OC (stabil) über 3GHz treiben, damit hat sie bei Single Thread alles andere (weit) hinter sich gelassen.
 
Zurück
Oben