News Im Test vor 15 Jahren: Als Hyper-Threading aus einem Kern mehr machte

Hab auf dem Dachboden noch mein alten "Gaming PC" stehen mit P4 650 und thermaltake kühler^^
 
Kurz bevor die P4C rauskamen hatte ich mir ein P4B 2,4 ohne HT zugelegt. :(
Nach dann noch mein Abit MB nicht mehr wollte bin ich auf ein Asus P4P800-E Deluxe gewechselt. Die CPU konnte ich tauschen und bin auf einen P4C 2,6 und später auf einen 2,8er umgestiegen. Gekühlt von einem Zalman CNPS7000AlCu und mit 2,5GB RAM und GF7600 lief das System bis vor ein paar Jahren bei mir.
 
Habe vor kurzem einen Retro PC zusammengestellt.
Anfangs war es ein Celeron mit 2,66 GHZ. Anschließend kam für 5 Euro ein P4 non HT mit 2,8 GHZ rein. Mit beiden CPU‘s konnte ich nicht mal vernünftig im Netz surfen.
Nun bin ich auf einen P4 3.0 mit HT gewechselt. Der Unterschied ist schon recht enorm. YouTube ruckelfrei ))). Auch das Arbeiten ist viel angenehmer geworden.

HT bringt auf jeden Fall Vorteile.

Gruß
Müller
 
Nureinnickname! schrieb:
Naja zu 99% ist aber falls ein CPU wirklich kaputt gehen sollte, was recht unwahrscheinlich ist, der Anwender selbst, und nicht der Hersteller schuld ;-))

Scheinst ja ein mega Schlaumeier zu sein, mein AMD K5 ging nach 2 Wochen ganz ohne mein zutun kaputt, ebenso der Athlon64 damals. Mit OC hatte ich das erste mal mit dem P4 zu tun und das auch erst eine ganze Weile später..
 
danke für den Verweis auf diesen alten Artikel, der echt informativ geschrieben war
 
Bully|Ossi schrieb:
Scheinst ja ein mega Schlaumeier zu sein, mein AMD K5 ging nach 2 Wochen ganz ohne mein zutun kaputt, ebenso der Athlon64 damals. Mit OC hatte ich das erste mal mit dem P4 zu tun und das auch erst eine ganze Weile später..

Vielleicht hatte auch das Netzteil nen Hau weg und die AMD-CPUs haben empfindlich darauf reagiert. Aber es gibt halt auch AMD und Intel CPUs, die einfach mal ohne Grund abrauchen und irgendjemandem können durch Zufall dann auch mal zwei in Folge abrauchen. Dem Anwender die Schuld zu geben macht nur immer am meisten Spaß und man fühlt sich so schön überlegen dabei. ;)
 
Führt damals wie heute in gewissen Szenarien zu Leistungseinbrüchen. Ich hab mir nie eine CPU mit Hyperthreading gekauft, und wenn, würde ich es deaktiviert lassen.
 
JackTheRippchen schrieb:
Kaufen sich echt Leute Hardware, um BOINC zu betreiben?!?
Ich dachte der Sinn hinter diesem Rechner-Netzwerk ist es, brach liegende Leistung von Hardware zu nutzen, die sowieso schon da ist.

Und die sowieso Strom ziehen, d.h. angeschaltet bleiben.

Heute hat jede Hardware Stromsparmechanismen, CPUs, GPUs, Festspeicher, sogar RAM und Motherboard Stromversorgungen. Eigentlich macht BOINC auf privaten Systemen keinen Sinn mehr :freaky:, früher war es ansatzweise wg. der Lebensdauer sinnvoll ein System angeschaltet zu lassen statt es häufig hoch- und runterzufahren.

Bezug auf BOINC, seit dem Projekt WUProp macht Hyperthreading sehr viel Sinn ... für Badge wie Punktesammler. Immerhin schafft das Projekt einen gewissen Nutzwert für die CPU (und GPU) Leistungsanalyse, über Chip Generationen hinweg und hinsichtlich z.B. Vergleichen x86 versus ARM, Rechenzeiten u.v.a.m. (Maus an den linken Rand öffnet die Suchkriterien).
http://wuprop.boinc-af.org/results/delai.py

Beispiel Pentium 4 HT ausgeschaltet versus eingeschaltet.
http://wuprop.boinc-af.org/results/...l&type=Pentium+4&modele=2.4+GHz+(HT+disabled)
http://wuprop.boinc-af.org/results/...el&type=Pentium+4&modele=2.4+GHz+(HT+enabled)
 
Steini1990 schrieb:
Wo bleibt eine neue 1-Kern CPU mit 6GHz @Stock für die ganzen WOW und Starcraft 2 Spieler 😁.
DualCore bitte, iwo müssen ja die ganzen Hintergrundprozesse laufen, die sonst so noch am PC laufen.
 
Robert schrieb:
Das ließ sich Intel aber auch bezahlen: 637 US-Dollar rief der Hersteller aus.

Und heute beschweren sich die Leute über 300-400€ für 6-8Kerne mit Hyperthreading bei über 4GHz :D
 
Vicky8 schrieb:
HT war toll damals, man konnte endlich brennen und musste nicht direkt Angst haben, dass man ein Rohling verballert nur weil man ein Fenster geöffnet hat oder die Maus bewegt hat :p

Andere haben sich das Geld gespart und einfach von PIO auf DMA umgeschaltet :p .
 
Phantom272 schrieb:
...

Das Diagramm, dass Hintergrundprozesse im Vergleich zur Spieleperformance zeigt, macht ebenfalls deutlich, dass mit HT oft nur der Flaschenhals verlagert wird. Selbst bei echten Kernen macht sich das bemerkbar:
Ich kann auf meinem Ryzen 1700 (egal ob 8C/8T oder 8C/16T) bei einem Spiel, das max. 2 Kerne nutzt höchstens 3 Boinc-Threads zusätzlich im Hintergrund laufen lassen, bevor die Performance merklich einbricht. Hier ist wahrscheinlich schon lange vor der vollen Auslastung aller Kerne die Größe der L1/L2/L3 Caches und/oder die Speicherbandbreite limitierend.
Kann vielleicht jemand aus der Redaktion die Frage beantworten, welche Komponente hier genau die Limitierung darstellt?

Also Boinc neben bei laufen lassen hin oder her.

In Spielen hat man mit SMT deutliche Vorteile.
Wo man dann mit 4 Kernen vor allem bei min. FPS bei 45-50 stecken bleibt hat man mit 4C+SMT locker über 60 fps.
Habe ich mit Far Cry Primal festgestellt. Sonst war alles gleich außer die CPU.

Es muss nur die Entwicklung für Parallelisierung voranschreiten aber nicht im Bezug auf SMT.
 
benneque schrieb:
Und heute beschweren sich die Leute über 300-400€ für 6-8Kerne mit Hyperthreading bei über 4GHz :D

Zurecht, heute ist da Garantiert deutlich mehr Marge dabei.
 
Mein Feedback zu den "vor 15 Jahren" Artikeln: Ich finde sie echt gut, sie kommen aber zu oft (bzw. sind wenn sie so oft kommen, zu prominent platziert).
 
Schöner Artikel. Ich habe noch etliche P4 Systeme (mit und ohne HT, Sockel 478 oder 775) im Einsatz und erinner mich noch gut daran, das HT zuerst nicht wirklich was gebracht hatte. Ich hatte damals nen Athlon XP 1800+. Pentiums waren mir immer zu teuer gewesen :-).
 
Zock schrieb:
Viele wussten damals nicht das man in der Config der Quake Engine "SMT" einschalten musst es war eine der ersten die HT "SMT" nutzen konnte wenn auch sehr gering. Call of Duty Profitierte auch davon.

SMT = Simultaneous Multithreading

https://de.wikipedia.org/wiki/Simultaneous_Multithreading

Genauer genommen meinst du die Id-Tech 4 Engine die zu allererst Doom3 und Quake 4 innehatten.
 
Ist halt zu blöd für Intel, dass sie die Technik auf ihren Chips quasi sterben ließen.

Wenn man heutzutage ne Oracle 12, oder ne PostreSQL DB auf nem Sparc, oder nem POWER Server laufen lässt, wird sogar SMT-8 empfohlen.
SAP empfiehlt für große HANA DBs auch Linux on POWER zu nutzen, statt den Kinderkram von Intel.
Die meisten DBs profitieren sehr von 8 Threads pro Core. Für Brot und Butter LowEnd Anwendungen, wie LAMP, hat man natürlich keinen Vorteil davon, liegt an Sicherheit grenzender Wahrscheinlichkeit aber auch daran, dass die meisten Softwareentwickler, die so auf dem Massenmarkt rumgammeln gar nicht wissen, dass es HighEnd CPUs gibt, die mehr als 2 Threads pro Core haben.
 
Phantom272 schrieb:
So interessant die Technik war, so oft las man von Problemen bei der Kompatibilität.
Zumal man mit einem AMD Thoroughbred B, auf jenseits der 2,5 GHz übertaktet, keine Probleme diesbezüglich hatte und idR. auch noch flotter unterwegs war - zu einem Bruchteil des Preises.

Yo, die Software war damals auf HT nicht eingestellt und wie du sagst, war der Athlon XP Preis/Leistungsmäßig besser.
 
Zuletzt bearbeitet:
Ach ja, der gute alte P4. Eines muß man diesen alten Systemen aber lassen. Sie sind gebaut für die Ewigkeit. Vor 3 Monaten erst ein altes Lenovo Thinkcentre von einem Celeron auf Dualcore P4 aufgerüstet, der noch hier in einer Box schlummerte.
 
Zurück
Oben