Bericht Im Test vor 15 Jahren: Windows 2000 und Hyper-Threading vertrugen sich nicht

deo

Vice Admiral
Dabei seit
Okt. 2005
Beiträge
6.494
Viele haben mehrere PCs und die sind dann auch aus verschiedenen Generationen, so dass man zwangsläufig einen mit HT hat.
Die Umfrage geht davon aus, dass man nur einen PC hat. Wenn man das wörtlich nimmt, muss man den aktuell am meisten benutzen bewerten und nicht einen, der nur irgendwo herum steht und nur noch selten läuft.
 

Coca_Cola

Vice Admiral
Dabei seit
Dez. 2012
Beiträge
6.578

deo

Vice Admiral
Dabei seit
Okt. 2005
Beiträge
6.494
Der Pentium 4 konnte mit HT noch eine ganze Weile für Programme und Spiele genutzt werden, die einen Dualcore vorraussetzten. 2 Kerne oder einer mit HT sind in der Summe zwei Prozessoren und solange die Leistung reicht, reicht dann auch ein Pentium 4. Aktuell kann man ja auch einen Dualcore mit HT für Sachen benutzen, die einen Quadcore voraussetzen.
 

Fragger911

Commodore
Dabei seit
Okt. 2006
Beiträge
4.950

feidl74

Lieutenant
Dabei seit
März 2013
Beiträge
931
Viele haben mehrere PCs und die sind dann auch aus verschiedenen Generationen, so dass man zwangsläufig einen mit HT hat.
Die Umfrage geht davon aus, dass man nur einen PC hat. Wenn man das wörtlich nimmt, muss man den aktuell am meisten benutzen bewerten und nicht einen, der nur irgendwo herum steht und nur noch selten läuft.
ich habe nur einen und zwar ohne HT. HT hat für mich, in meinem anwendungsgebieten, keinen spürbaren mehrwehrt
 

CMDCake

Lieutenant
Dabei seit
Feb. 2015
Beiträge
796
Neu in Windows XP war jedoch, dass das Betriebssystem zwischen logischen und physischen CPU-Kernen unterscheiden konnte, was sich positiv auf die Leistung auswirken sollte.
Jetzt bin ich irritiert, es hieß doch als Ryzen raus kam und Leistungseinbrüche in Games auftraten wenn SMT aktiviert war, dass Windows die Last auch auf die schwächeren "logischen Kerne" schiebt auch wenn noch genug physische kerne übrig waren. Bedingt dadurch das Windows eben nicht erkennen kann ob es sich um "richtige" oder SMT kerne handelt. Denn würde Windows das erkennen können, dann hätte es die massiven Leistungseinbußen in Games ja garnicht erst gegeben, und den Game das 3 Kerne braucht würde dann einfach 3 Physische kerne zugewiesen statt die Last Random auf SMT und Echten Kernen hin und her zu schieben.

Oder wo ist da mein Denkfehler?
 

Giga-Gaga

Ensign
Dabei seit
Nov. 2011
Beiträge
147
Damals extra einen P4 2,8Ghz mit HT geholt und nicht bereut. Schon allein Windows lief besser, wenn Mal ein Programm abgestürzt ist oder die CPU ausgelastet hat könnte man normal weiter arbeiten.

@CMDCake: was bei Intel mit HT klappt muss bei AMD mit SMT nicht zwangsläufig auch funktionieren, sind halt andere techniken.
 
Zuletzt bearbeitet:

Shoryuken94

Commodore
Dabei seit
Feb. 2012
Beiträge
4.523
Irgendwie vermisse ich die Zeiten als die Programme noch nicht mehrere Cores unterstützt haben.
Wenn damals ein Programm meinte einen Core zu 100% dicht machen zu müssen war das dem restlichen System vollkommen egal. Heute schaffen es machen Programme selbst einen eigentlich gnadenlos überdimensionierten Ryzen 7 1700 mit 64GB RAM in die Knie zu zwingen.
Dafür braucht die Abarbeitung dann auch nicht Stunden lang, sondern nur einige Minuten. Du kannst ja die Prozesse selbst zuweisen. Wenn du dir die Zeit zurück wünscht, dann weise jedem Programm auf deinem Rechner doch nur einen Kern zu ^^ viel Spaß damit.

@PiraniaXL
Stimmt so nicht. Es gibt heute massig gut Optimierte Software! Aber für die meisten Leute gibt's ja nur spiele.

Wenn man liest, dass sich Leute beschweren, dass ein Programm die gesamte Leistung eines 8C/16T Prozessors ausnutzen kann, dann weiß ich nicht, ob das die richtigen Leute sind, um über gute Software Optimierung zu sprechen...
 
Zuletzt bearbeitet:

Robo32

Fleet Admiral
Dabei seit
Sep. 2006
Beiträge
16.495
Jetzt bin ich irritiert, es hieß doch als Ryzen raus kam und Leistungseinbrüche in Games auftraten wenn SMT aktiviert war, dass Windows die Last auch auf die schwächeren "logischen Kerne" schiebt auch wenn noch genug physische kerne übrig waren.
Das war einer der Gründe, erkennen kann es Windows aber bis heute nicht zu 100%...
Um das zu erreichen müsste entweder der CPU Hersteller die Kerne markieren und das an das OS weiter reichen, oder Windows müsste die Leistung der "Kerne" einzeln ermitteln und anschliessend das Ergebnis auch anwenden.
 

Nureinnickname!

Commander
Dabei seit
Jan. 2010
Beiträge
3.037
Ist doch immer das Selbe, ist die GPU zu 99% ausgelastet ist es egal, aber wehe die CPU wird zu 99% ausgenutzt, irgendwas stimmt mit der Software nicht, die is dreck, Windows ist doof, warum so eine hohe auslastung?

Leute, wenn Programme X Kerne benutzen können, werden diese mit sehr hoher wahrscheinlichkeit wenn nix anderes limitiert, auch zu 99% ausgelastet. Das Selbe wie beim RAM, warum beschweren sich leute das er benutzt wird? Versteh ich nicht.
 

RYZ3N

Rear Admiral
Dabei seit
Mai 2018
Beiträge
5.543
Wenn man liest, dass sich Leute beschweren, dass ein Programm die gesamte Leistung eines 8C/16T Prozessors ausnutzen kann, dann weiß ich nicht, ob das die richtigen Leute sind, um über gute Software Optimierung zu sprechen...
Dem kann ich nur voll und ganz zustimmen.

Wenn man sich eine 8/16, 12/24 oder 16/32 CPU verbaut, dann doch wohl weil mein Use Case es vorgibt und meine bevorzugten Anwendungen es unterstützen.

Wenn ich mein System z.B. mit einer Produktivitätssoftware (Adobe Premiere Pro) auslaste, dann freue ich mich über die schnelle Abarbeitung der Arbeitsschritte und für alle anderen Szenarios kann ich den Kernen doch Software zuweisen.

Ich zumindest hoffe auf mehr und mehr Mehrkern-Support.

Liebe Grüße
Sven
 

Crass Spektakel

Lt. Junior Grade
Dabei seit
Juli 2015
Beiträge
324
Mein erster Mehrkern-Rechner war ein C128. Der kam mit einem 6502-kompatiblem Kern und einem Z80-Kern. Aber naja, heute meint man wohl eher SMP, also gleichartige Kerne die im gleichen Adressraum arbeiten. Das wäre dann mein Gigabyte 586 DX-Board welches anfangs 2xPentium90 und später 2xPentiumMMX233 antrieb.

Mit Linux und NT klappte das überraschend gut und das Board war damals kaum teurer als normale Boards, kam aber mit sechs RAM-Slots und UW-SCSI. Insgesamt ein feuriger kleiner Renner.
 

Xedos99

Commander
Dabei seit
Aug. 2007
Beiträge
2.703
Viel interessanter fand ich,das Intel beim Einkauf von HP Systemen für interne Nutzung,die Anweisung heraus gab, HT standardmäßig im BIOS zu deaktivieren. Das läßt sicher gewisse Schlußfolgerungen auf den Nutzen dieser
Option zu. Mal abgesehen von der Software Problematik und dem genutzten OS.
 

G00fY

Commander
Dabei seit
Aug. 2009
Beiträge
2.874
Hab damals unter Windows XP meinen Pentium 4 mit 2.8 GHz gegen einen Pentium 4 HT mit 3,06 GHz ersetzt. Der Leistungsunterscheid war leider sehr ernüchternd.:D Davor musste ich auch noch das Bios modden etc. Waren noch coole Tüftler-Zeiten.
 

floh667

Lieutenant
Dabei seit
Juli 2004
Beiträge
549
Quake 3 hatte den Konsolenbefehl "r_smp" für symmetric multiprocessing. Leider verstand der sich nicht gut mit den neuen cpu generationen, die mehrere threads/kerne auf einer cpu hatten. War mehr so ein Befehl für die oldschool mainboards mit mehr als einem CPU sockel. Und ich hatte mich damals schon gefreut mit meinem 3,2ghz northwood :(
 

Nightmare85

Commander
Dabei seit
Apr. 2007
Beiträge
2.838
Windows 2000... das waren noch Zeiten :)
Ich fand's jedenfalls klasse!
100x besser als dieses bescheidene Windows ME.

Ich glaube meine CPU war ein Athlon 1200 Thunderbird.
An den Rest kann ich mich leider nicht mehr erinnern.
Nur noch dass ich NOLF1 und GTA3 spielte.

Grüße
 

Der-Orden-Xar

Lt. Commander
Dabei seit
Okt. 2007
Beiträge
1.607
Achja Win 2k auf einem AMD Athlon XP 2400+ (oder 2200+?). Das Ding hatte definitiv nur einen Kern ohne HT oder ähnlichem.
Und viele Jahre später arbeiten hier ein Laptop mit 2 Kernen+HT (i3 oder i5) und ein Intel Xeon, der genau wegen dem HT auch einem i5 vorgezogen wurde^^
 
Top