News Windows 7 mit HyperThreading-Verbesserungen?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.348
Das von Intel aktuell nur in den Atom und Core i7 genutzte Simultaneous MultiThreading (SMT), auch bekannt unter der ehemaligen Bezeichnung HyperThreading, fristet dank mangelnder Unterstützung auf der Softwareseite ein eher trostloses Dasein. Mit Windows 7 soll sich dies jedoch ändern.

Zur News: Windows 7 mit HyperThreading-Verbesserungen?
 
Habe gestern mit dem in Windows 7 enthaltenen Bitlocker eine Partition verschlüsselt.Da wurde leider von meinem Core i7 nur ein Kern genutzt :freak:
 
blizzard-74 schrieb:
Komplettzitat entfernt *klick*

Könnte das vielleicht an der Festplatte gelegen haben, die einfach nicht schneller Daten lesen und schreiben konnte und somit die Nutzung eines Kernes vollkommen ausreichend war?
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt. Bitte Regeln beachten.)
@Volker
Widersprichst Du Dir nicht, wenn du erst schreibst, es wird von Intel ausschließlich in den Core i7 genutzt und am Schluss, dass auch die Atoms SMT nutzen?
Edit: Ok, jetzt passt's.

Ich denke vor allem für die Netbook Besitzer dürfte das ja eine gute Nachricht sein, wohingegen die Quads schon alleine selten ausgereizt werden , geschweige denn, wenn sie 8 virtuelle Kerne bereitstellen. Auch für die Dualcores auf Nehalem-Basis also Clarksdale und Arrandale dürfte das eine gute Nachricht sein.
 
Zuletzt bearbeitet:
Hmm, schön, das sie daran arbeiten. Ich warte allerdings noch darauf, dass die CPU-Bauer/OS-Entwickler vom rein quantitativen Scheduling auf qualitatives Scheduling (man beachtet nicht nur Last, Laufzeit, ... der Threads, sondern auch ihre Charakteristik) umsteigen, denn erst damit lässt sich SMT richtig gut nutzen.
 
Ich frag mich ja schon seit Jahren

AMD und Intel tauschen bzw teilen viele ihrer Lizenzen, aber Hyperthreading bzw SMT war für AMD bisher nie nen Thema.

Warum eigentlich? Ist doch schön wenn man so die einzelnen Kerne besser auslasten kann.
 
halte ich für marketing...

wie soll man in windows einbauen, dass mehr kerne genutzt werden? hängt doch alles nur von den programmen selbst ab. wenn da nicht mehrere threads programmiert wurden wie soll man dann mehrere kerne nutzen, da kann auch windows nichts machen. beim hochfahren oder so ja vllt noch durch paralleles treiberladen oder sowas, aber bei den programmen selbst glaube ich nicht daran, dass man da mit windows irgendwelchen multi-core support erzwingen kann. wie auch?
und genau das ist ja auch das problem momentan... die pro kern leistung steigt nicht sehr stark an aber die cpus bekommen immer mehr kerne, was im desktop bereich eigentlich sogut wie nichts bringt. ich bin ja schon froh wenn mein kleiner dual core mal über 50% geht in windows 7 rc, von daher...^^

mfg
 
oem111 schrieb:
Komplettzitat entfernt *klick*
Auslasten ist relativ :) HT oder jetzt SMT hat nicht nur Vorteile, sprich bei manchen Sachen Nachteile.

Wieviel dann w7 hier wirklich bringt ist erst einmal abzuwarten :)

Ich warte immer noch darauf das AMD es schaft die verschiedenen Kerne als einen zu emulieren was sie ganz am Anfang mal wollten ;)
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt. Bitte Regeln beachten.)
Bin ja immer für eine gute Verschwörung zu haben, aber darüber hinaus sollte man sich vielleicht um sowas wie Argumente bemühen. Bevor es endgültig abgleitet, habe ich das fröhliche Ratespielchen (das zuletzt schon das Feld der Ironie verlassen hatte) versenkt: https://www.computerbase.de/forum/threads/588121/

Danke für die Aufmerksamkeit, nun wieder zurück zum Thema.
 
Zuletzt bearbeitet:
ich hoffe, fals es das alles so tut wie es versprochen wird, das ein update für die aktuellen windows 7 Rc rauskommen.

weil möchte mein windows eigentlich nicht wieder neu installieren o.O
 
Vielleicht kann ich dann ja meinen Pentium 4 Northwood mit Hyperthreading mal besser nutzen :-D

Schaden kann es ja nicht, wenn eine größere Unterstützung da ist.
 
Damit kommen die jetzt ?
Beim Pentium4 hätte das vielleicht was gebracht, aber wenn man eh schon mindestens 4 Kerne hat, wirds vermutlich schon schwer die zu nutzen. Hoffenlich programmieren die da ne Schutzfunktion ein, dass erst alle phsysikalischen Kerne einmal genutzt werden bevor die virtuellen angegangen werden, sonst geht der Schuss eh nach hinten los.
 
Hoffenlich programmieren die da ne Schutzfunktion ein, dass erst alle phsysikalischen Kerne einmal genutzt werden bevor die virtuellen angegangen werden, sonst geht der Schuss eh nach hinten los.
Genau das ist ja im Moment oft das Problem beim verwenden von SMT.
Nämlich, dass Windows die Threads mehr oder wenioger willkürlich auf die Kerne verteilt, egal ob diese jetzt virtuelle oder "echte" Kerne sind.

Ich denke um dieses Problem haben die sich jetzt gekümmert.
 
Wieso erst die physikalischen Kerne ? Zum Stromsparen würde ein echter Kern mit HT das Betriebssystem schon genügend "beschleunigen", die anderen Kerne könnten dann im Sparmodus bleiben, für die Mehrheit der Nutzer reicht das.
 
Win7 auf den Netbooks, das wär ja katastrophal... So viel schneller als Vista ist es nun wirklich nicht. Mehr als XP schaffen die Dinger wohl kaum, zumindest nicht in angenehmem Tempo, HT hin oder her.
 
@oem111
Das ist eine Architekturfrage. Die Core-Architektur ist breiter angelegt als Athlon/Phenom, d.h. sie hat mehr funktionale Einheiten, die parallel Operationen ausführen können. Um diese Einheiten allerdings auslasten zu können, muss es auf Instruktionsebene genügen parallele Operationen geben, denn ansonsten laufen einige FUs zeitweise nur im Leerlauf. Laut AMD wäre wohl eine 2fach superskalare Architektur am effizientesten, da man daraus aber nur schwerlich genügend Leistung rauskitzeln könnte, haben die Athlons/Phenoms eine 3fach superskalare Architektur. Intel dagegen benutzt eine 4fach superskalare Architektur (bei einigen exotischen Kombinationen von Operationen sind wohl auch 5 Ops/Takt möglich). Dadurch erhöht sich die theoretische Leistung im Vergleich zu AMD um 33% bzw. 66% bzgl. IPC bei gleichem Takt. Durch die fallende Effizienz bei steigernder Superskalarität ist der Unterschied im Endeffekt doch nicht so groß. Um die Auslastung wieder ein wenig zu steigern, gibt es dann wieder SMT, denn die Ops von unterschiedlichen Threads sind immer parallel ausführbar (sofern sie nicht gerade alle die gleichen FUs benutzen wollen, daher auch qualitatives Scheduling). Man kann also sagen, dass SMT umso mehr bringt, je breiter die Architektur ist und da AMDs FUs nach eigenen Angaben sowieso schon sehr gut ausgelastet sind, würde SMT nicht viel bringen.

@danker
Das wird es in der Form wie es damals angedacht war vermutlich niemals geben, weil es technisch nicht zu realisieren ist. Allerdings plant AMD für die nächste Architektur (Bulldozer) etwas, was durchaus in eine ähnliche Richtung geht. Es wird spekuliert, dass AMD bei der neuen Architektur nicht mehr nur eine Pipeline, sondern zwei einbaut, die jeweils 2fach superskalar sind, die aber so miteinander verbunden sind, dass eine Pipeline einige Ops an die "Schwester-Pipeline" abgeben kann. Das OS würde dann vermutlich im Normalfall wie bei SMT auch 2 virtuelle Kerne pro realem Kern sehen, wobei im Gegensatz zu SMT diese Kerne mehr oder weniger wirklich real vorhanden sind, da getrennte Pipelines. Aber wie gesagt, das sind bisher nur Spekulationen und Mutmaßungen aufgrund einiger Interviews und Patente.
 
Wieso erst die physikalischen Kerne ?
Stell dir vor, der User startet 2 Anwendungen. Alle beiden könnten jeweils einen Core voll auslasten. Aber Windows verteilt jetzt die beiden Anwendungen auf einen physikalischen und den dazugehörigen virtuellen Kern. Jetzt laufen beide Anwendung nur halb so schnell, wie es eigentlich möglich wäre, wenn beide Anwendungen auf physikalischen Kernen laufen würden ---> Performanceeinbußen.
 
@ Photon : Ach ja ? Hast du ein Netbook schonmal mit win 7 rc1 laufen gehabt ? Bei deiner Aussage glaub ich das eher nicht. Das läuft wie Butter !
 
HyperThreading war bei der Einführung für Anwendungen gedacht, die nicht für MultiCore optimiert waren. Zudem sollte es die Rechnelast auf den einen Kern besser aufteilen. Das gelang damals schon mehr schlecht als recht.

Auf einem Atom oder generell auf SingleCores die Funktion zu implementieren find ich vollkommen sinnlos, da die meiste heute Software/BS Threading unterstützt. HT wird keine Rakete aus gering getakteten und am Anschlag laufende Prozessoren zu neuen Ufern führen.

Alles Banane und Marketing irgendwie...

Aber Windows verteilt jetzt die beiden Anwendungen auf einen physikalischen und den dazugehörigen virtuellen Kern. Jetzt laufen beide Anwendung nur halb so schnell..
Falsch. HT hat nicht die Aufgabe zu "Teilen". Es soll nur die Prozessverarbeitung optimieren. Bedeutet, wenn eine Anwendung die 3Ghz eines Prozessors nicht voll auslasten, sondern nur 2Ghz, bekommen die restlichen Threads die übrigen 1Ghz. Mehr nicht. HT reduziert nicht Last eines Threads, um den anderen mehr zukommen zu lassen. Wäre ja auch blödsinn. Wenn ein SingleCore Atom mit einem Thread allerdings voll ausgelastet ist (was immer der fall ist), dann hilft HT auch nix.

Was ich jetzt allerdings nicht verstehe, was Windows 7 mit HT verspricht? MultiThreading und Multicoreunterstützung gibts seid Win2k. Demnach ist die Aufgabenteilung auf Multicores gegeben. HT würde eher bremsen, wenns in Windows sowie der Hardware argressiv arbeitet.

Nämlich, dass Windows die Threads mehr oder wenioger willkürlich auf die Kerne verteilt, egal ob diese jetzt virtuelle oder "echte" Kerne sind.
Das passiert zu 98% "in Hardware" und sollte auch so sein. Sonst kostet es Rechenleistung. Ich denke das die restlichen 2% HT regeln soll.
 
Zuletzt bearbeitet:
vielen vielen Dank für die hilfreiche Erklärung.

Markier doch mal den Beitrag als Erkänzung für die News^^
Ergänzung ()

Grantig schrieb:
Stell dir vor, der User startet 2 Anwendungen. Alle beiden könnten jeweils einen Core voll auslasten. Aber Windows verteilt jetzt die beiden Anwendungen auf einen physikalischen und den dazugehörigen virtuellen Kern. Jetzt laufen beide Anwendung nur halb so schnell, wie es eigentlich möglich wäre, wenn beide Anwendungen auf physikalischen Kernen laufen würden ---> Performanceeinbußen.


Wird durch HT/SMT nicht aus einem physikalischen Kern quasi 2 virtuelle

So das der physikalische nicht mehr "echt" vorhanden ist.

Macht ja auch keinen Sinn, schließlich müssen die virtuellen ja auf dem physikalischen laufen

Oder lieg ich wieder falsch
 
Zurück
Oben