News Intels „Bloomfield“ wieder mit HyperThreading

Mit aufwändig hab ich sowas gemeint, wie Intels Vorhaben UltraSPARC Konkurrenz zu bieten (also die Geschichte mit 32 Kernen, aufgeteilt in Bereiche á 4 Kernen usw.)

Wenns bei 1 CPU bleibt, kann man auch mit nem traditionellen Speicherkontroller auskommen (siehe Core2 <> NetBurst)
 
Injecter schrieb:
Hätten die auch geschafft, würd nich zu warm werden. NetBurst hatte es eigentlich drauf, wäre aber einfach kacke gewesen :p

@HyperThreading Warum haben die das überhaupt aufgegeben zwischendurch? Sowas kann doch eig nich schaden, also warum ham die es nich drin gelassen... Hab das gar nich mitbekommn obwohl hier am Core Duo rumtipp (der is ja noch NetBurst, hat der das dann noch, oder auch nimmer?)


Hallo.

1. Punkt:
Der Core Duo beruht nicht auf NetBurst, sondern ist der legitime Nachfolger des Pentium M. Meines Wissens wurde die erfolgreiche Pentium M Architektur um die Fähigkeit erweitert, 2 Kerne auf eine DIE zu verwalten. Der Pentium M ist im übrigen eher mit dem Pentium III als mit dem Pentium IV verwandt.

2. Punkt:
HyperThreading wurde für die Pentium M und die Core Architektur aus dem gleichen Grund nicht verwendet, weshalb es auch bei AMD nicht verwendet wird, obwohl es über das Technologie-Austausch-Abkommen ohne Weiteres möglich wäre. Eben weil es dort schlicht und ergreifend ziemlich wenig Sinn gegeben hätte. HyperThreading dient der besseren Auslastung der extrem langen Pipeline von immerhin 31 Stufen beim P IV Prescott, damit dieser überhaupt noch halbwegs mit den Takt effizienten Architekturen, wie AMD Athlon oder eben Pentium M mithalten kann.

Ich vermute mal, dass Intel ähnlich wie AMD an einer Technik arbeitet, den Code zur Laufzeit in mehrere Threads zu unterteilen und diese auf die einzelnen Cores zu verteilen. Hat mit dem ursprünglichen HyperThreading wahrscheinlich nur wenig zu tun. HT ist aber ein bekannter Marketingname und wird wohl deshalb auch für diese Technik bei Intel herhalten müssen.

Das ist wie gesagt nur eine Vermutung, aber bei Takt effizienten Architekturen bringt das ursprüngliche HT afaik nichts, also ist so eine Marketingspielerei mehr als nur wahrscheinlich.

Ciao
 
naja wenn die mal wieder ne milchmädchen rechnung machen, dann sinds wahrscheinlich nur 150% mehrleistung, bestimmt rechnen die die Mehrleistung durch das HT einfach x2 ;)
 
und angeblich mit einer 300 Prozent besseren Pro-Watt-Leistung auftrumpfen können.
Werden die dann schon passiv gekühlt... ?

frankkl
 
S.Giny schrieb:
Ich vermute mal, dass Intel ähnlich wie AMD an einer Technik arbeitet, den Code zur Laufzeit in mehrere Threads zu unterteilen und diese auf die einzelnen Cores zu verteilen. Hat mit dem ursprünglichen HyperThreading wahrscheinlich nur wenig zu tun. HT ist aber ein bekannter Marketingname und wird wohl deshalb auch für diese Technik bei Intel herhalten müssen.
Das Thema taucht immer mal wieder auf, ist aber ziemlich esoterisch angehaucht... ich halte es in HW realisiert für schlicht unmöglich.

Bei den Softwareentwicklern liegt der Ball, und die müssen endlich MP-optimiert zu programmieren anfangen. Und sobald das geschafft ist, muss man sich nicht mehr darum kümmern ob da jetzt 2, 4, 8 oder 16 Cores im System stecken, MP-optimierte Programme skalieren (bis zu einem gewissen Optimum) mit
 
Bei den Stromkosten aus den 80zigern oder 90zigern würde das heute kein jucken wenn eine 10GHZ CPU alleine über 250W Energie verbraten würde ;)
 
wie is das eigentlich mit der immer weiterschreitenden miniaturisierung? ich war heute zu besuch in der halbleiterfertigung einer uni. der typ meinte, dass bei strukturgrößen <50nm quanteneffekte auftreten. hat das einen zusammenhang hier? vll klärt mich ein physikfreak auf :>
 
frankkl schrieb:
Werden die dann schon passiv gekühlt... ?

frankkl

Hey,

du meinst wohl wieder.. :D

MfG
CYA

iNsuRRecTiON
 
@CsA-EViL
Hättest mal "den Typ" gleich Fragen können... Warst wohl zu schüchtern, was? :-D

Wenn du aber Mikrosystemtechnik studierst wirst du das bis ins kleinste Detail erfahren, aber die Mathematik und andere Grundfächer sind recht schwer ;-)

Die Verbesserungen kommen nicht daher, dass da irgendwelche Quanteneffekte sind. Bei Verkleinerung von 180 nm auf 130 nm und auf 90 nm und auf 65nm wurde die CPU auch jedes mal Stromsparrender bei gleicher Leistung. Die Quanteneffekte sind eher störend. Korrigierert mich bitte, wenn ich irgendwo nicht ganz korrekt mit meiner Aussage liege.
 
Zuletzt bearbeitet:
hm schön, das Marketingmonster ist zurück.
Wenn ich sowas schon höre, die INTEL-HT-Technologie.
Hätten Sie es SMT genannt könnte man vielleicht ahnen, dass die Idee nicht unbedingt auf Intels Mist gewachsen ist (nicht das SMT am Ende doch von Intel kommt, dann stehe ich natürlich doof da) und den Kunden hätte man kein "Hyper" im Namen spendieren können.

Und nur mal so: Multithreadingansätze gibt es auch bei wesentlich kürzeren Pipelines, z.B. beim UltraSparc T1 (5 oder 6 Stufen), der führt pro Kern 4 Threads "quasi"parallel aus (eigentlich sequentiell mit ständigem Threadwechsel aber 4 vollständigen Registersätzen).

A propos: kann mir mal jemand sagen wie das bei HT nun genau ist? Werden da auch nur mehrere Threads mit eigenen Registersätzen verwaltet und dann verschränkt in die Pipeline gestopft oder gibt es da explizit mehrere parallele Pipelines für HT? (wobei die aktuellen Prozessoren von Intel ja sowieso mehrfach Skalar sind und genaugenommen schon deshalb... na egal)

mfg
Finkenelch
 
CsA-eViL schrieb:
wie is das eigentlich mit der immer weiterschreitenden miniaturisierung? ich war heute zu besuch in der halbleiterfertigung einer uni. der typ meinte, dass bei strukturgrößen <50nm quanteneffekte auftreten. hat das einen zusammenhang hier? vll klärt mich ein physikfreak auf :>

Die Hersteller gingen bei der momentanen technik davona us dass eine fertigung bis 32nm noch möglich ist, IBM hat erste strukturen in ~29nm zum laufen gebracht.

Das erste problem dabei ist aber schon die herstellung, momentan werden Laser mit 193nm wellenlänge verwendet, haben also jetzt schon eine größere wellenlänge als die 65nm struckturen breit sind die damit hergestellt werden. Durch UV Laser soll da nochmal mehr rausgeholt werden aber irgendwo bei 20nm ist dann wohl wirklich ende.
Quanteneffekte lassen sich in bereichen von >15nm wohl noch unter kontrolle halten.


Dann soll auf Kohlenstoff C60 umgestiegen werden ("Nano Tubes")...

Absolutes SciFi sind dann Quantencomputer
 
Zuletzt bearbeitet:
@Finkenelch: Also der oben falsch verlinkte Wikipedia-Eintrag http://de.wikipedia.org/wiki/Hyper-Threading und der in diesem Eintrag netterweise auch verlinkte CB-Artikel: https://www.computerbase.de/2002-11/bericht-was-ist-hyper-threading/ sollten dir mehr Aufschluß geben. Aber ich würde sagen die Pipelines sind schon parallel. Sonst würde das ganze im Falle eines Cache Miss wohl z.b. nichts bringen.

Im Grunde ist natürlich SMT nicht unbedingt alleine auf Intels Mist gewachsen, die Grundlagen sind natürlich schon woanders/gemeinsam gelegt wurden, aber HT als Umsetzung von SMT im Consumer-Markt darf man schon Intel zuschreiben.
 
Zuletzt bearbeitet:
Viel wichtiger für mich wäre die Info, ob die 45 nano Quadcores auf dem aktuellen Chipsatz 965 laufen werden .
 
S.Giny schrieb:
Hallo.

1. Punkt:
Der Core Duo beruht nicht auf NetBurst, sondern ist der legitime Nachfolger des Pentium M. Meines Wissens wurde die erfolgreiche Pentium M Architektur um die Fähigkeit erweitert, 2 Kerne auf eine DIE zu verwalten. Der Pentium M ist im übrigen eher mit dem Pentium III als mit dem Pentium IV verwandt.
1) Die Core Architektur (Merom) stellt sicherlich den legitimen Nachfolger der Banias Architektur (Pentium M, Core Duo) dar, aber Core kann gegenüber der Banias doch deutlich mehr.
Dazu gehört mehr als nur Dual-Core (den es mit der Banias-Architektur in Form der Core Duo Yonah Serie auch gibt).
Der Vergleich Pentium M und Core 2 Duo hinkt etwas arg, dafür wurde beim Merom einfach an zuvielen Schrauben zu fest gedreht.

Der Pentium M ähnelt hauptsächlich in den Recheneinheiten mehr dem Pentium III, SSE2 und das Bus-Interface (quad-pumped) hat er vom Pentium 4 übernommen. Gesunde Mischung halt. ;)

S.Giny schrieb:
2. Punkt:
HyperThreading wurde für die Pentium M und die Core Architektur aus dem gleichen Grund nicht verwendet, weshalb es auch bei AMD nicht verwendet wird, obwohl es über das Technologie-Austausch-Abkommen ohne Weiteres möglich wäre. Eben weil es dort schlicht und ergreifend ziemlich wenig Sinn gegeben hätte. HyperThreading dient der besseren Auslastung der extrem langen Pipeline von immerhin 31 Stufen beim P IV Prescott, damit dieser überhaupt noch halbwegs mit den Takt effizienten Architekturen, wie AMD Athlon oder eben Pentium M mithalten kann.
Hyperthreading ist auch bei recht aggressiven Architekturen wie Merom oder K8 nicht komplett unsinnig.
Da die gleichen CPUs wie fürn Desktop nunmal auch in den Servern eingesetzt werden, sind für die optimale Auslastung der CPUs 8 Threads besser als 4 Threads.
Gerade wenn ich an Virtualisierungslösungen denke können es eigentlich nicht genug mögliche Threads sein, die parallel verarbeitet werden können.
Eine Verdoppelung der CPU-Threads kann schon zu einer 10-20% besseren Auslastung führen, was nicht unerheblich ist.

Für Spiele ist sowas natürlich unsinnig - aber kommt mal von dem Trip runter, dass CPUs nur für Spiele gebaut werden...

mfg Simon
 
@Simon


S.Giny schrieb:
1. Punkt:
Der Core Duo beruht nicht auf NetBurst, sondern ist der legitime Nachfolger des Pentium M. Meines Wissens wurde die erfolgreiche Pentium M Architektur um die Fähigkeit erweitert, 2 Kerne auf eine DIE zu verwalten. Der Pentium M ist im übrigen eher mit dem Pentium III als mit dem Pentium IV verwandt.

Simon schrieb:
1) Die Core Architektur (Merom) stellt sicherlich den legitimen Nachfolger der Banias Architektur (Pentium M, Core Duo) dar, aber Core kann gegenüber der Banias doch deutlich mehr.
Dazu gehört mehr als nur Dual-Core (den es mit der Banias-Architektur in Form der Core Duo Yonah Serie auch gibt).
Der Vergleich Pentium M und Core 2 Duo hinkt etwas arg, dafür wurde beim Merom einfach an zuvielen Schrauben zu fest gedreht.


Er vergleicht hier ein Core Duo mit dem Pentium M. Nicht den Merom/Core 2 Duo!
Na-ja passiert. So eine nicht vorhandene 2 kann man sehr schnell übersehen :-)
 
Zuletzt bearbeitet:
Also die "300% höhere pro-Watt Leistung" heißt ja nicht das die CPU nur noch 1/3 des Stromes braucht, sie ist hauptsächlich schneller bei vermutlich annähernd gleicher oder etwas höheren Stromaufnahme als aktuelle CPUs.
Von 45nm verspreche ich mir nicht soviel, schon der Shrink von 90nm auf 65nm brachte nicht viel. Der Grund ist einfach: Wir gelangen langsam aber sicher an die Grenzen der Physik, aktuelle CPUs laufen mit 1,2V bzw. im Energiesparmodus bei 0,8-1,0V. Viel tiefer gehts einfach nicht mehr bei den derzeitigen Silizium-Transistoren.

Bei dem Hyperthreading bin ich etwas skeptisch, es ist schon nicht ganz einfach sowas in eine Singlecore-CPU zu integrieren, bei Multi-Cores aber sicher nochmal um ein vielfaches schwieriger. Und da Intel nun genau den anderen Weg wie bei Netburst geht, nämlich Pipeline verkürzen und dafür mehr gleichzeitig pro Takt machen wird Hyperthreading nicht soviel bringne wie bei netburst => ich vermute das ist eine Ente, oder wie schon von anderen vermutet will Intel nur den Namen "Hyperthreading" für was neues benutzen.
 
Zuletzt bearbeitet:
Bloomfield ist AFAIK kein P6 und damit kein Core2 mehr sondern ein P8 Kern. Wie sich der P8 behaupten wird, ob mit oder ohne HTT wird sich zeigen. Es ist unmöglich vorherzusagen, wie sich die CPU schlagen wird, da sie eine vollkommen neue Entwicklung ist.
 

Ähnliche Themen

  • Artikel
2
Antworten
29
Aufrufe
8.864
Antworten
14
Aufrufe
3.112
  • Artikel
2 3 4
Antworten
62
Aufrufe
15.185
Zurück
Oben