News Weitere Details zu Intels „Nehalem“

Simon

Banned
Registriert
Jan. 2002
Beiträge
10.692
In einem neuen Dokument hat Branchenprimus Intel weitere Details zu ihrer kommenden Prozessor-Generation und Architektur unter dem Codenamen „Nehalem“ verraten. Dazu gehören unter anderem neue Informationen zur Cache-Struktur und zahlreiche interne Verbesserungen.

Zur News: Weitere Details zu Intels „Nehalem“
 
Naja, mich würde vor allem der Stromverbrauch interessieren, hoffentlich geht der weiter runter.
Insgesamt begrüße ich die ENtwicklung natürlich sehr, Power ist immer gut. Allerdings habe ich das ungute Gefühl, dass es erstmal wieder kaum Software gibt, die diese ganzen Cores (quad, hexa, octa) auch wirklich ausreizen kann. Naja, mein gerade neues System wird also kaum ein Jahr lang aktuell sein, es geht weiter wie bisher ...

Grüße,
franeklevy
 
Also wird weitestgehend der Penryn-Kern erhalten bleiben und man verändert nur die gesamte Infrastruktur?
Nuja, prinzipiell hat man ja auch mit Penryn nen echten Gewinner unter der Haube; bisschen hier und da was hinzufügen und fertig ist das neue Produkt =)
 
Is Euch eigentlich klar, dass Intel 1000 Kerne verbauen kann, ein eizelner aber genauso schnell ist, wenn die Software das nich unterstützt?!
Und wie zäh schon die Entwicklung hin zur Nutzung zweier Cores war, sah man ja in den letzten Jahren...
Daher sind mir die anderen hier genannten Verbesserungen wesentlich wichtiger!
 
Würden wirklich ein paar hundert oder sogar 1000 Cores in einen Prozzi passen? (Fachmann?)
 
Es gibt längst Prozessoren mit über tausend Kernen, die sind nur überhaupt nicht schnell in den Anwendungssituationen, die wir hier so kennen. Und Windows oder Crysis läuft da auch nicht drauf. Gerade die hier präsentierten neuen Fakten zu Nehalem sollten doch deutlich machen, dass die Architektur und nicht die pure Kernanzahl oder gar wie früher geglaubt MHz-Zahl die Geschwindigkeit eines Prozessors in lebensnahen Einsatzsituationen ausmacht.
 
Zudem besitzt der Nehalem eine bessere Parallelisierung, sodass jetzt bis zu 128 Micro-Ops „in flight“ möglich sein

-> seien sollen bzw. sind.
 
Wahnsinn das die die Bandbreite so erhöhen konnten da binn ich dann mal auf den Speicherdurchsatz gespannt. Durch die verringerung an Transistoren dürfte der Prozessor auch weniger Strom verbrauchen.
 
... dafür is der Memorycontroller in der CPU. Das erhöht deren Leistungsaufnahme - senkt aber gleichzeitig die des Chipsets. Zur Paralellisierung: Es gibt eben Dinge, die lassen sich schwer paralellisieren, abgesehen davon gibt es definitiv ein Grenze bei der Anzahl der Rechneinheiten - die müssen nämlich verwaltet werden und irgendwann frisst man dabei den Schwanz von hinten auf.
 
Die Branch-Prediction (Sprung-Vorhersage) ist meines Erachtens nach einer der bedeutensten Aspekte in naher Zukunft für die Erweiterung der CPU Microcodes. Das hat auch schon der Core (2) Duo bewiesen, denn hier kam diese Technik ebenfalls schon zum Einsatz und wird sicher noch spürbar zu verbessern sein. Was mir persönlich dabei immer noch etwas auf der Strecke bleibt, ist die Berücksichtigung des Stromverbrauchs, auch unter heutigen Aspekten und unter Verwendung von nahezu einer Milliarden Transistoren ist es möglich, einen Prozessor noch immer deutlich stromsparender zu gestalten, als dies aktuell der Fall im Desktopsegment ist. Da bin ich wirklich voll und ganz für Green-IT und spare gerne 5% Performance für 10% weniger Stromverbrauch ein. Ein ausgeklügelteres System zur Absenkung der Spannung unter Halblast/Idle-Betrieb, sowie die Teilweise-Abschaltung einiger Prozessor/Kernbereiche je nach auszuführender Aufgabe etc... Uns wird noch vieles in den nächsten Jahren erwarten und ich selbst habe noch vor einigen Jahren nicht geglaubt, dass das Ende der "18-monatigen Mhz-Verdopplung" so schnell erreicht ist. Warten wir also ab, welche Meilensteine die nahe, sowie ferne Zukunft bringt. Übrigens würde ich mir persönlich keine Gedanken darum machen, dass zu viele Cores noch nicht geeignet sind für aktuell verfügbare Software. Aktuell in der Entwicklung befindliche Software wird ja nicht schlichtweg auf "zwei" Cores zurechtgestrikt, sondern nach obenhin schlichtweg offen für Multicore-Betrieb optimiert, womit eine gewisse Performancebegrenzung aufgrund fehlender CPU-Unterstützung erst einmal hinlänglich wird.

Cya, Mäxl
 
Zuletzt bearbeitet:
Es gab Jahrzehnte lang nur 1 Kern, klar, dass die Programmierer nun Zeit brauchen um sich umzustellen.
Das nächste Problem ist, dass Software selten komplett neu geschrieben wird, meistens setzt man auf Vorgängerversionen auf die wiederum ursprünglich singlethreaded designt wurden.

Aber ich denke die Softwareindustrie hat die Zeichen der Zeit erkannt und die Multicore-Unterstützung wird sich deutlich verbessern.
 
Zur Multicore geeigneten Software passt diese News ganz gut http://www.winfuture.de/news,38151.html

@Topic
Der Nehalem wird vermutlich etwas schneller sein als der Sprung vom Netburst zum Penryn.

@Lar337
Das war doch beim Pentium schon so , Software die 8 Kerne nutzen kann läuft mit eingeschaltetem HT schneller.
 
Zuletzt bearbeitet:
Daniel0711 schrieb:
Ich hoffe mal das "geprahle" bewahrheitet sich. Dann waren die Worte von Paul Otellini doch richtig, dass der Sprung auf den Nehalem vergleichbar mit dem vom Pentium3 auf den Pentium4 ist.

MfG

Dann hätte Intel aber ein großes Problem. Der P4 war zu Anfangszeiten tw. langsamer als der P3...

Voyager10 schrieb:
Zur Multicore geeigneten Software passt diese News ganz gut http://www.winfuture.de/news,38151.html

@Topic
Der Nehalem wird vermutlich etwas schneller sein als der Sprung vom Netburst zum Penryn.

@Lar337
Das war doch beim Pentium schon so , Software die 8 Kerne nutzen kann läuft mit eingeschaltetem HT schneller.


Niemals so einen großen Sprung werden wir nicht erleben.
 
Weiß jemand, wie hoch der "Referenztakt" bei den Nehalems sein wird?
 
Ja, das mit dem Strom sparen ist natürlich interessant. Nur ärgert es mich seit langem, das AMD und Intel auf den Trichter gekommen sind, das zu verbessern aber Nvidia und ehemals Ati hauen Grakas auf dem Markt, die das alles wieder zunichte machen. Da muss endlich das selbe Umdenken stattfinden.
 
Damit hört dann auch bei intel das: "wir erhöhen den L2 catch weil der FSB limitiert" auf ist ja bei den aktuellen fast verschwendung was da catch droben ist... (nicht dass es im moment nicht funktionieren würde aber irgendwo ist halt schluss...)
 
Tja an multicore geht nix vorbei, die Intel cpus kann man super uebertakten aber auch da wird im normalen gebrauch 4 ghz teilweise schon kritisch. und nur durch verkleinerung der architektur sind 5Ghz-standarttakt-cpus nicht in aussicht...

deshalb muessen die softwareentwickler auf multicore setzen andernfalls wird "Crysis 2" (jetzt mal ein total fiktives beispiel aber ich glaube die meisten wissen worauf ich hinaus will) auf KEINEM rechner gut laufen...

Die rechenleistungssteigerung liegt in der vermehrung der kerne ... sieht man doch auch an supercomputern die haben doch auch "recht viele" kerne / prozessoren.
ausserdem hatte ich auch immer wenn ic hetwas ueber den Nehalem gelesen hab den eindrueck das Intel mit der Architektur ein stueck weit auf die softwareentwickler zugeht. WAs dieses Multicore-problem angeht.
 
Zuletzt bearbeitet:
Zurück
Oben