News Intel: „Haswell“-Produktion läuft an, 14 nm ab Ende 2013

digitalangel18 schrieb:
In vielen Industriezweigen werden unglaubliche Summen für Forschung ausgegeben - die "wirklich wichtigen" Bereiche, wie zum Beispiel die Forschung an Kernfusion (eine Technologie die auf einen Schlag die Energieprobleme der Menscheit lösen, und damit auch weitreichende Umweltverschmutzung/zerstörung beenden könnte) ...

Bei einem Fusionsreaktor fällt auch verdammt viel radioaktiver Abfall an. -> Stichwort: Neutronenaktivierung
Desweiterung wird das benötigte Tritium in Kernreaktoren produziert. Und hier liegt auch eines der Hauptprobleme, es steht nicht fest ob man überhaupt das benötigte Tritium mit ausreichender Effizienz erbrüten kann.

Und zu den "Energieproblem" -> Sonne -> Solarthermie. Die größten Umweltverschmutzer wie China und die USA könnten problemlos Tag und Nacht Strom aus Sonnenenergie produzieren. Europa bräuchte dazu Nordafrika. Aber hey, wenn man Schlafmohnfelder am Hindukusch verteidigen kann, dann wird man auch Solarthermieanlagen in Nordafrika verteidigen können. Und Strom aus Nordafrika würde laut dem DLR in der Produktion 0,04 €/kWh kosten, der Transport zu uns würde noch mal 0,01 €/kWh kosten. Da kann der Stromproduzent noch 100% draufschlagen, der deutsche Staat noch mal 100% Steuern draufschlagen und wir hätten als Endkunde Ökostrom aus Afrika für 0,20 €/kWh.


Forschungsgelder in der Halbleiterindustrie sind immer gut angelegt und haben einen weitreichenden Nutzen -> mehr Rechenleistung bei weniger Verbrauch ist immer gut für Simulationen (Physik, Chemie, Medizin,....).


BTT.

Bin gespannt was die 14nm CPUs kosten werden und ob man den optimistischen Zeitplan für 10nm wirklich einhalten kann (nicht aus technischer sondern aus wirtschaftlicher Sicht). Ich bezweifle es. Spannend wird auch ob für 10nm endlich mal EUV zum Einsatz kommt oder man sich weiter hin mit ArF-Immersionslithografie rumschlagen muss (bei 10nm wären es 5 Masken und 5 Belichtungen pro Layer -> teuer).
 
Krautmaster schrieb:
Die ES laufen gut ;)

Aktuell im B0 Stepping. Recht kleines Stepping für Intel ES.
Du darfst mir ruhig ein Engineering Sample abgeben, wenn du mir sagst, wie ich es zum Laufen bringe ;)

Wie kommt man da eigentlich ran? Beziehungen, Arbeit, eBay?
 
naja teils teils, bei ES die auf gängigen MBs laufen da selber Sockel ist es einfacher, da braucht man meist nur ein alpha Bios und den ES selbst den man meist einfacher bekommt wie das Bios ^^
Haswell mit LGA1150 is da etwas schwerer. Imho braucht man noch ein Mainboard. Da kommste eig nur über Arbeit ran... und das bin in diesem Fall nicht ich sondern ein mittlerweile ganz guter Bekannter.
(ausnahmsweise jemand deutsches xD - meist nicht der Fall - mein aktueller ES der im PC werkelt kam aus den Staaten)

ES an sich gibts bei Intel recht viele die meist unter der Ladentheke aus Asien oder US/Canada kommen.
 
bei Haswell sind ja auch Dinge wie "Connected Standby" und tiefe Schlafmodi als auch die GPU viel interessanter als die eigentliche Leistung die eh +- gleich bleiben wird (auf CPU Seite).

Leider lässt sich kaum ein GT3 testen da die ja Mobil vorenthalten sind, weitestgehend. Das ES Modell in B0 is ein i7 4770T so wies aussieht.

Der Xserver bei Ubuntu 12.10 spuckt übrigens folgendes aus:

8.898] ABI class: X.Org Video Driver, version 13.0
[ 8.898] (II) intel: Driver for Intel Integrated Graphics Chipsets: i810,
i810-dc100, i810e, i815, i830M, 845G, 854, 852GM/855GM, 865G, 915G,
E7221 (i915), 915GM, 945G, 945GM, 945GME, Pineview GM, Pineview G,
965G, G35, 965Q, 946GZ, 965GM, 965GME/GLE, G33, Q35, Q33, GM45,
4 Series, G45/G43, Q45/Q43, G41, B43, B43, Clarkdale, Arrandale,
Sandybridge Desktop (GT1), Sandybridge Desktop (GT2),
Sandybridge Desktop (GT2+), Sandybridge Mobile (GT1),
Sandybridge Mobile (GT2), Sandybridge Mobile (GT2+),
Sandybridge Server, Ivybridge Mobile (GT1), Ivybridge Mobile (GT2),
Ivybridge Desktop (GT1), Ivybridge Desktop (GT2), Ivybridge Server,
Ivybridge Server (GT2), Haswell Desktop (GT1), Haswell Desktop (GT2),
Haswell Desktop (GT2+), Haswell Mobile (GT1), Haswell Mobile (GT2),
Haswell Mobile (GT2+), Haswell Server (GT1), Haswell Server (GT2),
Haswell Server (GT2+), Haswell SDV Desktop (GT1),
Haswell SDV Desktop (GT2), Haswell SDV Desktop (GT2+),
Haswell SDV Mobile (GT1), Haswell SDV Mobile (GT2),
Haswell SDV Mobile (GT2+), Haswell SDV Server (GT1),
Haswell SDV Server (GT2), Haswell SDV Server (GT2+),
Haswell ULT Desktop (GT1), Haswell ULT Desktop (GT2),
Haswell ULT Desktop (GT2+), Haswell ULT Mobile (GT1),
Haswell ULT Mobile (GT2), Haswell ULT Mobile (GT2+),
Haswell ULT Server (GT1), Haswell ULT Server (GT2),
Haswell ULT Server (GT2+), Haswell CRW Desktop (GT1),
Haswell CRW Desktop (GT2), Haswell CRW Desktop (GT2+),
Haswell CRW Mobile (GT1), Haswell CRW Mobile (GT2),
Haswell CRW Mobile (GT2+), Haswell CRW Server (GT1),
Haswell CRW Server (GT2), Haswell CRW Server (GT2+),
ValleyView PO board
[ 8.899] (II) VESA: driver for VESA chipsets: vesa
[ 8.899] (II) modesetting: Driver for Modesetting Kernel Drivers: kms
[ 8.899] (II) FBDEV: driver for framebuffer: fbdev
[ 8.900] (--) using VT number 8

vllt steht ja GT2+ für GT3?
 
Zuletzt bearbeitet:
Quantencomputer werden auf jedenfall die Gaming Rechner schlechthin: Man kann alle Spiele gleichzeitig spielen, sogar die, welche es noch garnicht gibt. Allerdings gibt es nur einen Schwierigkeitsgrad: Unschaffbar, da nichtmal der Computer weiss, was als Nächstes passiert.
 
digitalangel18 schrieb:
Kein wunder das "klein-AMD" da nichts mehr entgegen zu setzen hat....
AMD hat einen anderen Ansatz verfolgt und der sieht eben vor, dass massiv parallel auf dem GPU Teil der APUs gerechnet werden kann, was bei entsprechend parallelisierbaren Aufgaben auch viel schneller als auf CPU Kernen geht. Da man dazu die Daten nicht erst auf eine extra Karte schaufeln muss, lohnt es sich auf für kleinere Aufgaben viel schneller als jetzt, wo der Vorteil bei kurzen Berechnungen von der Zeit für den Datentransfer schnell aufgebraucht wird. Nur die SW unterstützt das bisher kaum. Man muss ja schon froh sein, wenn ein Programm mal wirklich alle Kerne belegt und nicht maximal 4.

Wären nicht die meisten Windows Benchmarks mit Intel Compilern erstellt oder würden auf die sehr gut (auf Intel CPUs) optimierten Intel Bibliotheken zurückgreifen, sähen die Ergebnisse nämlich oft anders aus. Wenn die SW Unterstützung aber noch lange auf sich warten lässt, dann wird Intel AMD auch in dem Bereich überholen, denn die Entwicklung der letzten Generationen lang ja vor allem im Bereich der integrierten GPU.

Xedos99 schrieb:
Allerdings scheint es so, das Intel sich vom klassischen oc. wieder verabschiedet. CPU -interne Spannungsstabilisierung setzt da wohl zukünftig Grenzen...:skull_alt: zu fragil sind die Strukturen des Kerns -scheint es,als das man noch äußere Eingiffe dulden könnte.
OC wird es immer weniger geben, alleine schon weil die Wärme bei den kleinen Strukturen auf einer immer geringeren Fläche anfällt und damit immer schwerer abzuleiten ist. Je kleiner die Strukturen werden, umso geringer wird deshalb auch die Leistungsaufnahme pro Kern sein müssen.

Matzegr schrieb:
China und die USA könnten problemlos Tag und Nacht Strom aus Sonnenenergie produzieren.
Wie sie Nachts auch noch Strom aus Sonnenenergie produzieren sollen, musst Du uns mal verraten :evillol:
 
In diesem Artikel schreibt ihr ASML plant 450-mm Wafer für 2016. In dem ASML Artiekl von gestern steht 2018. Welches stimmt nun? Andere Meldungen schreiben auch 2018 aber so ein Tippfehler verbreitet sich ja auch schnell
Bei 2018 wäre Intel mit 2015 aber sehr optimistisch. Sie sind ja schließlich auf ASML angewiesen und können nicht einfach 3 Jahre früher 450mm Wafer liefern

Wie sie Nachts auch noch Strom aus Sonnenenergie produzieren sollen, musst Du uns mal verraten

Wenn im Osten Chinas die Sonne untergeht scheint sie noch im Westen des Landes 2 Stunden oder so ;)
 
Wer sich über das zu kleine Forschungsbudget Deutschlands aufregt, sollte mal nach dem deutschen Anteil am Cern und dem neuen 40m Spielgelteleskop E-ELT der ESO googeln.
 
Wenn da schon soviel Haswell ES im Raum rumschwirren warum gibts dann keine User Tests !?
 
Holt schrieb:
Wie sie Nachts auch noch Strom aus Sonnenenergie produzieren sollen, musst Du uns mal verraten :evillol:

Im Gegensatz zu elektrischer Energie (z.B. aus Photovoltaik) kann man thermische Energie (aus Solarthermie) wunderbar in Wärmespeicher speichern und in der Nacht zur Energieproduktion nutzen. Somit kann man problemlos noch 17h nach dem letzten Sonnenstrahl immer noch Strom produzieren.


BTT.

Den in den letzten Monaten viel spekulierten Plänen, Intel könne größer in das Geschäft als Auftragsfertiger einsteigen, erteilte man im Rahmen der Konferenz eine Abfuhr. Man werde wie bisher auch einigen Partner entsprechende Möglichkeiten bieten, großflächig als Foundry jedoch nicht in Erscheinung treten.

Gib es ne Liste mit den einigen Partnern, die bei Intel fertigen lassen?
 
Xedos99 schrieb:
Allerdings scheint es so, das Intel sich vom klassischen oc. wieder verabschiedet. CPU -interne Spannungsstabilisierung setzt da wohl zukünftig Grenzen...:skull_alt: zu fragil sind die Strukturen des Kerns -scheint es,als das man noch äußere Eingiffe dulden könnte.

Wieso sollte es dann überhaupt noch K Modelle geben?
 
Mist, zum Thema:
Intel: „Haswell“-Produktion läuft an, 14 nm ab Ende 2013
steht ja gar nix im Text, außer ein Einzeiler zum 1.Quartal u. Vorstellung, vor dem Erscheinen dann im 2.!

Ich finde, der Inhalt hat das Thema nicht getroffen?
 
Wann ist denn (nach Intels Zeitplan) nun wirklich mit dem Kauf von den Haswell-CPUs zu rechnen? Vorstellung im 2. Quartal heißt ja nicht unbedingt, dass die da schon verkauft werden, oder? :/

Bin echt gespannt, was sie bezüglich des Grafikchips hinkriegen. Immerhin ist da noch viel Potenzial (gewesen) und generell: Kein Office-PC braucht mehr, wenn jetzt noch die Low-Range bis Mid-Range Spiele ernsthaft eingeschlossen werden, wäre es echt toll (nicht nur für Notebooks, auch für Desktop-PCs, weil sich dann ein kleinerer Formfaktor wieder lohnt, da man die GraKa (+ das Geld dafür) sparen kann..
 
Matzegr schrieb:
Somit kann man problemlos noch 17h nach dem letzten Sonnenstrahl immer noch Strom produzieren.

Kann ja, problemlos nein.
Aber es ist wenigstens im Gegensatz zu dem Photovoltaik-Unsinn, den wir uns hier leisten, zukunftsträchtig.

Haswell, mein Nehalem möchte in den Ruhestand, los beeile Dich!
 
alex_bo schrieb:
Quantencomputer werden auf jedenfall die Gaming Rechner schlechthin: Man kann alle Spiele gleichzeitig spielen, sogar die, welche es noch garnicht gibt. Allerdings gibt es nur einen Schwierigkeitsgrad: Unschaffbar, da nichtmal der Computer weiss, was als Nächstes passiert.

"Unschaffbar" ist egal, weil man dank Schrödinger sowieso immer gleichzeitig gewinnt und verliert. Toll werden die Quanten-GPUs, statt primitivem 3D kann man dann Superstring-10D genießen. Aber hoffentlich kriegen sie das Bild scharf, Heisenberg lässt Schlimmes befürchten...
 
Fishlike schrieb:
...

Wenn im Osten Chinas die Sonne untergeht scheint sie noch im Westen des Landes 2 Stunden oder so ;)
Im Osten geht die Sonne auf, im Süden steht sie am höchsten und im Westen geht sie unter. Im Norden scheint sie nie

Die Ost-West Ausdehnung von China ist so gewaltig, dass das Land fast 24St am Tag Sonnenstunden hat.
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
Dieser Punkt fällt mir auch immer wieder auf. In vielen Industriezweigen werden unglaubliche Summen für Forschung ausgegeben - die "wirklich wichtigen" Bereiche, wie zum Beispiel die Forschung an Kernfusion (eine Technologie die auf einen Schlag die Energieprobleme der Menscheit lösen, und damit auch weitreichende Umweltverschmutzung/zerstörung beenden könnte) wird extrem vernachlässigt und bekommt im Vergleich nur Krümelbudgets. Aber das ist ja ein anderes Thema und hat hier eigentlich gar nichts zu suchen :D

Erstaunlich wie Intel seit dem Core2 immer wieder vorlegt und die eigenen, extrem straffen Ziele meist erfüllen kann. Kein wunder das "klein-AMD" da nichts mehr entgegen zu setzen hat....

und wieso ist das so? Weil wenn eine Firma es dann zum laufen bringt heißt es gleich wieder damit dürfen die kein Geld verdienen, Kernfusion gehört der Menschheit.. blablabla
kein Wunder das keine Firma hunderte Milliarden da reinstecken will, wenn man dann am Ende kein Geld damit verdienen darf

tolle alles inklusive Gesellschaft :p
 
...für Ende 2015 steht dann bereits der beginnende Umstieg auf die 10-nm-Technik auf dem Programm, wofür die Fabriken entsprechend umgebaut und ausgerüstet werden sollen.

Das hört sich an, als sei es das Selbstverständlichste überhaupt.
Aber stopp mal... was treiben die denn da eigentlich? 10nm als kleinste Struktur auf 450mm großen Scheiben? Ich kann mir solche gegensätzlichen Dimensionen seit einigen Jahren nicht mehr vorstellen - und probiere einen Vergleich:

Drucker mit normaler Druckerqualität: 300 Dots pro inch
-> 1 inch = 25,4mm
-> 1 Dot (rechteckige) Druckerpixelgröße = 0,084667mm = 84667nm (D) = 7,1684x10^9nm² (F)

Gedanken-/Rechenexperiment:
Hypothetischer Drucker mit 1 Dot Druckerpixelgröße = 10nm (D) = 100nm² (F)
-> 7,1684x10^9nm² / 100nm² = 71,68x10^6
In Worten: Die "Dot"-Fläche eines 10nm-Druckers ist 71,68 Millionen mal kleiner als beim Normaldrucker.

Das Vergleichsobjekt: Brockhaus Enzyklopädie, 30 Bände mit 24 500 Seiten DIN A4
-> 71,68x10^6 / 24500 = 2926
(1 / (24500 / 71,68x10^6) = 2926)

-> Ein 10nm-Drucker könnte somit auf einer einzigen DIN A4 Seite den gesamten Brockhaus 2926 mal drucken.

DIN A4 Seite = 62370mm², 450mm Wafer = 159000mm²
-> Waferfläche / Seitenfläche = 2,55 -> 2,55 x 2926...

-> 7461 mal der (riesige) Brockhaus, ausgedruckt in 10nm Technik auf der Fläche einer Waferscheibe... (!)

PS: Einen Teil der künftigen Lithografie-Technik zur Realisierung der exorbitanten Präzision von 10nm Strukturen liefert Zeiss bereits jetzt in Form der Spiegeloptik an ASML: Spiegel mit einer Oberflächenungenauigkeit von 1,5mm bezogen auf eine Kreisfläche von 800 000km², entsprechend maximal 1,5 mm Höhe eines fiktiven höchsten Bergs auf der Fläche Mitteleuropas.

Das obige Gedankenexperiment mit gegenwärtigem 300mm Wafer in 32nm Technik:
-> 324 mal der Brockhaus, gedruckt in 32nm Technik auf der Fläche einer Waferscheibe.

Der enorme Unterschied zwischen 32nm und 10nm und dem größeren Wafer fällt direkt ins Auge, und hier liegt auch der Grund für die Annahme, dass sich die Investitionen rechnen werden.

Mir entzieht sich jedoch der "Wahnsinn Nanometerstrukturen" vorstellungsmäßig weiterhin, trotz (oder vielleicht gerade) nachvollziehbarer Rechenlogik. Was da bereits realisiert wird und was da vor allem noch kommen soll...


Natürlich lautet die profane Frage nur: "Wann ist mit dem Kauf von 10nm-CPUs zu rechnen?" :o
 
Zuletzt bearbeitet:
Was ich viel interessanter finden würde, ist, wann Intel damit rechnet die Investionen wieder rauszuhaben und was die entsprechenden CPUs kosten werden.
 
Zuletzt bearbeitet:
Zurück
Oben