News Chipfertigung: Intel startet 7 nm mit GPU statt CPU im Jahr 2021

smalM schrieb:
L3 wird auf dem CPU-Die sein, was anderes ist wegen der Zugriffszeiten eher ausgeschlossen.
[...]da halte ich Deine Lösung für nicht realisierbar, da zu teuer, auch wenn ich's rein aus Neugierde gerne realisiert sähe – Nerd-Wunsch halt :D

Das war auch einfach aus dem Bauch heraus die Überlegung, was man wie auslagern könnte.

Das der L3 Cache im CPU-Die bleibt, ist auch mMn (vorerst) naheliegend, andererseits hab ich auch noch nirgends Zahlen bezüglich der Latenzen gesehen.

Ist ja nicht ausgeschlossen, dass man die Cache Struktur großflächiger umbaut.
Es ist schließlich nicht in Stein gemeißelt, dass L1, L2 L3 und gegebenenfalls L4 so wie bisher und nicht anders im Die integriert sind. Vlt. ermöglicht man ja genau dort mit Foveros und EMIB völlig neue Designs.

Macht man z.B. Level 1 und 2 (im vegleich zur aktuellen Architektur) absurd groß, kann man Level 3 evtl. aus dem eigentlichen Die in eine andere Foveros Ebene auslagern und gewinnt in Gänze trotzdem an Leistung.

Vlt. muss man einfach anfangen das CPU Design radikaler umzudenken, statt immer nur iterative Mini-Verbesserungen zu erarbeiten.

AMD hat da ja gut vorgelegt mit der Auslagerung der I/O in einen separaten Die.
 
@xexex

Aber halt nur die kleinste Maske in einer Ausführung in der Energiesparen mehr zählt als Takt. Das ist weit weg von einem Desktop Produkt. Aber warten wirs ab. Vieleicht gibts ja Überraschungen.
 
Ned Flanders schrieb:
Aber warten wirs ab. Vieleicht gibts ja Überraschungen.

Ich gehe da von keinen "Überraschungen" aus, wie du schon sagst wird man zuerst im kleinen Rahmen den Notebookmarkt bedienen. 14nm+++ bleibt uns noch im Desktopsegment bis 2021 erhalten.
780272
 
  • Gefällt mir
Reaktionen: Iceberg87
Bin wirklich gespannt, wie sich die ganze Geschichte bei Intel weiterentwickelt. Und vor allem wie schnell Intel schlußendlich auf 7nm wechseln wird.

Im Notebooksektor werden wir ja recht bald sehen was Ice Lake zu leisten vermag 😉. Sollte ersteinmal als Einschätzung für den 10nm Prozess reichen.

Was den zu erwartenden recht späten Wechsel weg vom 14nm-Prozess im Desktopbereich betrifft sehe ich es so wie @RYZEN. 14nm (+++) sind halt einfach schon verdammt gut durchoptimiert 😉. Mal schaun ob Comet Lake da nochmal ne Schippe nachlegen wird. Vielleicht gibts deshalb auch einen neuen Sockel. Wird m. M. n. Schon einwenig mehr Strom ziehen als der 9900k.

BTW: Die Aktionäre waren offenbar nicht so überzeugt von der Vorstellung gestern:

http://www.deraktionaer.de/aktie/intel-aktie-analystenkonferenz-477930.htm

Lg,

Ice
 
Iceberg87 schrieb:
14nm (+++) sind halt einfach schon verdammt gut durchoptimiert 😉

das durchoptimiert bezieht sich beim 9900K lediglich auf den Etikettenschwindel , die 95 Watt TDP werden bei 3,6 GHz erreicht .
Bevor jetzt wieder diejenigen die mit massiven Undervolting und selektierten Chips aus der Versenkung springen , per Default ist der 9900K unter Vollast nicht in der Lage seine TDP zu halten , erst recht nicht auf 4,7 GHz all core Boost .
Beim 10 Kerner düfte da 3,3 oder 3,4 stehen , aber vermutlich setzten sie die Sockel TDP hoch auf 140 Watt ? , dann sieht das ganze nicht mehr ganz so lächerlich aus und sie haben beim Basistakt wenigstens ne 4 vor dem Komma beim Basistakt .
Nur wer sich tiefer mit der Thematik beschäftigt wird dann erkennen das AMD 8 Kerner mit 65 Watt TDP anbietet und 12 Kerner mit 105 Watt , während Intel dann 10 Kerne mit 140 Watt TDP hat .
 
v_ossi schrieb:
Macht man z.B. Level 1 und 2 (im vegleich zur aktuellen Architektur) absurd groß
Das geht nur bei einem relativ niedrigen Takt, wie bspw. in Apples SoCs (2,5GHz max. Takt, je 128 KB L1, 8MB L2); das ist sehr schnell, kostet aber einen Haufen Die-Fläche.

v_ossi schrieb:
Vlt. muss man einfach anfangen das CPU Design radikaler umzudenken, statt immer nur iterative Mini-Verbesserungen zu erarbeiten.
AMD hat da ja gut vorgelegt mit der Auslagerung der I/O in einen separaten Die.
Nur daß AMD aus gutem Grund L1, L2 und L3 auf dem CPU-Die untergebracht hat und auf dem I/O-Die nur System-Cache ist. Aus Sicht eines Cores ist schon der L3 lahm (Zen: 40 Takte Latenz). Alles danach ist schon fast eine kleine Katastrophe. Die Trennlinie zwischen I/O- und Core-Bereich bildet wie bisher die Anbindung per Infinity-Fabric, nur daß es nun eine diskrete Trennung gibt.
 
kisser schrieb:
Das ist natürlich wieder völliger Unsinn. Der Takt kann dabei genausogut der Allcore-Turbo sein.
Verstehst du das folgende Diagramm?

https://www.computerbase.de/2019-05/xmg-ultra-17-e19-test/2/#diagramm-leistungsrating-anwendungen


/edit: Bei 95W Limit TDP ist man schneller als ein 2700x, der dabei rund 130 W verbrät.
aha , dann bezieht sich Intel spezielle Arbeitslast nicht auf den Base Takt ? , wie legt denn Intel sonst den Base Takt fest ?
Wieso muß man überhaupt den 9900K manuell limitieren auf 95W TDP ?
Was du betreibst ist Augenwischerei , eines von Intels Spezial Gebieten übrigens ....
Was da ein 2700x verbraucht ist uninteressant , auch dieser taktet runter bei permanenter Dauerlast
Demnächst erübrigt sich sowieso jede Disskussion , da ist der 9900K so weit hinten in Bezug auf Effizienz das man schon komplett Blind sein muß oder Intel Fan Boy um das nicht zu erkennen , der 9900K wurde von einem Ryzen 3xxx ES geschlagen beim CB15 , der ES verbrauchte 133 Watt ( System ergo ca 90-95 Watt CPU , der 9900K jedoch 179 Watt = ca 140 Watt CPU
Hol schon mal dein Taschentuch raus Kisser ...
 
  • Gefällt mir
Reaktionen: DonL_
@smalM Die Zusammenhänge zwischen Die-Fläche und Takt für den Cache sind mir durchaus bewusst, aber es ist mMn durchaus im Bereich des Möglichen, dass sich "zeitnah" Änderungen ergeben. Verbesserungen.

Man hat ja auch jahrelang einen Kern in immer höhere Taktbereiche geprügelt und darin die Spitze der CPU Entwicklung gesehen. Und dann ist man doch in die Breite gegangen, weil sich 10GHz eben nicht erzielen ließen.

Warum soll es da ausgeschlossen sein, dass langsamer, ausgelagerter, dafür aber größerer L3 Cache nicht auch Vorteile hat mit sich bringt?
 
  • Gefällt mir
Reaktionen: [wege]mini
Iceberg87 schrieb:
Überhaupt etwas merkwürdig, daß die neuen Server-CPUs vor den Desktops rauskommen werden. Früher führte Intel eine feinere Fertigungstechnik zunächst im Desktop ein und dann erst bei den Servern

Nein gar nicht.
„Früher“ hatte intel keine Konkurrenz und konnte auf dem Desktop experimentieren und feinschliff betreiben für das weitaus wichtigere Server Segment.

„Heute“ wurden sie durch den 10nm fail und Ryzen überaus unsanft aus ihrem Loorberschlummer gerissen und müssen jetzt alles daransetzen im nach wie vor wichtigsten Segment nicht allzuviele Anteile zu verlieren.
Da müssen sie Risiken eingehen.
Ergibt alles Sinn.
 
  • Gefällt mir
Reaktionen: Iceberg87
Quelle Golem:
So weist 14++ anders als 14 und 14+ einen Transistor Gate Pitch von 84 nm statt 70 nm auf, um höhere Taktraten von bis zu 5 GHz erzielen zu können
 
v_ossi schrieb:
@smalM Die Zusammenhänge zwischen Die-Fläche und Takt für den Cache sind mir durchaus bewusst
Es ist nicht so die Die-Fläche, es ist die Cacheverwaltung, die bei einem großen Cache bei hohem Takt nicht mitspielt. Was Du wahrscheinlich im Sinn hast ist, daß die benötigte Die-Fläche mit der gewünschten Geschwindigkeit ordentlich zulegt.
 
v_ossi schrieb:
dafür aber größerer L3 Cache nicht auch Vorteile hat mit sich bringt?

der cache ist sowieso nur ein überbleibsel von unsäglich langsamen rechenwerken. lieber eine berechnung zwischenspeichern und das ergebnis aus dem cache holen, als noch einmal zu berechnen.

wenn man mal ein wenig weiter denkt, könnte man mit effizienteren rechenwerken an der sprungvorhersage und dem cache viel fläche einsparen ;D

hier ist noch seeehr vieles denkbar. und sehr viel wird davon mMn in den nächsten jahren auch gebaut.

mfg
 
Iceberg87 schrieb:
BTW: Die Aktionäre waren offenbar nicht so überzeugt von der Vorstellung gestern:
Was hätte sie auch Positiv stimmen sollen?
Nix als Marketing Blablablubb und Euphemismus. Dazu weiter eingetrübte Aussichten.
Das werden ein paar harte Jahre für Intel und deren Aktionäre.
AMD executes. Intel presents Marketing.
 
Unnu schrieb:
Das werden ein paar harte Jahre für Intel und deren Aktionäre.


ich würde mir mein mitleid sparen.

die letzten jahre waren einfach zu gut und von einer verlust prognose habe ich noch nichts gehört.

die dividende wird weniger ausfallen und der virtulle gewinn durch den anstieg des (aktien) wertes meines papiers wird kleiner. die aktie wird mMn aber in den nächsten 2 jahren absolut aber eher nicht fallen.

die gewinne werden kleiner, da bin ich bei dir :D

mfg
 
Mit was für Bandagen hier wieder geboxt wird:
"Mein zukünftiger Prozessor (dessen Spezifikationen nicht bekannt sind) wird besser als Deiner"
"Die Aktionäre werden in Zukunft (die man nicht vorhersehen kann) ein par harte Jahre haben"

Naja- Wenn man meint, dass solche Aussagen irgendeine Bedeutung oder Relevanz haben und der Menschheit dringend mitgeteilt werden müssen...
 
  • Gefällt mir
Reaktionen: kisser
MK one schrieb:
aha , dann bezieht sich Intel spezielle Arbeitslast nicht auf den Base Takt ? , wie legt denn Intel sonst den Base Takt fest ?

Die TDP bezieht sich nicht direkt auf den Basetakt, sondern auf eine Teillast um dessen Einhaltung sich eigentlich das Bios/EFI kümmern kann. Abgesehen von einigen OEM PCs und Notebooks, halten sich die Hersteller aber meist nicht an diese "Vorgaben", was manchmal zu Auswüchsen wie bei der Skylake-X Vorstellung führt.
Intel definiert die TDP aktuell als „die durchschnittliche Leistungsaufnahme (in Watt), die der Prozessor beim Betrieb auf Basisfrequenz ableitet, wenn alle Kerne bei einer von Intel definierten, hochkomplexen Arbeitslast aktiv sind“.
Mit dem Verbrauch bei Turbo-Taktraten und in anderen Anwendungen hat die Definition damit absolut nichts zu tun. Wie viel Strom ein Prozessor im Alltag aufnimmt, lässt sich über die TDP also überhaupt nicht ableiten und dass CPUs im Turbo das Doppelte verbrauchen steht nicht im Widerspruch zur Definition.
https://www.computerbase.de/2018-08/cpu-tdp-verbrauch-amd-intel/

MK one schrieb:
Wieso muß man überhaupt den 9900K manuell limitieren auf 95W TDP ?

Weil die CPU selbst eine viel höhere TDP erlaubt. Ein Powertarget oder eine feste Grenze, wie man sie von den Grafikkarten kennt, gibt es hier nicht. Den OEMs steht es frei auch ein stärkeres Kühlsystem einzusetzen und längere Boostzeiten zu erlauben.
 
  • Gefällt mir
Reaktionen: kisser und .Sentinel.
xexex schrieb:
Die TDP bezieht sich nicht direkt auf den Basetakt

Intel definiert die TDP aktuell als „die durchschnittliche Leistungsaufnahme (in Watt), die der Prozessor beim Betrieb auf Basisfrequenz ableitet

Und die hochkomplexe Arbeitslast dürfte keine Teillast sein, sondern eine volle Auslastung aller Kerne, andernfalls wären die 95W viel zu hoch gegriffen.
 
@Taxxor
Verkürze bitte nicht das Zitat um den relevanten Teil!
Intel definiert die TDP aktuell als „die durchschnittliche Leistungsaufnahme (in Watt), die der Prozessor beim Betrieb auf Basisfrequenz ableitet, wenn alle Kerne bei einer von Intel definierten, hochkomplexen Arbeitslast aktiv sind“.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@xexex trotzdem bezieht sie sich auf den Basistakt.

Und der Zusatz mit der hochkomplexen Arbeitslast sagt nicht "Teillast". Warum sollte die CPU bei hochkomplexen Aufgaben nur unter Teillast arbeiten? Dann liefe irgendwas falsch.

Ein Cinebench Run ist auch eine hochkomplexe Arbeitslast für die CPU.
 
Zurück
Oben