News Intel Ice Lake: L1- und L2-Caches wachsen mit angepasster Assoziativität

Tzk schrieb:
Gibts eigentlich schon Infos inwiefern Intels Gen11 Grafik mit Intels dGPU verwandt ist? Also ob die neue Gen11 Grafik quasi ne Vorstufe der dGPU ist, oder ob da was komplett neues kommt?!
Keine , denn die Gen 11 ist quasi nur eine aufgebohrte Gen9 mit mehr Einheiten und HDR ? , jedenfalls keine neue Innovation , man ist in die Breite gegangen = es wurden mehr Transistoren verbaut
 
  • Gefällt mir
Reaktionen: Tzk
Daniel D. schrieb:
Sind bei den Prozessoren eigentlich schon die ganzen Fehler behoben? Spectre, Meltdown etc.? Bin da nicht ganz aktuell...
ach, meltdown und spectre sind ja schon sowas von 2017. man muss hip sein und mit der zeit gehen. aktuell wird spoiler ignoriert.
 
  • Gefällt mir
Reaktionen: Denniss und Smartcom5
dettweilertj schrieb:
Achso ist das, die knapp 100.000 Angestellten mehr als AMD, bezahlt man dann wovon?
Den Bau, Umbau, Ausrüstung für EUV in den Fabriken bezahlt man wovon?
Die ganzen Forschungseinrichtungen für eine neue Fertigung, die AMD ja schon seit Jahren nicht hat, bezahlt man wovon?
Das Risiko mit einer Fertigung auf die Schnauze zu fallen, deckt man mit welchen Mitteln ab, Intel kann die Preise von einem Reseller garnicht mitgehen, aber das wüsste man ja, wenn man nicht den total naiven AMD-Schwätzern hinterher reden würde!

Immer diese Unternehmensversteher ... diese Argumente aus Kundensicht anzuführen und schlussendlich auch noch (ob unterschwellig oder nicht) in die eigene Kaufentscheidung einfließen zu lassen, ist schlicht kompletter Schwachsinn. Wie ein Unternehmen seine laufenden Kosten deckt und wie es wirtschaftet, muss als Käufer niemanden interessieren. Rationalerweise würde man hier danach streben, das meiste aus dem eigenen Geld herauszuholen, ergo selbst effektiv zu wirtschaften. Und da liegt dein Vorredner durchaus richtig, Intels Prozessoren sind, vor allem im Consumer-Segment, im Vergleich zu AMDs Angeboten oft zu teuer.

Davon mal ganz abgesehen ist Fremdfertigung ein überaus durchschnittliches Phänomen in der heutigen Weltwirtschaft und funktioniert in vielen Bereichen auch sehr gut - oder beschwerst du dich auch beim Autokauf, dass viele Teile von den immergleichen Zulieferern stammen?
Intels Position als Selbstfertiger mag eine besondere sein, das heißt aber nicht, dass sie für den Kunden besonders vorteilhaft oder es sogar von sich aus wert wäre, zusätzliches Geld für die resultierenden Produkte auszugeben.

Im Übrigen: Du führst TSMCs vermeintliches Fertigungsmonopol (Samsung Semiconductor, ein Fertiger, in den auch zunehmend mehr investiert wird, lässt du bequemerweise - oder aus Unkenntnis? - unerwähnt) als Grund für "zu hohe Preise" im GPU-Bereich an, lässt Intels Preispolitik als Selbstfertiger aber trotzdem protestlos gelten -
das entbehrt nicht einer ziemlichen Ironie, warum spielt es für dich eine Rolle, aus welchen Fabriken überteuerte Produkte stammen? :D
 
  • Gefällt mir
Reaktionen: Transistor 22, Hayda Ministral, Axzy und 6 andere
Wie das völlig utopische "August 2019" in den Artikel kam, weiß wohl auch niemand, wenn es hinterher 2020 wird. Klingt wie eine Durchhalteparole: "Bitte nicht bei AMD kaufen, irgendwann sind wir auch mal so weit. Bis dahin versuchen wir die Salami-Taktik mit einer Reihe von Verschiebungen."
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Rockstar85, Smartcom5 und eine weitere Person
dettweilertj schrieb:
Achso ist das, die knapp 100.000 Angestellten mehr als AMD, bezahlt man dann wovon?
Den Bau, Umbau, Ausrüstung für EUV in den Fabriken bezahlt man wovon?
Die ganzen Forschungseinrichtungen für eine neue Fertigung, die AMD ja schon seit Jahren nicht hat, bezahlt man wovon?
Das Risiko mit einer Fertigung auf die Schnauze zu fallen, deckt man mit welchen Mitteln ab, Intel kann die Preise von einem Reseller garnicht mitgehen, aber das wüsste man ja, wenn man nicht den total naiven AMD-Schwätzern hinterher reden würde!

Vergleiche nicht einen billigen Chip-Reseller wie AMD, der magels Konkurrenz total an TSMC gebunden ist, mit einem Hersteller der selbst fertigt und die einzige Alternative im Deskop CPU und auch bald GPU Segment darstellt!
Stell dir mal vor, Intel zieht genauso den Schwanz wie AMD ein und kauft nur noch bei TSMC anstatt selbst zu fertigen, was denkst du hätte das für fatale Konsequenzen, für uns Konsumenten?

TSMC hat als Zulieferer ja schon ein Monopol für desktop GPUs, da AMD und Nvidia vollkommen abhängig sind und das spiegelt sich auch in den aktuellen Preisen wieder, oder denkst du die R7 ist nur wegen des Speichers so teuer.
GloFo wird vermutlich auf Jahre kein vernünftigen 7nm auf den Markt bringen und von EUV brauchen wir da nicht einmal reden, dafür müsste man ja erstmal genug verdienen um die Fabriken umzurüsten.
Warum soll mir Intel leid tun, die haben AMD so klein gehalten das sie sich die Fertigung selbst nicht mehr leisten konnten und die fabs verkaufen mussten.
 
  • Gefällt mir
Reaktionen: Smartbomb, SteeL1942, Denniss und 4 andere
Marcel55 schrieb:
Von Skylake lohnt sich wahrscheinlich nur wenn es auch mehr Kerne gibt, in Sachen IPC hat sich seit dem fast nichts getan und der Takt geht nur etwas höher.
ICL stand heute nur Mobile.
Also kriegst du als Kunde 14nm Cannon Lake, Sky Lake Refresh, V2
 
HaZweiOh schrieb:
Wie das völlig utopische "August 2019" in den Artikel kam, weiß wohl auch niemand, wenn es hinterher 2020 wird. Klingt wie eine Durchhalteparole: "Bitte nicht bei AMD kaufen, irgendwann sind wir auch mal so weit. Bis dahin versuchen wir die Salami-Taktik mit einer Reihe von Verschiebungen."
Die Salamitaktik hat schon mit Skylake (und dem Refresh vom Refresh vom Refresh) angefangen... :D Intel hat derzeit halt keine andere Wahl außer in 14nm++++(++++) den X-ten Refresh mit bissel mehr Takt und Kernen zu bringen.

Ich hoffe das AMD sie mit den RyZen 3000 (Zen2) in die Enge treibt und damit endlich mal wieder fette schwarze Zahlen schreibt. Intel hat sind lange genug ausgeruht und mit der von dir beschriebenen Salamitaktik den Endkunden für dumm verkauft. Seit Sandybridge ist ja am Markt durch fehlende Konkurrenz quasi nix passiert.
 
  • Gefällt mir
Reaktionen: Unnu
... zumindest den Desktop-Kunden. Im mobilen Bereich gab es durchaus Fortschritte, bis zu einem gewissen Takt sind die Core-Prozessoren schließlich durchaus sehr effizient und die Low- und Medium-Power-Varianten würde ich auch nach wie vor als sehr gute Prozessoren betrachten.

Das Problem ist einzig: In Segmenten, die höhere Leistung nachfragen, ist seit einiger Zeit wieder die Brechstange Takt das Mittel der Wahl - die aber ohne bessere Fertigung nur begrenzt angewandt werden kann, bevor die Nachteile überhandnehmen.
Gut, im Server- und HPC-Segment zählen nach wie vor auch große Kernzahlen, aber auch hier kann eine sich nicht ausreichend verbessernde Fertigung große Nachteile haben, immerhin werden die Dies auch immer größer und damit teurer.
 
  • Gefällt mir
Reaktionen: v_ossi
Das wird nicht reichen um die Sicherheit und Geschwindigkeit maßgeblich zu erhöhen.
Das Limit setzt zur Zeit das DRAM. Der Cache-Ansatz mit L1, L2 und L3-Cache ist gescheitert. Kaum Geschwindigkeitsvorteile und Sicherheitsprobleme machen dieses Design obsolete.
Eigentlich müßte das ganze DRAM in den L1-Cache kopiert werden. Dann braucht man auch keinen L2 und L3-Cache mehr. In diese Richtung gehen viele CPU-Neuentwicklungen. Das Grundproblem, langsamer DRAM-Speicher, wird nicht beseitigt.

Es muss ein ganz anderes CPU-Design her. Mal sehen was AMD in der Pipeline hat.
 
CPU-Bastler schrieb:
Der Cache-Ansatz mit L1, L2 und L3-Cache ist gescheitert. Kaum Geschwindigkeitsvorteile und ...
popcorn reinwerf

Ich lese gerade, dass auch im CB-Artikel verbreitet wird, dass höhere Cache-Assoziativität "auf Kosten der Geschwindigkeit" geht:
Eine hohe Assoziativität sorgt in der Regel dafür, dass der Cache besser ausgenutzt wird, was erstrebenswert ist. Allerdings geschieht dies auf Kosten der Geschwindigkeit, weshalb sie nicht beliebig gesteigert werden kann und wird

Das ist schlicht falsch, wie ich in #40 bereits dargelegt habe. Höhere Cache-Assoziativität hat (genau wie größere Caches) lediglich den Nachteil, den Hardwareaufwand zu erhöhen (lies: mehr Transistoren, mehr Chipfläche, mehr Stromverbrauch). Langsamer wird dabei nichts!

Jede zusätzliche Erhöhung der Cache-Assoziativität hat (genau wie zusätzliche Cache-Vergrößerung) einen sinkenden Grenznutzen. DAS ist der begrenzende Faktor bei der Konstruktion eines sinnvollen Design. Es geht in beiden Fällen um eine Abwägung, wie lange sich der Zusatzaufwand (in Form von mehr Hardware) lohnt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: peru3232 und Volker
mensch183 schrieb:
popcorn reinwerf

Ich lese gerade, dass auch im CB-Artikel verbreitet wird, dass höhere Cache-Assoziativität "auf Kosten der Geschwindigkeit" geht:


Das ist schlicht falsch, wie ich in #40 bereits dargelegt habe. Höhere Cache-Assoziativität hat (genau wie größere Caches) lediglich den Nachteil, den Hardwareaufwand zu erhöhen (lies: mehr Transistoren, mehr Chipfläche, mehr Stromverbrauch). Langsamer wird dabei nichts!

Jede zusätzliche Erhöhung der Cache-Assoziativität hat (genau wie zusätzliche Cache-Vergrößerung) einen sinkenden Grenznutzen. DAS ist der begrenzende Faktor bei der Konstruktion eines sinnvollen Design. Es geht in beiden Fällen um eine Abwägung, wie lange sich der Zusatzaufwand (in Form von mehr Hardware) lohnt.

Danke für dein Input. Also irgendwo wurde dann mal scheisse erzählt auf einem Event. Ich frag mal beim nächsten Workshop Intels Techniker nochmal genau was sie dazu sagen und wie die Auswirkungen sind. Die Textpassage habe ich derweil entschärft.
 
  • Gefällt mir
Reaktionen: .Sentinel., Kalsarikännit, Chillaholic und eine weitere Person
mensch183 schrieb:
popcorn reinwerf

Ich lese gerade, dass auch im CB-Artikel verbreitet wird, dass höhere Cache-Assoziativität "auf Kosten der Geschwindigkeit" geht:


Das ist schlicht falsch, wie ich in #40 bereits dargelegt habe. Höhere Cache-Assoziativität hat (genau wie größere Caches) lediglich den Nachteil, den Hardwareaufwand zu erhöhen (lies: mehr Transistoren, mehr Chipfläche, mehr Stromverbrauch). Langsamer wird dabei nichts!

Jede zusätzliche Erhöhung der Cache-Assoziativität hat (genau wie zusätzliche Cache-Vergrößerung) einen sinkenden Grenznutzen. DAS ist der begrenzende Faktor bei der Konstruktion eines sinnvollen Design. Es geht in beiden Fällen um eine Abwägung, wie lange sich der Zusatzaufwand (in Form von mehr Hardware) lohnt.

Genau das ist doch das Problem. Das Design wird immer Komplexer und damit Teurer. Die Sicherheit lassen wir mal außen vor.
Abhilfe: Schnellerer RAM. Das ist der Hebel um effektivere CPUs zu bekommen.
Grenzwertbetrachtung: Es gibt keine RAM mehr. Die SSD ist so schnell, das die CPU ohne wait states versorgt werden kann. Schneller kann es nicht mehr gehen. OK, ich hab die Transportzeit über das Kabel hier mal eben ganz weggelassen. Am Ende bekommen wird eine CPU mit Speicher in Kugelform, max. 1 m Durchmesser.
Wird die Entfernung zum Speicher größer nehmen die Latenzzeiten zu. Die CPU muss wait states einfügen.

Zum Glück sollen bald Quantencomputer verfügbar sein.

Danach helfen nur noch Positroniken a la NATHAN , wie in der einschlägigen Literatur beschrieben.
 
  • Gefällt mir
Reaktionen: LukS
Daniel D. schrieb:
Sind bei den Prozessoren eigentlich schon die ganzen Fehler behoben? Spectre, Meltdown etc.?
Ich vermute ja dass sich Ice Lake nicht nur wegen Intels Produktionsproblemen bei der 10nm Fertigung verschiebt sondern auch weil die Architektur aufgrund von den Sicherheitslücken (Spectre, Meltdown und Co.) nochmals überarbeitet wurde.

Beim Kauf einer CPU lautet das Motto Risiko, denn es ist eben unklar welche bislang unbekannte Sicherheitslücken in diesen stecken,
aber das gilt für CPUs von allen Herstellern.
Ergänzung ()

CPU-Bastler schrieb:
Mal sehen was AMD in der Pipeline hat.
AMD wird die Zen-Architektur sicherlich mindestens bis 2021 nutzen. Vorher wird da keine komplett neue Architektur kommen. Denkbar wäre höchstens eine neue Architektur für mobile Rechner – AMD fehlt eine aktuelle CPU für mobile Rechner mit 10 Watt TDP oder weniger in der Produktpalette, aber für Desktop-PC und Server wird AMD so schnell keine neue CPU-Architektur bringen.
 
Zuletzt bearbeitet:
AMD wird die Zen (2/3/4/5 ) Architektur wesentlich länger nutzen als 2021 , ermal kommt Zen 3 in 7nm+ 2020 noch auf Sockel AM4
Dann 2021 kommt Zen 4 ? in 5 nm mit PCIe 5.0 und DDR 5 , an den Kernen selbst wird sich kaum was ändern , mehr Cache , höhere FPU Leistung , AVX 512 . das wird kommen ..
und dann wird man vermutlich stapeln , zumindest im Notebookbereich mit relativ wenig Takt
der 1 ste Layer I/O die , der zweite Layer der Speicher und der dritte Layer die CPU
 
MK one schrieb:
AMD wird die Zen (2/3/4/5 ) Architektur wesentlich länger nutzen als 2021...
Deshalb habe ich ja auch "mindestens" geschrieben.
AMD muss erstmal genügend Geld mit Zen verdienen um sich die Entwicklung einer komplett neuen CPU-Architektur überhaupt finanziell leisten zu können, selbst wenn diese "auf Pump" erfolgen sollte.

MK one schrieb:
...und dann wird man vermutlich stapeln , zumindest im Notebookbereich mit relativ wenig Takt
der 1 ste Layer I/O die , der zweite Layer der Speicher und der dritte Layer die CPU
Chips stapeln ist eine interessante Technologie. Funktioniert aber nur bei Chips welche wenig Abwärme produzieren zuverlässig, bedeutet im Bereich TDP weniger 10 Watt.
 
Da seh ich kein Problem 7 nm = - 35-40 % , 7nm+ = - 10 % und 5 nm nochmal -20 % Leistungsaufnahme = Ca 65-70 % weniger Leistungsaufnahme bei 5 nm im Vergleich zu 14 nm

nehmen wir die 35w TDP Klasse wird daraus 10,5 Watt ... oder auch 50W TDP = 15 W , auch das ließe sich stapeln ...
 
Volker schrieb:
Hinter den Kulissen gehen derweil die Startvorbereitungen für das zweite Halbjahr 2019 weiter.
Für die meisten hier dürfte es interessanter sein zu erfahren, wenn es im Desktop losgehen wird, aber wenn zuerst die U kommen, dann dürfte dies etwa ein Jahr danach der Fall sein.
Daniel D. schrieb:
Sind bei den Prozessoren eigentlich schon die ganzen Fehler behoben? Spectre, Meltdown etc.?
Das werden sie auf jeden Fall sein, aber die Frage ist, ob diese durch Hardwareänderungen erfolgt ist, oder nur dadurch das natürlich die Bugfixes von Anfang an im Microcode enthalten sein werden. Die Antwort darauf dürfte man zwar nur selten bekommen, aber sie wäre sicherlich nicht für alle bekannten Lücken die Gleiche.
latexdoll schrieb:
Also hat Intel noch keine schnellere Lösung mit Mesh in der Schublade und bleibt bei den Ringbus.
Mesh ist schneller, wenn es deutlich über 10 Kerne sind, darunter ist Ringbus schneller und vor allem dürfte der Ringbus sparsamer sein, denn die Interconnects haben einen ganz schön hohe Leistungsaufnahme!
 
dettweilertj schrieb:
TSMC hat als Zulieferer ja schon ein Monopol für desktop GPUs, da AMD und Nvidia vollkommen abhängig sind

Ach, ist das so? Dann hätte GlobalFoundries die GPU für meine R580 von TSMC gekauft und schnell mal umgelabelt?
Alternative Erklärung: Du gibst da wirre Fanboy-Parolen von Dir. Glaubwürdig macht Dich das nicht.
 
CPU-Bastler schrieb:
Genau das ist doch das Problem. Das Design wird immer Komplexer und damit Teurer. Die Sicherheit lassen wir mal außen vor.
Abhilfe: Schnellerer RAM. Das ist der Hebel um effektivere CPUs zu bekommen.
Das ist eine super Idee ... wenn du uns deutlich schnelleren RAM zu akzeptablen Preisen herbeizauberst. Mach mal!

Es gibt zwar RAM, der viel schneller als unser aktuell als Haupspeicher eingesetzter DRAM ist, aber die Kosten pro Bit sind dann dramatisch höher. Dein "Abhilfe" ist nach aktuellem Stand der Technik somit kein gangbarer Weg.

Wichtig ist für ~99% der Anwendungsfälle nicht
A) schnelles RAM (ohne Gänsefüßchen) im Sinne von 'JEDER DENKBARE ZUGRIFF auf den Hauptspeicher soll schnell sein' sondern
B) """schnelles RAM""" (mit vielen Gänsefüßchen) im Sinne von 'DIE TATSÄCHLICHEN ZUGRIFFE aufs RAM sollten im Durchschnitt schnell sein'.

Mach dir den Unterschied klar! Wie schnell die CPU auf RAM zugreifen könnte, auf den sie aber gar nicht zugreift, weil das Datum nicht benötigt, ist völlig egal. Die o.g. ~99% der Anwendungsfälle haben die angenehme Eigenschaft, dass RAM-Zugriffe alles andere als zufällig verteilt sind. Die Zugriffe sind sehr lokal. Und in genau diesem, fast immer zutreffenden Szenario bewirken unsere bekannten, sehr schnellen, pro Bit teueren, aber nur winzigen Caches eine dramatische Beschleunigung der durchnittlichen RAM-Zugriffszeiten. Man hat bei üblichen Workloads Cache-Hit-Raten weit jenseits der 90%.

Ja, die Cacherei machts leider komplex. Aber: Nein, die Cacherei machts nicht teuer. Ganz im Gegenteil: Caching = viel Bumms für wenig Geld in fast allen Szenarien.
 
Zurück
Oben