News Intel Lunar Lake: Details zur 4+4-Kern-CPU mit LPDDR5X auf dem Package

Luna-lake ist glaube ich mobile auf low power optimiert mit tsmc P-cores. weil Meteor-Lake wird Desktops abdecken und die modernste Intel fertigung nutzen die auch den hoechsten Takt erlaubt.
 
Matthias B. V. schrieb:
Und wer rüstet wirklich auf da meistens andere Komponenten limitieren.
Also wenn ich mein System aufrüsten musste dann war es GPU und Ram, und gerade Ram öfter als die GPU.
marcel151 schrieb:
Da Valve mit AMD zusammenarbeitet, nein.
Jetzt, wenn Intel mal so einen richtigen Brecher bringt könnten die auch wechseln
marcel151 schrieb:
Wissen kann ich es nicht, dennoch ist klar, dass es nicht Intel sein wird.
Das ist richtig, ich denke auch das sie noch lange bei AMD bleiben werden, die bringen sich mehr in die ganze Linuxgeschichte ein als Intel und Nvidia und daran wirds wohl am Ende liegen.
 
Philste schrieb:
4× Lion Cove + 4× Skymont sind also zu 4× ZEN2 kein Upgrade? Selbst die Little Cores sollen den neusten Gerüchten nach die IPC von Golden Cove haben. Und 1024 Battlemage ALUs zu 512 RDNA2 ALUs auch nicht? N6 zu N3 ist auch zu wenig? Was darf es dann sein? Im Endeffekt glaube ich aber auch nicht dran.

Nichts was eine Veränderung an der Hardware rechtfertigen würde. Man hat sich auch bewusst für Zen2 statt Zen3 entschieden... 8 CU's statt 12CU's und 4x Zen2 statt 8x Zen3. Ist ein ROG Ally oder Legion Go soviel besser bei gleicher Leistungsaufnahme?

CPU seitig schwerer einzuschätzen, aber die 1024 ALUs erinnern an die ARC A380... und diese ist in etwa auf RX 6400 Niveau (=12 RDNA2 CU's) 🤷‍♂️

BAR86 schrieb:
Natürlich wird an Deck 2 gearbeitet, oder an Deck 1.2, 1.3, 1.4 , 1.5 (Deck 1.0 ist das original Release in der Aufstellung, 1.1 der überarbeitete OLED Release).
Woher kommt immer die Meinung, dass man nach dem Release eines Produkts Däumchen dreht?

Woher kommt immer die Meinung, dass der andere keine Ahnung hat? Ich sprach explizit von einem "Deck 2" (...mein 512GB OLED ist unterwegs).

k0n schrieb:
marcel151 schrieb:
, dass es nicht Intel sein wird. Wetten würde ich eingehen. ;-)

Ich würde es nicht ausschließen. Wenn Intel konkurrenzfähig ist, sich ins Zeug legt und das bessere Angebot macht, weil sie es als Prestigeprojekt haben wollen (Gaming, Mobile, Effizienz, Tiles, Flexibilität, ARC, ...)
 
sikarr schrieb:
Also wenn ich mein System aufrüsten musste dann war es GPU und Ram, und gerade Ram öfter als die GPU.
Aber doch nur wenn man es von vornherein falsch gewählt hat.

Anders als beim GPU Upgrade wo man ganze Generationen an Leistung herausholt macht der Speicher keinen Unterschied. Klar wenn man zu geizig war und nur 8GB wählt statt einfach direkt 16 GB oder 32 GB aber das weiß man doch von vornherein…

Kenne keinen Fall in dem man nicht voraussehen konnte wieviel RAM man braucht und die Anforderungen dann unerwartet so drastisch gestiegen sind…
 
k0n schrieb:
Woher kommt immer die Meinung, dass der andere keine Ahnung hat? Ich sprach explizit von einem "Deck 2" (...mein 512GB OLED ist unterwegs).
und woher kommt immer die Meinung, dass man nicht an einem Nachfolger arbeitet, sofern der Vorgänger halbwegs als Erfolg betrachtet wird?
NATÜRLICH arbeitet man dann an einem Nachfolger
 
BAR86 schrieb:
und woher kommt immer die Meinung, dass man nicht an einem Nachfolger arbeitet, sofern der Vorgänger halbwegs als Erfolg betrachtet wird?
NATÜRLICH arbeitet man dann an einem Nachfolger
It’s important to us that the Deck offers a fixed performance target for developers, and that the message to customers is simple, where every Deck can play the same games. As such, changing the performance level is not something we are taking lightly, and we only want to do so when there is a significant enough increase to be had. We also don’t want more performance to come at a significant cost to power efficiency and battery life. I don’t anticipate such a leap to be possible in the next couple of years, but we’re still closely monitoring innovations in architectures and fabrication processes to see where things are going there.

Klar macht man irgendwas (OLED, dies und das), aber die Hardwarebasis (für ein "Deck 2") steht noch gar nicht fest. Man hält die Augen auf... wenn das für dich schon an einem Nachfolger arbeiten ist 🤷‍♂️ (da war man ja schon mal mit HL³ weiter).

Die Sache mit Van Gogh hab ich etwas seltsam in Erinnerung. Rückblickend: von Anfang an mit und für VALVE designed oder gecancelt und dann von VALVE aufgegriffen.
 
Zuletzt bearbeitet:
k0n schrieb:
Klar macht man irgendwas (OLED, dies und das), aber die Hardwarebasis (für ein "Deck 2") steht noch gar nicht fest. Man hält die Augen auf... wenn das für dich schon an einem Nachfolger arbeiten ist 🤷‍♂️ (da war man ja schon mal mit HL³ weiter).
ja, ab wann beginnt für dich denn "arbeiten"?
Grundlagenforschung und mit den Herstellern über künftige Prozesse, Prozessore, Entwicklungen usw reden oder verhandeln ist sehr wohl bereits arbeiten.
Du kannst nicht einfach warten...warten...warten...warten - oh, jetzt ist Zen 6 draußen, der Leap ist groß genug, lasst uns schnell eine Konsole zusammenbauen.
Da sind Jahrelange Software(weiter)entwicklungen, usw mit dabei, das läuft alles parallel und einiges wird auch schon angedacht oder gar entwickelt, dass wir in Deck 1.x nicht mehr sehen werden.
Also ja, es wird schon an der Zukunft gearbeitet.
Übrigens arbeitet Nvidia auch schon an der Geforce 6xxx (Design ist fertig) und 7xxx (mitten in der Designphase), 8xxxx (Konzept oder High-Level-Design) sowie an diversen technologischen Entwicklungen die für die 9xxxer Generation. Man ist konstant im Austausch mit den Devs, man schaut sich Algorithmen an wie die performen, entwickelt konstant irgendwelche Tools und Features weiter (nicht nur die bekannten).
Oder aktuell Meteor Lake. 2024 kaufbar, seit Ende 2021 (!) fertig (im sinne von: kam funktionsfähig aus den Fabs, keine größeren Änderungen mehr). Designphase begann wohl irgendwann ~2016, wobei die Entwicklungen davür schon viele Jahre davor begannen: wahrscheinlich zur Zeit der Entwicklung des Core 2 Quad hat man sich schon Gedanken über bessere MCM Verfahren gemacht, Prototypen entwickelt, geforscht usw.
Das was wir am Ende als MTL kaufen könnten, ist eine laaaange laufende parallele Entwicklung von Technologien.
Parallel dazu gibts dann halt ein Team, das sich "hinsetzt" und eine CPU Designed. Dabei schaut man sich an: "wenn wir in 5+ Jahren fertig sind, welche Technologie werden wir da ca haben" und beginnt mit dem Highlevel Design einer Architektur, achtet parallel darauf, ob die Entwicklungen tatsächlich so vorwärts kommen usw usf.
Im Falle von Intel: parallel dazu beginnt 1 Jahr später das nächste kleine Team mit dem Design (auch wenn es nur ein Refresh sein soll, das hängt halt dann von der Zielvorgabe ab). Was ist verfügbar (im "Baukasten"), was solls kosten, was macht die Konkurrenz usw.
So läuft das.
Und wenn wir tatsächlich erstmals MTL im Notebook kaufen können, sind bei Intel intern schon die nächsten 4+ Chipfamilien im selben Bereich in Entwicklung (ob du das nun so nennst oder nicht... )
Und deshalb weiß man intern ja schon seit Jahren, was dann kommen wird. Auch die Performance der eigenen und Konkurrenzprodukte kennt man nicht selten Jahre vorher.
Bei Nvidia sieht man das auch manchmal, wenn ein Produkt, das lange Zeit in der Gerüchteküche existiert hat, also in Planung war, fallen gelassen wird. Damit reagiert man zum Teil auch auf Performanceprognosen die man von der Konkurrenz so hört.
So wurden auch bei der 4000er Gen einige Specs nochmal geändert und auch Chips kurzfristig gecancelled, als ein paar Monate vor Release klar wurde, wie die 7900er performen wird.
 
Ist Lunar Lake nicht die CPU für passiv gekühlte Notebooks mit ca 10W? Liest sich interessant

Hin oder her. Klingt gut. Nur mit gelötetem RAM kann man schnelle iGPUs bauen. Sodass auch mal Cyberpunk mit mehr als 1080p Niedrig mit 40fps drin sind bei 70W. Guckt mal bei Apple.

Ich hoffe dass Intel nicht zu knauserig mit den Speicher ist. Damit wittern viele Hersteller Geld. (Apple, Nvidia) Nicht dass die son Quatsch wie Celeron 4GB, Pentium 8GB, i3 12GB, i5 16GB und 32GB nur exklusiv für den teuren i7 anbieten. Solche Trends sehe ich ja schon beim Celeron N100, der kein Dual Channel kann.

Celeron 8G, Pentium und i3 16GB, i5 32GB und i7 64GB wären gut.
 
Zuletzt bearbeitet:
Matthias B. V. schrieb:
Im Peak wird es mehr sein

Kommt darauf an.

Der "Peak" wird ja nur über den Turbo geregelt. Wenn Intel also will, sind die 8 Watt fest gesetzt. Ob man diese Rechenleistung dann noch verkaufen kann, bleibt abzuwarten.

Mal schauen, was Meteor mit 35, 25 und 15 Watt abliefern wird, dann kann man langsam abschätzen, wo lunar lake landet.

Ganz sicher hat Intel das Rad aber nicht neu erfunden und mit 8 Watt die Leistung einer "High-End-Gaming-Maschine" ist eher nicht wirklich denkbar.

Schaut man über den Tellerrand, sieht man bei AMD einen 96 Kern Prozzi im 350 Watt Korsett, der ordentlich abliefert und mit "Feuer frei" locker 1200 Watt säuft.

AMD kann also heute im hier und jetzt, mit unter 4 Watt pro Kern, ordentlich abliefern und danach, kommt noch viel mehr. Nur die Effizienz leidet, wenn man das technisch machbare abliefert, da Geld keine Rolle spielt.

Wo Intel dann ihre CPU platziert, werden sie ziemlich wahrscheinlich aktuell noch nicht einmal selber wissen, es wird aber eine gute Mischung aus Leistung, Verbrauch und Herstellungskosten sein. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: Matthias B. V.
Stimme ich voll zu. Nur aus der Erfahrung schätze ich die 8W als „Durchschnitt“ oder „Normalfall“ ein.

Wie beim Auto eben auch 5L im Schnitt oder 20 wenn Vollgas gibst. Und bei anderen CPUs wie Du schon sagtest sind die 45W oder 125W dann nachher auch 80W oder 300W im Peak… Klar wird man es bei einem LowPower gerät eher zügeln. Dann sind es dort halt 15-20W Peak.
 
[wege]mini schrieb:
Mal schauen, was Meteor mit 35, 25 und 15 Watt abliefern wird, dann kann man langsam abschätzen, wo lunar lake landet.
Hmmm
Ungern aber doch drängt sich in meinem Hirn hier ein Einwand/ Eine Frage auf:
MTL und LL sind doch sehr unterschiedlich, dachte ich:
-MTL nutzt die seit Rocket Lake bekannte, weiterentwickelte Architektur während Lunar Lake-so dachte ich zumindest- eine neue einsetzen könnte
-der größte Vorteil bei MTL ist das zentrale SoC, das auch ohne Compute Core, extra GPU Tile und Co laufen kann, bei LL "ist alles in einem"
-die GPU Architektur in MTL ist Alchemist basierend und ich dachte die in LL schon Battlemage
-LL nutzt einen gänzlich anderen Prozess TSMCs N3B

was die Effizienz unter Last betrifft könnten sich die beiden stark unterschiedlich verhalten: so könnte MTL einen Vorteil haben, wenn die Last so gering ist, dass das zentral liegende SoC ausreicht, während LL generell effizienter sein könnte, aber in der Spitze natürlich weniger Leistung bietet
[wege]mini schrieb:
Ganz sicher hat Intel das Rad aber nicht neu erfunden und mit 8 Watt die Leistung einer "High-End-Gaming-Maschine" ist eher nicht wirklich denkbar.
stimmt. Was bei solch niedrigen Lasten halt das Provlem ist, ist dass durch Kommunikation zwischen Chipteilen allein schon viel Verbrauch anfällt. Wird dieser reduziert hat man viel gewonnen. Wie hier bei LL. Der Rest kommt über Architektur, taktraten, Prozesse.
Mein Surface Go 3 ist teilweise schnarchlangsam, UND drosselt sich bei manchen Applikationen/ (2D)Spielen weil es zu heiß wird. Da könnte ein N3B LL ein großer Sprung sein im Vergleich zum "Pentium Gold" in 14nm und niedriger IPC
[wege]mini schrieb:
es wird aber eine gute Mischung aus Leistung, Verbrauch und Herstellungskosten sein. :heilig:

mfg
ich hoffe es auch, Bewegung im Markt wäre gut für uns alle
 
  • Gefällt mir
Reaktionen: [wege]mini
BAR86 schrieb:
MTL und LL sind doch sehr unterschiedlich, dachte ich:

Sind sie auch. Daher sollte LL mit weniger Strom, noch einmal besser werden als MTL und die Tatsache, dass Intel bei der Fertigung immer noch aufholt (sie behaupten, sie könnten sogar überholen, ohne aufzuholen) bleibt aber im Raum stehend.

Wenn MTL bei 35 Watt die Leistung eines Core i5 14600K mit 75 Watt bringt, wäre das ein ordentlicher Fingerzeig.

Beide haben auf dem Papier 6P Kerne und 8E Kerne. Wenn die Fertigung jetzt eine Halbierung des Stromverbrauchs bei gleicher Rechenleistung ermöglicht, wäre das schon einmal gut. Die neue Architektur, kann man dann vernachlässigen.

Danach eine weitere Halbierung des Verbrauchs bei gleicher Rechenleistung, wäre echt gut.

Bei Intel, ist sehr viel Potential vorhanden, wenn man über Verbrauch redet. Da ist echt viel möglich und noch viel mehr denkbar.

Man darf immer träumen dürfen und ein 15 Watt LL mit Rechenleistung eines i5 14600K, wäre doch schon einmal ein guter Anfang. Weiter und immer weiter. Ganz sicher aber nicht im Bereich Verbrauch.

In wenigen/ einigen Monaten sind wir alle schlauer und in wenigen/ einigen Jahren, werden wir über die aktuelle Technik lächeln.

Es würde mich nicht wundern, wenn eine "Smartwatch" in 10 Jahren die Rechenleistung eines i5 14600K hat, bei 1 Watt Verbrauch.

mfg
 
[wege]mini schrieb:
Man darf immer träumen dürfen und ein 15 Watt LL mit Rechenleistung eines i5 14600K, wäre doch schon einmal ein guter Anfang. Weiter und immer weiter. Ganz sicher aber nicht im Bereich Verbrauch.
Ja, da ist viel möglich.
Ich war neulich überrascht, weil ich meinen uralt-PC, der superflott funktioniert und auf dem ich alles spielen kann was ich will (inklusive Doom Eternal bei 144 fps) mal durch Cinebench gejagt hab: das Ding ist zwar schon 15 Jahre alt (i7 920, 24 GB RAM), aber es läuft eben noch alles (4 Kerne, 8 Threads). Aber die Leistung muss ja heute für deutlich geringeren Verbrauch auch möglich sein. Doch das Surface Go 3 kommt bei weitem nicht ran. Wird aber Zeit. Und gerade mit dem quasi schon integrierten DDR5x ist einiges möglich an a) Strom sparen und b) "Reaktionsgefühl" gewinnen, noch nichtmal die tatsächliche Leistung.
Denn das Surface Go 3 fühlt sich träge an. Liegt am SPeicher (Emmc) aber auch am lahmen RAM, Prozessor.
Da ist enorm viel Spielraum nach oben. Ein LL in 8-15 W wäre hier eine Bereicherung, aber vor allem weil er schon mit 16 GB RAM kommt
 
  • Gefällt mir
Reaktionen: [wege]mini
BAR86 schrieb:
i7 920, 24 GB RAM

Meine Mum arbeitete bis zu ihrer Rente mit einer "Schreibmaschine", die aus WinXP, AthlonXP, 3GB RAM und einer lahmen Festplatte bestand/ besteht.

Das Ding ist ein Shuttle XPC, wurde von mir konfiguriert. Bootet schnell, darf nicht ins Internet und hat alles gemacht, was es machen sollte.

Um höhere Anforderungen in den letzten Jahren ihrer Tätigkeit zu ermöglichen, habe ich ihr dann einen i5 460m (2 Kerne, 4 Freds), 8GB RAM mit GTX420m GPU (1 GB RAM) zusätzlich hin gestellt, den ich bei einem Gamerbuddy für einen Freundschaftspreis bekommen habe. Das ist auch schon wieder 7 Jahre her.

Heute machen beide Systeme immer noch, was sie sollen und für die Anforderungen meiner Mum, ist das absolut i.O.

Ich habe ihr schon gezeigt, was sie als nächstes bekommt (wenn das alte kaputt ist) und sie wünscht sich manchmal, das alte Zeug soll endlich kaputt gehen.

Die wenigen Sekunden/ Minuten an Lebenszeit, die sie gewinnt, sind ihr aber die Investition nicht wert, obwohl sie als ehemalige Angestellte des Staates mit Rente und Pension, finanziell wirklich gut aufgestellt ist. Sie ist aber nun einmal Mathe/ Physik Lehrerin in der Abiturstufe gewesen und daher, muss bei ihr immer alles ein "Kosten-Nutzen" Verhältnis haben.

Mein Dad hat von mir einen i7 1195G7 (4 Kerne, 8 Freds) bekommen, der mit 12 Watt läuft. Der Herr Steuerberater braucht aber, für seine Anwendungen, "mehr Power".

Das System muss zum Anwender passen und wenn ich mir heutzutage manche Systeme anschaue, darf ich häufig nur lächeln. Die Gedanken sind frei. Zu sagen was man denkt, bringt einen trotzdem oft in Schwierigkeiten.

Wie sagten schon die guten, alten KFZ-Mechaniker? "Zeige mir dein Auto und ich sage dir, wie du bist". :heilig:

Für die überwiegende Anzahl der Konsumenten, ist das Hardwareprodukt, was sie kaufen, überdimensioniert.

Wenn man heute über 8 Watt redet, glauben immer alle an Taschenrechner. Die Tatsache, dass diese Dinger mehr liefern, als sie brauchen, wollen sie dann nicht hören.

mfg
 
  • Gefällt mir
Reaktionen: BAR86
Matthias B. V. schrieb:
Aber doch nur wenn man es von vornherein falsch gewählt hat.
Ich baue die Systeme mit dem zu der Zeit gängigen Spezifikationen auf. Also wenn 8GB Standard sind dann bau ich 16GB ein.

Mein aktuelles System ist ein Alderlake mit 32GB, warum keine 64GB, weils zu teuer ist und auch nicht von nöten. In 2 Jahren kann das aber anders aussehen und dann werde ich evtl. nochmal 32GB nachrüsten.

Von vornherein falsch gewählt wäre wenn ich heute noch 16GB verbauen würde.
 
Ja eben aber wenn man nicht zu knapp kalkuliert und bisschen mit einplant sollte es für 99% der User reichen.

Oder man braucht die Maximale Leistung und geht vermutlich von vornherein auf einen Desktop.

Wie gesagt war keine Kritik sondern eher eine Einschätzung wie viele es betrifft.
 
Eine Verständnisfrage meinerseits:
Fungiert ein LPDDR5-Ram auf dem Package als eine "Art L4-Cache" mit geringeren Zugriffszeiten als auf klassischen System-RAM? L3-Cache wäre aber dennoch schneller?
 
Zurück
Oben