News Intel Meteor Lake: CPU mit VPU-Einheit für Künstliche Intelligenz im Hands-on

Hydradread schrieb:
Ansonsten ist es wohl nur eine Frage der Zeit, bis der ganze Schnick, Schanck komplett in der Cloud landet und Skynet uns alle versklavt.
Auch wenn es wahrscheinlich/hoffentlich ironisch zu verstehen ist.....bevor es eine KI in irgendeiner Form schafft uns zu versklaven, haben wir uns schon lange selbst beseitigt (und höchstwahrscheinlich die meisten anderen Lebensformen gleich mit).
Um solche Hollywood Zukunftsscenarien braucht sich wirklich niemand auch nur im geringsten Gedanken machen.

Im Gegenteil wäre es wohl für das Wohl aller Spezien auf der Welt von Vorteil, wenn die KI Entwicklung rasant Fortschritte machen würde, wie uns noch weitere 50+ Jahre so weiter machen zu lassen.
 
Schön, dass Intel gar kein Interesse daran zu haben scheint, den bis zu 3x so großen Stromverbrauch bei Spielen und Anwendungen gegenüber AMD einholen zu wollen, und sich stattdessen mit KI Kinkerlitzchen beschäftigt.
Bei der Arbeit habe ich wegen anhaltender Softwareprobleme anstatt einen 2700X nun einen 13600K hingesetzt bekommen.
Gut, die Probleme sind noch alle da, aber immerhin weiß nun jeder im Büro, wenn mein Computer mehr als 10% Last hat, weil ich beim Programmieren eine kurzzeitige Berechnung von Sekunden starte.
Dumm nur, wenn nun längere Zeit nichts passiert....^^
 
  • Gefällt mir
Reaktionen: Sun-Berg
Das laesst sich ja bestimmt durch ein Skript adressieren, entweder indem Du Last generierst oder (umweltfreundlicher) die Lüftersteuerung beeinflusst.

Abgesehen davon bin ich beim Meteor Lake bezüglich der Effizienz gespannt. Immerhin ist er viel mehr auf Mobilgeräte ausgelegt als die 12er und 13er-Generation, und auch die waren schon nicht schlecht, wenn man auf ein wenig Takt verzichtet hat.
 
kramko schrieb:
Manche tragen echt einen Aluhut: Damit ihre "fans" sie verteidigen können? Die werden wohl sicher was von Asus dafür bekommen.



Fast alle Laptop Ankündigungen kommen mit Datum. Das war auch bei den Phoenix Modellen nicht anders.


Vor allem mit AMD Datum :D AMD könnte das Teil in 10 Jahren bringen und dennoch würden es die hardliner noch verteidigen.


https://twitter.com/Olrak29_/status/1663487014371721216

👍
 
Artikel-Update: In Coreboot-Patches wurden am Wochenende weitere Einträge hinzugefügt, die wieder explizit von Meteor Lake-S sprechen, sich dabei aber auf 45 Watt beziehen. Dabei geht es primär aber explizit um die Unterscheidung zwischen den verschiedenen Typen und eben einem mit zusätzlichen Chipsatz.

Code:
Introduce different SoC flavors of Meteor Lake

This patch introduces the different SoC flavors of Intel Meteor Lake as:
* MTL-U
* MTL-P
* MTL-S

MTL-U and MTL-P are PCH less designs, while MTL-S is with PCH die.
The task for mainboard is to specify the correct SoC type rather than
selecting the MTL SoC by default.

This change is necessary to support the different SoC flavors of Intel
Meteor Lake.

Code:
config SOC_INTEL_METEORLAKE_U_P
	bool
	select SOC_INTEL_METEORLAKE
	help
	  Choose this option if your mainboard has a MTL-U (15W) or MTL-P (28W) SoC.
	  Note, MTL-U/P SoC combines Compute, GFX, SoC and IOE die.
config SOC_INTEL_METEORLAKE_S
	bool
	select SOC_INTEL_METEORLAKE
	help
	  Choose this option if your mainboard has a MTL-S (45W) SoC.
	  Note, MTL-S SoC combines Compute, GFX, SoC, IOE and PCH die.
 
BxBender schrieb:
Schön, dass Intel gar kein Interesse daran zu haben scheint, den bis zu 3x so großen Stromverbrauch bei Spielen und Anwendungen gegenüber AMD einholen zu wollen, und sich stattdessen mit KI Kinkerlitzchen beschäftigt.


Was hindert Dich daran, dem Intel Prozessor ein engeres Powerlimit zu verpassen? Die paar % oben die man sich mit der völlig unnötigen TDP holt sind kaum der Rede wert.

Sobald Intel mit den Processnodes wieder gleichwertig zu TSMC ist, ab dann wird es richtig interessant ;)
 
Hübsch, Blender ist schon dabei. Da sehe ich enormes Potential für NPUs, gerade wenn es um Texturen und prozedurales generieren von Landschaften und Objekten geht.
 
Mich interessiert nur eines:
kann die KI-Einheit den DeppGPT vom Postillon beschleunigen? ^^ ;-P
 
  • Gefällt mir
Reaktionen: JeanLuc Bizarre
//differentRob schrieb:
Was hindert Dich daran, dem Intel Prozessor ein engeres Powerlimit zu verpassen?
Die meisten OEMs, da sie keine Einstellmöglichkeiten ins UEFI packen.
Im Endeffekt also hunderte Millionen von Computern und Notebooks weltweit.

In Geräten mit ordentlich dimensionierten Kühlern oder SFF Desktops mit i3 - i5 ist das ja in der Regel kein Problem, weil es nicht auffällt. Außer beim Stromverbrauch, aber da hat Intel im Gegenzug im idle die Nase vorn.
Bei Notebooks ist es aber umso schlimmer. Alles leidet unter den absurd hohen Turboboost Limits.
Mini Lüfter föhnen penetrant, die Akkulaufzeit bricht ab leichter Last sehr schnell ein, das Gerät wird heiß usw.
Seit Jahren mehren sich die Modelle, wo sich kaum Unterschiede herauskristallisieren zwischen i5 - i7 - i9 weil eh alle hoffnungslos aus dem letzten Loch pfeifen.

Und das alles obwohl Intel sogar TDP-down Spezifikationen angibt. Ein i7-1165G7 den ich auf bis 12W runter deckeln kann? Sofort gerne. Würde vermutlich in 95% meines Alltags nicht mal auffallen.

Apple M1-2 Notebooks deklassieren seit 2,5 Jahren Intel und AMD und zeigen auf was im Bereich Effizienz und Stromsparen möglich ist. Mal schauen wann hier wieder die restliche Industrie Apple hinterherzieht.
 
Woher kommt eigentlich der Irrglaube, dass Intel bei Spielen "bis zu 3x höheren Verbrauch hat"? Selbst in Anwendungen wie Blender reden wir von 20% mehr beim 13900k ohne Limits. Und nicht "3x mehr". Das wären ja 700W dann.
 

Anhänge

  • Clipboard02.jpg
    Clipboard02.jpg
    52 KB · Aufrufe: 90
  • Clipboard03.jpg
    Clipboard03.jpg
    59,6 KB · Aufrufe: 86
  • Gefällt mir
Reaktionen: Humbertus
@DevPandi
Also wichtig für die 3 Leute die in 720p mit 890 fps zocken.
 
  • Gefällt mir
Reaktionen: Yosup
DevPandi schrieb:
Die "3x" ist eine Übertreibung
Die Aussage passt am ehesten, wenn man die Formulierung "für alle, die nur spielen wollen" aus der Überschrift zum Test des 7800X3D für bare Münze nimmt. Und wenn man dann stattdessen den Test von TechPowerUp nimmt, wo sich der Achtkerner bei Spielen in allen Auflösungen ein totes Rennen mit dem 13900K liefert, dann sieht man 49W zu 143W, also etwa 2,91x. Der Unterschied dürfte bei den höheren Auflösungen mit derzeit aktuellen GPUs geringer sein. Aber voilà, da haben wir grob das "3x". 😉

Der 13900K liefert allerdings außerhalb von Spielen dann massiv mehr Performance, daher ergibt der Vergleich ohne das obige Zitat wenig Sinn.
 
Zurück
Oben