News Meteor Lake: Die erste Intel-CPU mit integrierter VPU für KI-Aufgaben

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
  • Gefällt mir
Reaktionen: flo.murr, schneeland, CMDCake und 8 andere
So so vpu mit ki. Leider unterstützt das meiner Anwendung so keines. Bin gespannt wie sie das so durch ziehen werden. Es muss aber allerdings von dem jeweiligen hersteller hergerichtet werden. Sonst funktioniert es null.

Diese direkt mit den anpassen der Ken auslastung so gut funktioniert das fall noch immer nicht. Meine Software hat damit jedenfalls Probleme gehabt. Also so unterschiedliche Ergebnisse. Also nicht alle neuen Funktionen Funktion so super. Ich scheine da genau auf diese Probleme zu stoßen. Diese sind halt schwierig. Selbst die aktuellste liefert unterirdische Ergebnisse ab.
Ich hoffe das wird in Zukunft besser werden und freilich kostet das auch wafer Fläche so ist das ja nicht. Mal sehen wie es weiter gehen wird.
 
Intel nennt hier wenigstens schonmal Adobe. Für AMDs AI in Phoenix gibt es aktuell keine Software, die diese nutzen kann
 
  • Gefällt mir
Reaktionen: Bigfoot29 und pvcf
Ein "Nebeneffekt" ist vermutlich, dass dadurch Windows 11 attraktiver werden soll. Mal sehen wie sich das auf die CPU Preise auswirkt.
 
latiose88 schrieb:
So so vpu mit ki. Leider unterstützt das meiner Anwendung so keines.

Henne - Ei Problem. Wie immer.

Finde aber generell, dass in Meteor Lake ne Menge Neuerungen stecken und es einer der interessantesten Starts der letzten Jahre werden könnte.
 
  • Gefällt mir
Reaktionen: 7H0M45, Gringoli, Recharging und eine weitere Person
Philste schrieb:
Intel nennt hier wenigstens schonmal Adobe. Für AMDs AI in Phoenix gibt es aktuell keine Software, die diese nutzen kann
Wie bitte soll das denn auch gehen? Es muss erst die Hardware verfügbar sein. Gibt ja keine Dev-Kits wie bei Konsolen...
Aber auch AMD hat mit Microsoft zusammengearbeitet. Als ich damals die News gelesen hatte - bin ich aber von ausgegangen daß es sich um etwas handelt das sie im Rechenzentrums Bereich umsetzen wollen...
Wusste nicht das sie das im Consumer Bereich als erstes bringen - macht aber Sinn - da kann man es in Ruhe testen...
 
Die aktuelle mobile 13th Gen könnte auf jeden Fall kaum uninteressanter und schlechter sein. Da ist das folgeprodukt automatisch besser. Fragt sich wie Intel-4 performt.
 
Aber schön... Intel spricht davon es bringen zu wollen - AMD hat es schon....
OK dafür dürfte die Intellösung ein anderes Kaliber haben...
 
Ich nutze ab und an Cloudbasierte AI wzb ChatGPT, Bildverbesserungen oder Sprachsynthese, wenn diese (vorallem die letzten beiden) lokal durch solch ein Asic beschleunigt werden und man nicht alles erst irgendwo hochladen und oder warten muss bis es irgendwo auf nem Server berechnet wurde, das wär schon nett.
Stellt euch doch mal vor, wenn Spiele einen großteil von generischem NPC text durch Sprachsynthese live auf dem PC erzeugen, eventuell sogar noch durch dynamisch genereierte Texte, die auf die Situation bezogen wären, der Immersionsgewinn wäre immens! Aktuell kann man sowas vergessen, da die Rechenleistung lokal nicht verfügbar ist. Meine Hoffnung wäre, dass dieses AI einheiten auf den CPU's sowas richten könnten.
 
  • Gefällt mir
Reaktionen: LamaMitHut, CMDCake und LukS
@Philste @Novasun

Intel Propaganda kommt hier mal wieder gut durch bei einigen:

1. AMD arbeitet ja schon lange mit Microsoft für AI bei phoenix in Windows zusammen, hat ja sogar Panay selbst bei der Phoenix Vorstellung bei der CES klar gestellt.
2. Lisa Su hat beim Adobe Summit ja mit deren CEO ganz klar gesagt, daß diese Phoenix/Windows AI fähigkeiten auch irgendwann bei Adobe Software zum tragen kommt.
3. Hier hat KEIN Hersteller irgendwas exklusives. Microsoft bietet mit WinML einfach ein abstraction layer für diese parallelen "AI"-Operationen mit niedriger Genauigkeit an. Die Hersteller wie AMD und Intel werden Treiber dafür anbieten. Auf Android und IOS läuft das genauso mit NNAPI (Beispiel: Qualcomm liefert Treiber für die Hexagon AI DSPs) und Core ML.
 
  • Gefällt mir
Reaktionen: Xiaolong, Tzk und Bigfoot29
Volker schrieb:
Das neue Stichwort dabei ist „AI-accelerated“, wie es Intel beschreibt. Es wird also nichts direkt von Null auf Hundert gehen, sondern bestimmte Tasks werden über die VPU hardwarebeschleunigt, also beispielsweise so, wie bisher eine integrierte GPU und ein Media-De- und Encoder Aufgaben von der CPU übernehmen, die diese einfach mit Brute Force und bei hohem Energiebedarf in langer Zeit herunter ackern würde. Auch Adobe wird im Zusammenhang dessen bereits genannt:
Also wieder nur Marketing Blabla...

Wann wollte AMD mit Fusion so richtig durchstarten? 10 Jahre her? Und wie haben sich die Leute in den Foren darüber die Mäuler zerupft?
Über geblieben ist ne GPU und ne CPU, die in einem Paket als APU tituliert wird, bei Intel hat es nichtmal nen eigenen Namen. Beides funktioniert unabhängig von einander und keine Software am Markt ist in der Lage ohne spezielle Anpassung oder wenigstens dediziertem Ansprechen der Einheiten einen Nutzen aus der internen GPU zu tragen. Dabei war es damals auch die gleiche Leier, da bringt die GPU Einheiten mit, die die CPU nur langsam kann und weil die da jetzt drin ist, wirds auf einmal schnell. Nee, so einfach funktioniert es eben nicht.

Solange das so bleibt, wird sowas nur nettes Feature sein. Oder es muss einen komplett allgemein gültigen Standard geben, wo jede Software drauf aufspringt und was dann einfach das go to Mittel der Wahl ist. Aber das scheint mir nicht so. Es riecht sehr danach, dass die Programmierer da wieder dediziert Einheiten ansprechen müssen damit überhaupt ein Vorteil entsteht. Und dann stellt sich wieder die Frage, wozu brauch ich das jetzt wirklich? Adobe nennt paar Sachen - gut und schön, hab ich leider nicht und will ich mir auch nicht leisten in ihrem Abo Modell. Mal schauen was da noch draus wird...
 
Und jetzt noch ein Treiber für Linux, damit man diese Engines auch mit OpenSource KIs nutzen kann.

Dann könnte man alles lokal und ohne Telemetrie nutzen 👍
 
  • Gefällt mir
Reaktionen: Draco Nobilis
Ja klingt gut.
Das Problem: "Klingt gut" ist bei Intel leider oft verdächtig.

Wäre aber gut wenn beide Hersteller da etwas anbieten.
AMD allein ist im Client OEM und mob. Workstation einfach noch viel zu klein, als das wer dafür entwickeln würde. Da wird es vermutlich eines Tages erst Intel richten das da mal wer seinen Arsch hoch bekommt.
 
Ich bin schon sehr gespannt, wie sich die KI-Einheiten von Intel und AMD im Vergleich schlagen werden und wie gut Programme davon Gebrauch machen werden.
 
Einfach unnötig, die sollten echte CPU Kerne bauen und keine E Kerne
welche viele schon absichtlich abschalten, weil diese Spiele Programme ausbremsen.

Ich werde so lange wie möglich keine neue CPU bestellen.
 
kramko schrieb:
Intel Propaganda kommt hier mal wieder gut durch bei einigen:
Hat nichts mit Intel Propaganda zu tun. Phoenix wurde Anfang Januar vorgestellt und 5 Monate später wird die groß beworbene AI von keiner Software unterstützt:

https://semiaccurate.com/2023/05/04/amd-manages-to-make-the-ryzen-7040u-look-worse-than-it-is/

Anfang des Monats kamen dann zum endgültigen Launch nochmal paar Folien, die irgendwas zur AI erzählen, ohne wirklich was auszusagen.

Ich persönlich denke nur wenn Meteor Lake launched, wird es am Launchday Software geben, die die AI Engine unterstützt. Ich bezweifle nicht, dass AMD daran arbeitet. Aber im Januar rumlabern, im Mai nochmal rumlabern, wenn die Kunden das Produkt schon haben und dann immernoch nichts unterstützen ist für mich ein No Go.
 
  • Gefällt mir
Reaktionen: His.Instance
pvcf schrieb:
Ich nutze ab und an Cloudbasierte AI wzb ChatGPT, Bildverbesserungen oder Sprachsynthese, wenn diese (vorallem die letzten beiden) lokal durch solch ein Asic beschleunigt werden und man nicht alles erst irgendwo hochladen und oder warten muss bis es irgendwo auf nem Server berechnet wurde, das wär schon nett.

Das nutze ich heute schon mit SD per Core ML in Verbindung mit einem M1 Max. CPU, GPU und NPU (Apples KI Einheit) rechnen gemeinsam die Bilder – lokal.
 
  • Gefällt mir
Reaktionen: pvcf
Nimmt man für AI nicht die GPU?
 
@Philste

Offensichtlich verstehst du gar nix und betreibst nur AMD bashing (wie die meisten deiner Threads).

Semiaccurate schreibt, daß das eine Black Box und beschwert sich, aber natürlich soll das so sein (Auch bei Intel). Nochmal: Da wird nicht direkt drauf zugregriffen sondern nur per WinML. Das es noch keine Anwendungen gibt liegt an Microsoft weil die noch keine Windows Funktionen dafür veröffentlicht haben.

Ich persönlich denke nur wenn Meteor Lake launched, wird es am Launchday Software geben, die die AI Engine unterstützt. Ich bezweifle nicht, dass AMD daran arbeitet. Aber im Januar rumlabern, im Mai nochmal rumlabern, wenn die Kunden das Produkt schon haben und dann immernoch nichts unterstützen ist für mich ein No Go.

Da sieht man wieder mal dein Anti-AMD gehabe. Wenn es bei Intel läuft, wird es auch bei AMD laufen. Das liegt nicht mehr an AMD. AMD hat seine Arbeit getan. Adobe Software wird auch erst kommen wenn Adobe die rausbringt. Das hat auch nicht mit Intel oder AMD zu tun.
Ergänzung ()

Tom_111 schrieb:
Nimmt man für AI nicht die GPU?

Diese NPUs (wie MS sie nennt) sind dedizierte Einheiten die unabhängig von CPU und GPU funktionieren sollen. Das hat zwei Vorteile:

1. Es werden keine Resourcen von CPU oder GPU genommen und du kannst auf die volle Performance zugreifen
2. Diese Einheiten sind sehr sehr Effizient für das Rechnen mit kurzen Datentypen (INT4, INT8, FP8 u.s.w)ohne zufälligem Datenzugriff. Selbst die Tensor Cores bei Nvidia können da von der Effizienz nicht mithalten.

Grundsätzlich gilt aber das WinML über DirectML auch auf GPUs auszuführen wäre, aber MS hat noch nicht viel gemacht. Die Microsoft Studio Effects sind so auch noch nicht lauffähig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bigfoot29 und tristank
Zurück
Oben