News Intel-Studie: Wie stark verlagern sich AI-Berechnungen auf lokale PCs?

Es wäre halt schön, wenn die NPU in der nächsten Generation nicht bei 100, sondern schon bei 200 bis 300 TOPS liegen würde. Mit 100 TOPS ist schließlich auch nicht so viel zu schaffen. Die Software braucht auch eine Weile, bis die NPU genutzt werden kann. Und wenn die Software so weit ist, sind die NPU's zu langsam.

Mit 300 TOPS kann man dann schon Videos entrauschen und upscalen, wenn auch nur von 720p in Echtzeit. Wenn Topaz sie unterstützt, sollte die NPU an eine RTX 3060 rankommen.

Auch Spiele könnten von einer starken NPU profitieren. Vorausgesetzt, die Technik hält auch in der kommenden Playstation Einzug. Wenn die NPU's aber so langsam beleiben ist man mit jeder <250 € GPU schneller.
 
Damit ein Gerät den Status des AI-PCs erfüllt, benötigt es entsprechend von Intels Definition lediglich eine NPU. Das Zusammenspiel der Neural Processing Unit mit der CPU und GPU sei das wichtigste.

Erinnert mich irgendwie an früher mit CoProzessor und FPGA beschleunigerkarten.
 
Das OpenAI und ChatGP die Cloud präferieren ist klar, denn nur so kann man den Leuten monatlich Geld aus der Tasche ziehen. Auf lange Sicht und mit zunehmender Rechenpower werden sich lokale Lösungen aber durchsetzen denk ich, weil sie am Ende performanter sein werden wenn sie nicht auf Serverantworten warten müssen.
 
typisch wie immer: Cloud Dienste bringen Geld, die lokalen NPU Erweiterungen sind im Moment noch ein sinnloser Hype und ich sehe auch keine Änderung in Zukunft...
 
Andy schrieb:
Immer mehr Anwendungen sollen künftig aber lokal laufen. Entscheider in Unternehmen begrüßen und fördern diesen Trend, wie eine aktuelle Studie von Intel zeigt. Das passt aber auch zur Wette des kriselnden Chip-Riesen.
Diese beiden Sätze zeigen einem, daß bei Intel noch immer nicht ein Funken umdenken stattgefunden hat.

Man muß als Mega-Corpse ominöse Dritt-Firmen mit Studien beauftragen, die zu horrenden Gebühren seltsamerweise immer zum dem Schluß kommen, daß für Produkt X oder Variante Y ein Markt würde bestehen – Und falls nicht, daß man diesen zumindest für Unsummen bewerben (oder im Falle der Fälle gar medial kreieren könnte, für noch mehr Marketing-Budget versteht sich!).

So wird eine ganze Industrie an Marketing- und Marktforschungsfimen am Leben erhalten, welche für oftmals stupide bis kundenfeindliche Ideen Millionen-Honorare kassieren …

Ein Glück daß Keiner in der geheuchelten Argumentationsverkettung der Begründungsverknotung (um CPUs um weitestgehend sinnlose Funktionseinheiten zu erweitern, welche in erster Linie den Unternehmen selbst dienen) auf die Idee kam, mal die Kunden zu fragen.

Wahrscheinlich wurde das sogar unterlassen, weil sich Diejenigen die Antwort der Kunden eh denken konnten.
 
  • Gefällt mir
Reaktionen: Salutos
Bei lokalen Funktionen ist doch sicher das größte Problem, dass die Firmen die Modelle/Weights ebenfalls auf lokale Clients laden müssten. Und das ist das letzte, was sie wollen.
Cake und eat it wird in diesem Fall an der Physik der Technologie scheitern.
 
Der Markt wird sich sicherlich zukünftig aufteilen.
Man merkt es ja heute schon wie manch Ki Anbieter priorisiert und die Ergebnisse daher schwanken.

Mein Tipp:
  • Einige Sachen lokal sowie es die HW hergibt.
  • Manche Dinge in der Cloud so wie man seine Daten hergibt.
  • jede Menge kostenpflichtiger Abos für uneingeschränktes Ki Vergnügen und beste Performance.
 
Zurück
Oben